Mathematics | Studies, essays, thesises » Englert Ákos - A térbeli medián

Datasheet

Year, pagecount:2012, 60 page(s)

Language:Hungarian

Downloads:8

Uploaded:May 11, 2024

Size:3 MB

Institution:
[BCE] Corvinus University of Budapest
[ELTE] Eötvös Loránd University

Comments:

Attachment:-

Download in PDF:Please log in!



Comments

No comments yet. You can be the first!

Content extract

Eötvös Loránd Tudományegyetem Budapesti Corvinus Egyetem Englert Ákos A térbeli medián MSc szakdolgozat Biztosítási és pénzügyi matematika szak Aktuárius szakirány Témavezet® : Dr. Mályusz Károly, vezet® aktuárius Cardif Biztosító Zrt., Cardif Életbiztosító Zrt Budapest, 2012. El®szó Szeretném ezúton is megköszönni témavezet®mnek, Dr. Mályusz Károlynak, hogy sok hasznos tanáccsal látott el formai és tartalmi kérdésekben egyaránt. Köszönöm azt a sok id®t és energiát, amit a megbeszéléseinkre szánt és a segítséget, amit a kapcsolódó szakirodalom fölkutatásában nyújtott. Szintén köszönettel tartozom évfolyamtársaimnak, akikkel az egyetemi évek alatt minden feladatot, nehézséget megbeszélhettem, és minden körülmények között számíthattam rájuk. Külön köszönet illeti Tóth Andrást a dolgozat els® fejezetéhez nyújtott segítségéért. Köszönöm továbbá tanáraimnak, családomnak, barátaimnak,

munkatársaimnak és mindenkinek, aki hozzájárult tanulmányaim sikerességéhez, de legf®képpen Menyasszonyomnak, akinek szeret® támogatására mindig számíthatok. 2 Tartalomjegyzék Bevezetés 6 1. A Fermat-Weber feladat 9 1.1 Telepítési problémák 9 1.2 A Weiszfeld algoritmus 12 1.3 Számítások Excelben 19 2. A térbeli medián 25 2.1 A térbeli medián fogalma 25 2.2 Aszimptotikus viselkedés 27 2.3 A térbeli kvantilis 29 3. Többközpontú telepítési problémák 32 3.1 Egy többközpontú telepítési feladat 32 3.2 Alkalmazása a klaszteranalízisben 33 3.21 k-közép klaszterezés 34 3.22 k-térbeli medián klaszterezés 34 4. A Monge-Kantorovics feladat 37 4.1 Az eredeti feladat

37 4.2 A relaxált feladat 38 5. Laplace eloszlás 5.1 Egy dimenziós Laplace eloszlás 40 . 41 5.11 Tulajdonságok 41 5.12 A paraméterek becslése 42 3 TARTALOMJEGYZÉK 4 5.13 Aszimmetrikus Laplace eloszlás (AL-eloszlás) 42 5.2 Többdimenziós AL-eloszlás . 47 5.3 Stabilitási tulajdonságok 49 Függelék Irodalomjegyzék 52 59 Ábrák jegyzéke 1.1 Az egy dimenziós eset . 10 1.2 A két dimenziós eset 11 1.3 A klasszikus Fermat-féle feladat 12 1.4 Kuhn példája 14 1.5 A konkáv négyszög esete 17 1.6 Weiszfeld algoritmus az Excelben 20 1.7 Példa: a konvex négyszög esete 20 1.8 Kuhn példája 21 1.9

Példa: az egyik Ai pont a medián 21 1.10 Magyarország legnépesebb városainak adatai 22 1.11 Példa: A legnépesebb városok adatai 23 1.12 Példa: Normális eloszlással közelíthet® aggregált kárösszegek 24 2.1 A3 helyett A′3 -at véve a medián nem változik 26 3.1 Kiugró adatok 35 3.2 Elnyúlt klaszterek 36 5.1 A Laplace-eloszlás s¶r¶ségfüggvénye 41 5 Bevezetés A Budapesti M¶szaki és Gazdaságtudományi Egyetem Épít®mérnöki Karának Építéskivitelezési Tanszékén egy kutatási témához (építési területek megtervezése, ellátási pontok meghatározása, planírozás) matematikai segédeszközként fölmerült a Fermat-Weber, illetve a Monge-Kantorovics problémakör irodalmának földolgozása és számítási módszereinek áttekintése. Mivel a modern eszközök nagyrészt a

valószín¶ségszámítás, illetve a matematikai statisztika irodalmából származnak, alkalmazási lehet®ségeik túlmutatnak az adott m¶szaki problémákon. Az egészségbiztosítás területi, illetve strukturális megszervezése hasonló feladatokhoz vezet. Általánosabb szinten a biztosítási kockázatok elméletének az a része, ahol a vastag szélek jelenséggel kell számolni, természetesen vezet olyan helyzetekhez, ahol várható érték helyett hatásosabb mediánnal dolgozni. Jelen dolgozat célja a térbeli medián fogalmának, tulajdonságainak, kiszámítási módszereinek bemutatása, alkalmazási területeinek ismeretetése és a kapcsolódó szakirodalom áttekintése. Bemutatjuk továbbá a Laplace eloszlásokat, amelyek esetén a paraméterek becslése a mediánon keresztül történik, és tulajdonságaik miatt a biztosításmatematikában, és pénzügyi folyamatok modellezésénél is sikerrel alkalmazhatók. Az els® fejezetben bemutatjuk a Fermat-Weber

feladatot, amely a telepítési problémák közül az egyik legrégebbi múltra visszatekint® feladat. Véges sok ponthoz keressük az ún. Weber-pontot, amelynek a többi ponttól vett távolságainak összege minimális. Ezen pont megtalálásához nincs explicit formula, viszont algoritmusok rendelkezésre állnak. A legrégibb ilyen algoritmus a Weiszfeld által kidolgozott eljárás. Bemutatunk egy olyan példát, amelyben Weiszfeld eredeti algoritmusa nem 6 BEVEZETÉS 7 ad optimális megoldást, hiszen az iterációs lépés az eretedileg megadott pontokban nem értelmezett, az algoritmus pedig gyelmen kívül hagyja annak valószín¶ségét, hogy az iterációs lépések során egy ilyen pontba kerülünk. A dolgozat els® fejezete Vygen munkája nyomán [24] részletesen ismerteti a Weiszfeld algoritmus menetét, annak egy lehetséges kiterjesztésével az el®bb említett probléma kezelésére. A dolgozat része az algoritmust tartalmazó Excel-makró. Ennek kódja

a függelékben található, m¶ködését a dolgozat els® fejezete példákon keresztül mutatja be. A második fejezetben deniáljuk a térbeli mediánt, megmutatjuk, hogy abban az esetben is létezik, ha nincs várható érték. A deníción túl Möttönen, Nordhausen és Oja [21] nyomán a térbeli medián aszimptotikus viselkedését is tárgyaljuk. Kézenfekv® az igény, hogy a térbeli mediánhoz hasonlóan a térbeli kvantilis fogalmát is értelmezzük. Bemutatjuk a térbeli kvantilis denícióját, ami a mediánnal ellentétben nem rendelkezik geometriai tartalommal, mégis azt mondhatjuk, hogy a térbeli kvantilis kell® mértékben használható általánosítás, hiszen a koordináták általában különböz® jelleg¶ mennyiségek. A dolgozat harmadik fejezete bemutat egy többközpontú telepítési problémát, majd kitér arra, hogy a térbeli mediánt hogyan tudjuk alkalmazni a klaszteranalízisben. A legismertebb nem hierarchikus klaszterezési eljáráshoz, a

k-közép klaszterezéshez hasonló k-medián procedúra számítása bonyolultabb ugyan (átlagok számítása helyett pl. a Weiszfeld algoritmus használata a klaszterközéppontok megtalálásához), bizonyos esetekben azonban használhatóbb megoldást ad. Az ügyfelek kockázati csoportokba sorolásakor egy biztosítónál gyakran fölmerül® feladat a leghatékonyabb módszer kiválasztása, amely lehet a k-medián eljárás is. A negyedik fejezetben a Monge-Kantorovics feladatot mutatjuk be. Az eredeti feladat relaxáltját, illetve ennek duálisát Kantorovics írta föl, megoldására használhatók például különböz® folyamalgoritmusok, illetve lineáris programozási eszközök. A feladathoz kapcsolódóan deniáljuk mértékek Wasserstein-távolságának fogalmát, amely hasznos eszköz valószín¶ségi eloszlások összehasonlításánál. A dolgozat záró fejezete a Laplace eloszlásokat mutatja be. Megmutatjuk, hogy BEVEZETÉS 8 a Laplace eloszlás

helyparaméterének maximum likelihood becslése a mintaelemek tapasztalati mediánja, a skálaparaméter becslése pedig a medián megkeresése során minimalizálandó távolságátlag. Deniáljuk az ún aszimmetikus Laplace eloszlások családját (AL-eloszlások), ezeknek egy és több dimenziós változatait is bemutatjuk. Az eloszlás többdimenziós kiterjesztése esetén a helyparaméter becslése a térbeli medián, így a Laplace eloszlások vizsgálata természetes módon merül föl a térbeli medián fogalmának, számítási módszereinek és kapcsolódó szakirodalmainak áttekintése során. Az AL-eloszlások fontos tulajdonsága, hogy el®állnak független valószín¶ségi változók összegének eloszlásbeli határértékeként, ahol az összeg tagszáma geometriai eloszlású valószín¶ségi változó ν 0 paraméterrel. A dolgozatban bizonyítással együtt bemutatunk egy a centrális határeloszlás általános alakjához hasonló határeloszlás tételt

véletlen tagszámú összegekre, ahol az összeadandók számának eloszlása geometriai. A véletlen tagszámú összegek a biztosításmatematikában természetesen merülnek föl, gyakran használjuk ®ket összkárok leírásához. Az AL-eloszlások az ilyen összegek között úgy viselkednek, mint x tagszámú összegek esetén a normális eloszlás, így biztostásmatematikai szempontból mindenképp lényeges az AL-eloszlások tárgyalása. Az AL-eloszlások a pénzügyi folyamatok modellezése során széleskör¶en használt geometriai-stabilis eloszlások közé tartoznak. Az eloszlás vastag szélei, és a második momentumának létezése teszi preferálttá a normális, és más stabilis eloszlásokkal szemben. A dolgozat által fölhasznált eredmények egészen a XVII. századig nyúlnak vissza, az általunk tárgyalt téma a valószín¶ségszámítással gyakorlatilag egyid®s. Jelen dolgozat csaknem négy évszázad eredményeit foglalja össze XVII. századi

matematikusok (például Torricelli, Varignon, vagy a valószín¶ségszámítás megalapozói között els® sorban említend® Fermat) eredményeit®l egészen napjainkig. A dolgozat alapvet® céljain túl tehát érzékelteti azt is, hogy a valószín¶ségszámítás és statisztika napjainkban is dinamikusan b®vül®, egyre hatékonyabb eszköztára régi és stabil alapokra épül, jelen esetben például egy klasszikus geometriai feladatra. 1. fejezet A Fermat-Weber feladat 1.1 Telepítési problémák Közgazdaságtani és m¶szaki területen is fontos optimalizálási probléma, hogy egy mások számára szolgáltatást végz® szervezet, vagy er®forrás egységeit hová érdemes telepíteni, hogy a kiszolgálás minél hatékonyabb legyen. Például ha boltok helyét akarjuk megválasztani, számolnunk kell azzal, hogy a fogyasztó számára az is költséggel jár, hogy eljusson a boltba. Ezt a költséget a bolttól való távolsággal arányosan képzelhetjük el,

így a kereskedelmi egységeket oda célszer¶ telepíteni, ahol az összes potenciális vásárlótól vett távolságuk a lehet® legkisebb. Ha egy város telületén belül akarunk boltokat telepíteni, érdemes meggondolni, hogy a lakótelepek, ahol kis területen sok ember él, nagyobb súllyal esnek latba az optimalizálás során, hiszen több embernek lesz közel a bolt, ha a lakótelep közelében nyílik. Ennek a problématípusnak több változata is ismert, széles kör¶ szakirodalom tárgyalja az optimális telepítéseket leíró matematikai modelleket. A problématípus egyik legrégebbi változata az ún. Fermat-Weber feladat, amely azt a kérdést teszi föl, hogy véges sok adott pont esetén melyik lesz az a pont, amelynek a pontoktól vett súlyozott össztávolsága minimális. Tehát a feladat : 1.11 Feladat Adott A1 , A2 , , Am ∈ Rd és w1 , w2 , , wm ∈ R+ , keressük azt a P ∈ Rd pontot, amely minimalizálja a következ® függvényt: D(P ) = m

∑ wi ∥P − Ai ∥ i=1 9 10 1.1 Telepítési problémák Itt ∥X∥ az X ∈ Rd euklideszi normáját jelenti: ∥(x1 , . , xd )∥ = √ x21 + · · · + x2d . A feladat legegyszer¶bb változata az egy dimenziós eset, amikor a megadott pontok súlya egységnyi, és mindegyik egy egyenesen található. Ekkor az optimális pont a statisztikából ismert medián lesz, vagyis páratlan sok pont esetén a pontok közül a középs®. Ez egyszer¶en belátható, hiszen ugyanannyi pont lesz a mediántól balra, mint jobbra. Rendezzük ®ket párokba, és vegyük észre, hogy a pontpárok egy-egy olyan szakaszt határoznak meg, amelyek hosszainak összege mindenképpen hozzájárul a minimalizálandó össztávolsághoz, és éppen egyenl® a mediántól vett össztávolsággal. A5 A4 A2 M = A3 A1 1.1 ábra Az egy dimenziós eset Az ábrán látható példa esetén az optimális megoldás az M = A3 pont lesz. Észrevehetjük, hogy az A1 M és M A5 szakaszok hosszának

összege nem lehet kisebb az A1 A5 szakasz hosszánál. Ugyanígy az A2 M és M A4 szakaszok hosszának összege nagyobb vagy egyenl®, mint az A2 A4 szakasz hossza. Így a minimalizálandó össztávolság legalább az A1 A5 és A2 A4 szakaszok hosszának összege. M -et pontosan A3 -nak választva ez a becslés éles, így ez a pont biztosan optimális. Ha az Ai pontok száma páros, akkor az M pont helye nem egyértelm¶. Ebben az esetben a két középs® pont által meghatározott szakasz bármely pontja optimális lesz. Az optimális M pont meghatározása már két dimenzió esetén, a síkban is lényegesen bonyolultabb. A feladat legegyszer¶bb többdimenziós változata, amikor négy síkbeli ponthoz (melyek közül semelyik három sincs egy egyenesen és egy konvex négyszöget határoznak meg) keressük azt a pontot, amelynek a négy ponttól vett össztávolsága 11 1.1 Telepítési problémák minimális. Könny¶ látni, hogy az optimum ekkor a pontok által

meghatározott konvex négyszög átlóinak metszéspontja. Ha a négy pont közül három ugyanazon az egyenesen van, akkor pedig a három kollineáris pont közül a középs® lesz az optimális. A3 A4 A4 M A2 A1 A2 A1 A3 1.2 ábra A két dimenziós eset 1.11 Megjegyzés Ha a négy síkbeli pont egy konkáv négyszöget határoz meg, akkor a négyszög konkáv csúcsa lesz az optimum. Ezt az állítást kés®bb bizonyítjuk Érdekes meggyelni, hogy ha három pont esetén (legyenek ezek A, B és C ) keressük azt a pontot (D), amelynek a három ponttól vett össztávolsága minimális, a megoldás egyáltalán nem olyan nyilvánvaló, mint a "konvex négyszög esete", de geometriai eszközökkel még megválaszolható. A kérdést Pierre de Fermat tette föl el®ször Torricellinek, aki már a XVII. században választ adott rá Bebizonyította, hogy az ABC háromszög oldalaira írt szabályos háromszögek köré írható körök metszéspontja éppen az

optimális D pont. Kés®bb Cavalieri és Simpson révén bizonyítást nyert, hogy ADB^ = BDC^ = CDA^ = 120◦ , illetve hogy a CE, AF és BG szakaszok is éppen a D pontban metszik egymást (ezen szakaszok által meghatározott egyeneseket Simpson egyeneseknek nevezzük). A feladat megoldása elemi trigonometriai eszközökkel adódik, itt nem részletezzük, [24]-ben megtalálható. 12 1.2 A Weiszfeld algoritmus 1.3 ábra A klasszikus Fermat-féle feladat 1.12 Megjegyzés Ha a három pont által meghatározott háromszög legnagyobb bels® szöge 120◦ -nál nagyobb, akkor az optimális D pont a tompaszög¶ csúcs lesz. Az el®bb említett speciális esetekben az optimum viszonylag könnyen meghatározható volt, általánosabb esetben ez azonban már jóval bonyolultabb. Képletek és formulák helyett algoritmusok állnak rendelkezésre az optimális pont megtalálásához. Egyik legismertebb és legrégibb módszer a Weiszfeld algoritmus, melyet Jens Vygen [24]

munkája nyomán tekintünk át. 1.2 A Weiszfeld algoritmus Belátható, hogy abban az esetben, ha az Ai pontok nincsenek egy egyenesen, a fönti D függvény szigorúan konvex, ezáltal a minimuma egy egyértelm¶ M ∈ Rn pont. Ennek megtalálására Weiszfeld a következ® algoritmust adta : Ha P ∈ / {A1 , A2 , . , Am }, akkor f gradiensének ellentettje P -ben : R(P ) = m ∑ i=1 wi Ai − P ∥Ai − P ∥ 13 1.2 A Weiszfeld algoritmus Így ha az optimum nem esik egybe egyik megadott ponttal sem, akkor R(M ) = 0, tehát M fölírható a következ®képp: ∑m M= wi Ai i=1 ∥M −Ai ∥ ∑m wi i=1 ∥M −Ai ∥ Legyen minden P ∈ / {A1 , A2 , . , Am } pontra: ∑m wi Ai i=1 ∥P −Ai ∥ wi i=1 ∥P −Ai ∥ T (P ) = ∑m Weiszfeld a következ® állítást látta be : 1.21 Állítás P0 ∈ / {A1 , A2 , . , Am } esetén a T iterációjával kapott P0 , T (P0 ), T (T (P0 )), . sorozat az M optimális ponthoz tart Weiszfeld algoritmusa tehát

egy P0 kezd®pontból indul ki, és a T (P0 ) pontba lép, azt követ®en a T (T (P0 )) pontba, és így tovább. T -t iterálva az algoritmus az optimális M megoldáshoz konvergál. Az eredeti algoritmus azonban gyelmen kívül hagyja annak a valószín¶ségét, hogy valamelyik iterációs lépés után az egyik Ai pontba kerülünk. Ebben az esetben a T (Ai ) nem értelmezhet®, így az algoritmus nem folytatható. Ezt a problémát illusztrálja a következ® példa, amely Kuhn-tól származik ([17]) : 1.21 Példa Adott a síkban négy pont rendre a megadott súlyokkal: A1 = (20,0) ; w1 = 5 ; A2 = (59,0) ; w2 = 5 ; A3 = (−20,48) ; w3 = 13 ; A4 = (−20, −48) ; w4 = 13 A Weiszfeld-algoritmus pedig induljon a P = (44,0) pontból. Ekkor az els® lépés után a következ® pontba jutunk : T (P ) = w1 A1 ∥P −A1 ∥ w1 ∥P −A1 ∥ + + w2 A2 ∥P −A2 ∥ w2 ∥P −A2 ∥ + + w3 A3 ∥P −A3 ∥ w3 ∥P −A3 ∥ + + w4 A4 ∥P −A4 ∥ w4 ∥P −A4 ∥ =

5A1 24 5A2 3 4 + 13A + 13A 15 80 80 5 5 + 15 + 13 + 13 24 80 80 + = (20,0) = A1 14 1.2 A Weiszfeld algoritmus 1.4 ábra Kuhn példája Az algoritmus az A1 pontból nem tud továbblépni, hiszen T (A1 )-et nem értelmezzük. Belátható azonban, hogy az optimális megoldás nem A1 , hanem az origó. 1.21 Megjegyzés A feladatot szemléletesen a következ®képp is elképzelhetjük. Vegyünk egy asztalt, és az A1 ,A2 ,A3 és A4 pontok helyén fúrjunk rá négy lyukat. A lyukakon f¶zzünk át madzagokat, melyeket az asztal fölött kössünk össze, az asztal alatt pedig a pontokhoz tartozó wi -kkel arányos súlyokat kössünk rájuk. Ekkor az asztal tetején az összekötött csomó éppen az optimumba fog kerülni, hiszen a súlyokból és a madzagokból álló rendszer a potenciális energiájának minimumára törekszik. A minimális energiaszintet akkor éri el a rendszer, ha a madzagok asztal alá es® részeinek összhossza maximális. A madzagok hossza x, tehát

az energiaszint minimális volta szükségszer¶en vonja magával, hogy az asztal fölötti részek összhossza minimális. Természetesen a megoldás pontos helyét nem találjuk meg ezzel a módszerrel, de egy jó képet ad az optimális megoldás viselkedésér®l. Általánosabban elképzelhetjük úgy a problémát, hogy az d dimenziós térben megadott Ai pontok rendre wi er®vel vonzzák maguk felé a "tér pontjait". Ekkor keressük azt az egyensúlyi pontot, amelyre ható er®k ered®je nulla. Ez a szemlélet Pierre Varignon leleménye, aki korának egyik leghíresebb mértantudósa, emellett Newton els® franciaországi híve volt. A Newtonnal való levelezés nagy hatással volt munkásságára, a feladat ezen megközelítése is ennek egyik bizonyítéka. 15 1.2 A Weiszfeld algoritmus Példánk esetén a szimmetria miatt könnyen látható, hogy az optimum az X tengelyen lesz (mert az egyensúlyi pontban ugyanannyi er® hat "fölfelé", mint

"lefelé"). Meggyelhet® az is, hogy A2 -t®l jobbra nem lehet egyensúlyi pont (hiszen innen minden er® balra húz), és az A1 és A2 közötti pontok esetén az A1 és A2 pontok erejének ered®je nulla, a másik két er® (A3 és A4 ) viszont balra húz, így az optimum mindenképp A1 -t®l balra keresend®, azaz azok az (X,0) pontok jöhetnek szóba, melyekre X ≤ 20. A vizsgált (X,0) pontokat jobbra 2 · 5, balra 2 · 13 · cos α er® húzza, melyek egyensúly esetén szükségszer¶en egyenl®k. Tehát 2 · 5 = 2 · 13 · cos α cos α = 5 13 Az ábrán látható A4 , az (X,0) és a (−20,0) pontok által meghatározott háromszögból kapjuk, hogy tan α = 48 (20 + X) Egyszer¶ trigonometriai meggondolással kapjuk, hogy √ √ 5 2 1 − ( 13 ) 2 sin α 1 − cos α 12 tan α = = = = 5 cos α cos α 5 13 A tan α kétféle fölírásából azonnal adódik, hogy X = 0, vagyis az optimális megoldás éppen az origó. 1.22 Megjegyzés [7]-ben több olyan

konkrét, szimmetrikus példa is található, ahol geometriai úton, az el®bbiekhez hasonló meggondolásokkal, a Weiszfeld algoritmus nélkül megtalálható az optimális megoldás. Ezen a példán keresztül láthattuk, hogy a Weiszfeld algoritmus eredeti formájában nem mindig adja az optimális megoldást, hiszen "elakadhat" valamelyik Ai pontban. Ezen probléma kiküszöbölésére Kuhn eredménye használható Meggyelése szerint egyszer¶en megállapítható, hogy az optimális M pont egybeesik-e az eredeti Ak pontok valamelyikével. Ehhez legyen: Rk = m ∑ i=1,i̸=k wi Ai − Ak ∥Ai − Ak ∥ 16 1.2 A Weiszfeld algoritmus Vegyünk egy tetsz®leges Z ∈ Rd irányt (∥Z∥ = 1). Ekkor 1 ≤ k ≤ m-re d D(Ak + tZ) dt = wk − RkT Z t=0 Ezzel a deriválttal azt vizsgáljuk, hogy ha egy Ak pontból Z irányba lépünk egy kicsit, hogyan változik D értéke. Ha Ak pontban vagyunk, a D értékét legjobban Z= Rk ∥Rk ∥ irányba lépve

csökkenthetjük. Ebben az esetben az el®bbi derivált: d D(Ak + tZ) dt = wk − ∥Rk ∥ t=0 Ebb®l könnyen adódik, hogy az Ak pont pontosan akkor lesz a D függvény minimuma, ha a legnagyobb csökkentés iránya sem csökkenti a D függvény értékét, azaz a derivált Z = 1.22 Állítás Rk ∥Rk ∥ esetén sem lesz negatív. Ak = M ⇐⇒ wk ≥ ∥Rk ∥ 1.23 Megjegyzés A zikai szemlélet szerint az állítás annyit mond, hogy Ak pont pontosan akkor lesz a D függvény minimuma, ha a többi Ai pont irányába mutató, rendre wi nagyságú er® ered®je nem nagyobb a wk súlynál, azaz a többi pontból ható er®k együttesen nem tudják elmozdítani az Ak pontot, amely wk nagyságú er®vel "ragaszkodik a helyéhez". 1.24 Megjegyzés Ezen állítás segítségével bizonyítsuk be a négy pontos eset azon változatát, ahol a négy síkbeli pont konkáv négyszöget alkot. 1.23 Állítás Legyenek A1 , A2 , A3 , A4 egy konkáv négyszög csúcsai,

ahol A1 legyen a konkáv csúcs. Ekkor az D(P ) = ∑4 i=1 ∥P − Ai ∥ függvény minimumhelye éppen az A1 pont. Bizonyítás. Kuhn észrevétele szerint A1 pontosan akkor lesz D minimumhelye, ha 1≥ A2 ∥A2 ∥ A3 A4 + ∥A + ∥A . Feltehetjük, hogy A1 az origóban van, a vele szemközti csúcs 3∥ 4∥ (A3 ) pedig az y tengelyen. Ekkor könnyen látható, hogy az A2 csúcs az x tengely szerinti pozitív, az A4 csúcs pedig a negatív félsíkon lesz, hiszen a négyszög konkáv. Igaz továbbá az is, hogy az A2 és A4 csúcsok közül legalább az egyik az y tengely szerinti negatív félsíkon lesz, tegyük föl, hogy ez az A2 pont. Ekkor látható, hogy az A4 pont az origó és az A2 által meghatározott (az ábrán szaggatott vonallal jelölt) 17 1.2 A Weiszfeld algoritmus 1.5 ábra A konkáv négyszög esete egyenes alatt, az y tengelyt®l balra helyezkedhet el. Ezekkel a feltevésekkel írjuk föl Kuhn állítását. A1 = M ⇐⇒ 1 ≥ (cos α, sin

α) + (0,1) + (cos β, sin β) Ahol 270◦ < α < 360◦ és α − 180◦ < β < 270◦ . Számoljuk ki a jobb oldalt : (cos α + cos β,1 + sin α + sin β) = √ 3 + 2(sin α + sin β + sin α sin β + cos α cos β) Bizonyítsuk be, hogy a zárójelben lév® kifejezés −1-nél nem nagyobb. sin α + sin β + sin α sin β + cos α cos β ≤ −1 √ (sin α + 1)(sin β + 1) − (1 − sin2 α)(1 − sin2 β) ≤ 0 √ √ √ √ ) (√ (sin α + 1)(sin β + 1) sin α + 1 sin β + 1 − 1 − sin α 1 − sin β ≤ 0 A zárójel el®tti kifejezés nemnegatív. Tudjuk, hogy sin α negatív, és sin β < − sin α, amib®l a zárójelben lev® kifejezés negativitása következik. Tehát Kuhn állításából adódóan A1 valóban a D függvény minimuma. Feltehetjük tehát, hogy az Ak pontok közül egyik sem minimalizálja az D függvényt (különben az el®bbi feltétel ellen®rzésével már megtaláltuk volna az optimumot). Így egy Ak pontból

kiindulva D értékét csökkenthetjük, ha az Z = Rk ∥Rk ∥ irányba lépünk egy kicsit. Vygen [24] számolással igazolta a következ® lemmát : 18 1.2 A Weiszfeld algoritmus 1.21 Lemma Legyen t′k { } 1 = min ∥Ak − Ai ∥ : 1 ≤ i ≤ m, i ̸= k > 0 2 { { }} ∥Rk ∥ − wk ′ tk = max 0, min tk , ∑m 4wi i=1,i̸=k ∥Ak −Ai ∥ minden 1 ≤ k ≤ m esetén. Ekkor ⋄ tk = 0 ⇐⇒ Ak = M ( ) Rk ⋄ D(Ak ) > D Ak + tk ∥Rk ∥ minden Ak ̸= M -re. 1.25 Megjegyzés t′k minden Ak pontra a legközelebbi Ai ponttól vett távolság fele. tk deníciója pedig a d D(Ak +tZ) dt derivált vizsgálatából, annak föls® becslésével adódott. Ezen lemma alapján Rautenbach, Struzyna, Szegedy és Vygen [22] a következ®képp terjesztették ki Weiszfeld T iterációját :   T (P ), ∗ T (P ) =  A +t k Rk k ∥Rk ∥ , ha P ∈ Rd {A1 , A2 , . , Am } ha P = Ak , 1 ≤ k ≤ m. Belátható, hogy a P0 , T ∗ (P0 ), T ∗ (T ∗ (P0

)), . sorozat minden P0 ∈ Rd esetén az optimális M ponthoz tart. Ha valamelyik Ai pont lesz az optimális M pont, akkor a tk lépésköz értéke Kuhn állítása miatt 0 lesz, így az iteráció ebben a pontban leáll. 1.21 Tétel Ha P0 ∈ Rd és Pk = T ∗ (Pk−1 ) minden k ∈ N, akkor limk∞ Pk = M Bizonyítás. A bizonyítást vázlatosan tekintjük át, a felhasznált lemmák állításait ismertetve. 1.22 Lemma Legyen P ∈ Rd . ⋄ T ∗ (P ) = P ⇐⇒ P = M ⋄ T ∗ (P ) ̸= P =⇒ D(T ∗ (P )) < D(P ). 1.26 Megjegyzés A lemma szerint a javított algoritmus pontosan az optimumot hagyja xen, a többi pont esetén pedig javítja az D függvényt, vagyis egy olyan pontba lépünk, ahol a minimalizálandó súlyozott össztávolság kisebb lesz. 19 1.3 Számítások Excelben 1.23 Lemma lim P Ak ,P ̸=Ak ∥T ∗ (P ) − Ak ∥ ∥Rk ∥ = (∀k = 1, . , m) ∥P − Ak ∥ wk Az eredeti Ak pontok optimalitására vonatkozó állításból, és

ezen két lemmából belátható a következ®: 1.24 Lemma Ha Ak ̸= M , akkor létezik olyan ϵ, δ > 0, melyre:   (1 + ϵ)∥P − A ∥, ha P ∈ Rd , 0 < ∥P − A ∥ ≤ δ k k ∗ ∥T (P ) − Ak ∥ ≥  δ, ha P = Ak . Ezen lemma segítségével bebizonyítható, hogy a Pk sorozat egy részsorozata egy ( ) Rd {A1 , A2 , . , Am } {M } -beli ponthoz konvergál, amib®l D folytonosságát és konvexitását felhasználva kapjuk a tétel állítását. A bizonyítás részleteibe itt nem megyünk bele, [24]-ben megtalálható. Tehát a Weiszfeld-algoritmus segítségével véges id®n belül megtalálhatjuk azt az M pontot, melynek az Ak pontoktól vett súlyozott össztávolsága minimális. Az algoritmus azonban meglehet®sen lassan konvergál az optimumhoz. Az algoritmus által megtalált M pontot fogjuk mediánnak nevezni. 1.3 Számítások Excelben A Weiszfeld algoritmus kiterjesztett változatát a függelékben szerepl® makró tartalmazza. Ennek

segítségével kiszámíthatjuk az össztávolságot minimalizáló M pontot legfeljebb 1000 db legfeljebb 20 dimenziós pont esetén. (A makró futásideje nagy példák esetén meglehet®sen hosszú.) Az Ai vektorokat a B6 : U 1005 cellatartományban kell megadni soronként. A pontok súlyait az A6 : A1005 tartományból, a pontok számát a B2 cellából, a dimenziószámot az A2 cellából olvassa be a makró. Az algoritmus kiindulási pontját a B3 : U 3 tartományban állíthatjuk be. A futtatás során az aktuális P pont koordinátáit a G2 : U 2 tartomány tartalmazza, az eredményként kapott pontot pedig a G1 : U 1 cellákból olvashatjuk le. 1.3 Számítások Excelben 20 1.6 ábra Weiszfeld algoritmus az Excelben Ha az algoritmus során valamelyik Ai pontba kerülünk, akkor egy panel jelenik meg, ami erre gyelmeztet. A makró ezután kiszámítja a szükséges tk lépésközt Amennyiben ez 0-val egyenl®, akkor Kuhn állítása szerint optimumban vagyunk, így az

algoritmus leáll. A makró ebben az esetben kiírja, hogy az optimális M pont valamelyik Ai ponttal egyezik meg. Látható, hogy a korábban említett egyszer¶ példák esetén a program a várt megoldásokat adja. 1.7 ábra Példa: a konvex négyszög esete 21 1.3 Számítások Excelben 1.8 ábra Kuhn példája 1.9 ábra Példa: az egyik Ai pont a medián Alkalmazzuk a Weiszfeld algoritmust egy kicsit nagyobb példára is. A Budapesti Corvinus Egyetemen tanult Többváltozós statisztikai modellezés nev¶ tantárgy keretein belül elkészített házi dolgozatomban Magyarország 30 legnépesebb városának adatait vizsgáltam. A használt adatokat a 2001 1.3 Számítások Excelben 22 évi népszámlálás publikált adataiból válogattam ki. (Az adatok forrása : http://www.nepszamlalashu/hun/kotetek/06/20/data/tabhun/toc4html) A következ® táblázat mutatja Magyarország 30 legnépesebb városának népességét, területét, foglalkoztatottsági adatait,

illetve a családok és a fels®fokú végzettség¶ek számát mindegyik városban. 1.10 ábra Magyarország legnépesebb városainak adatai Ezen 8 változó esetén számítsuk ki a 30 város mediánját. A Weiszfeld algoritmus szerint az optimális M pont a következ®: ( M= ) 63622,3 13136,9 26226,1 2061,4 17997,6 17328,7 17987,6 5790,1 1.3 Számítások Excelben 23 1.11 ábra Példa: A legnépesebb városok adatai Látható, hogy "mediánváros" népességében és területében Veszprémhez áll legközelebb, fogalkoztatottsági mutatói viszont kicsit rosszabbak, a fels®fokú végzettséggel rendelkez®k száma is kevesebb. Érdemes összehasonlítani a kapott vektort az átlagokkal. Meggyelhetjük, hogy a Budapest nélküli átlagokat is jócskán alulmúlják a kapott M pont koordinátái. Mivel a 30 legnépesebb várost vizsgáltuk, ezért az eloszlás jobbra ferde, így az eredmény nem meglep®. A példából is láthatjuk, - ahogy err®l kés®bb

még lesz szó - hogy a medián kevésbé érzékeny a kiugró adatokra, mint az átlag. Végül tekintsünk még egy példát (a Statisztikai módszerek a biztosításban cím¶ tárgy konzultációs anyaga nyomán). Adott két típusú kár, melyekre az aggregált kárösszegek normális eloszlással közelíthet®k. A várható értékeik 25, illetve 50 millió Ft, szórásuk pedig 1, illetve 15 millió Ft. Feltételezzük, hogy a két aggregált kárösszeg közötti korreláció 0,5. Végezzünk szimulációt 1000 elem¶ minta segítségével, majd a Weiszfeld algoritmust alkalmazva határozzuk meg a kárösszegek mediánját. Az 1.3 Számítások Excelben eredmény az alábbi ábrán látható. 1.12 ábra Példa: Normális eloszlással közelíthet® aggregált kárösszegek 24 2. fejezet A térbeli medián 2.1 A térbeli medián fogalma Az el®z® fejezetben olyan telepítési problémákat vizsgáltunk, ahol a d-dimenziós térben (d = 1,2, . ) magadott véges sok

ponthoz kerestünk egy "középpontot" Láttuk, hogy egy dimenziós esetben a medián, amely a statisztika egyik nevezetes középértéke, ideális választásnak bizonyul. Magasabb dimenzióban is ugyanez lesz igaz, a térbeli mediánt az el®z® fejezetben szerepl® optimalizálási feladat segítségével deniáljuk. A medián több dimenzió esetén is egy nevezetes középérték lesz, az els® fejezetben bemutatott Weiszfeld algoritmus pedig a statisztikusok számára is hasznos eszköz ezen középérték kiszámításához. Természetesen adódó feladat, hogy egy ismeretlen többdimenziós eloszlás helyparaméterét próbáljuk becsülni egy véges nagyságú mintából. A legegyszer¶bb szimmetrikus eloszlások esetén a térbeli medián megegyezik a várható értékkel, általánosabb esetben azonban érdekes lehet a viselkedése. Mivel a medián a kiugró adatokra nem érzékeny (azt mondjuk, hogy a medián robusztus becsl® ), ezért számos esetben jobban

jellemzi a nem normális eloszlásokat, mint a várható érték. 2.11 Megjegyzés Az els® fejezetben bemutatott zikai szemlélet is érzékelteti, hogy a térbeli medián kevéssé érzekeny a kiugró adatokra, hiszen a megadott pontok a sík pontjait egységnyi er®vel húzzák maguk felé, távolságtól függetlenül. Ha tehát az egyik megadott pontot tetsz®legesen messze visszük a medián ponttal meghatározott egyenes mentén, a medián nem változik, hiszen ebb®l a nagyobb 25 26 2.1 A térbeli medián fogalma távolságból is ugyanakkora lesz a medián pontra ható er®. A′3 A4 A1 M A3 A2 2.1 ábra A3 helyett A′3 -at véve a medián nem változik Ez a tulajdonsága a biztosításmatematikában is rendkívül hasznossá teszi a térbeli mediánt, hiszen a biztosítók által készített becslések során a kiugróan nagy károk megfelel® kezelése kulcskérdés. 2.11 Deníció Legyen x egy d-dimenziós valószín¶ségi vektorváltozó F

eloszlásfüggvénnyel. F térbeli mediánjának azt a µ vektort nevezzük, ahol az m(a) = = E(|x − a|) függvény minimuma fölvétetik. (Azaz ∀a ∈ Rd -re E|x − µ| ≤ E|x − a|) 2.11 Állítás Ha az x valószín¶ségi változó eloszlása nem egy egyenesre koncentrált, akkor a térbeli medián egyértelm¶. Bizonyítás. Indirekt tegyük föl, hogy µ ̸= ν az eloszlás két különböz® térbeli mediánja, azaz m(µ) = m(ν) = min m(a). Ekkor minden x ∈ Rd -re a háromszög egyenl®tlenségb®l adódik, hogy 1 1 1 1 1 1 x − µ − ν = (x − µ) + (x − ν) ≤ |x − µ| + |x − ν| 2 2 2 2 2 2 Ha az x vektor nincs rajta a µ és ν által meghatározott egyenesen, akkor a szigorú egyenl®tlenség teljesül. Mivel feltevésünk szerint az x vektorváltozó eloszlása nem egy egyenesre koncentrált, ezért várható értéket véve fennáll a szigorú egyenl®tlenség, azaz 1 1 1 1 E x − µ − ν < E|x − µ| + E|x − ν| 2 2 2 2 Ebben az

esetben azonban m( 21 µ + 12 ν) < m(µ) = m(ν) lenne, ami ellentmondás, hiszen µ-r®l és ν -r®l föltettük, hogy térbeli medián. Tehát a térbeli medián egyértelm¶. 27 2.2 Aszimptotikus viselkedés Ha a térbeli mediánt a fönti módon deniáljuk, akkor a létezésének szükséges feltétele, hogy létezzen az x valószín¶ségi vektorváltozó várható értéke. A deníciót kissé módosítva a várható érték létezésére nincsen szükség ([12]) : 2.12 Deníció Legyen x egy p-dimenziós valószín¶ségi vektorváltozó F ( ) eloszlásfüggvénnyel. F térbeli mediánjának a D(a) = E |x − a| − |x| függvényt minimalizáló µ vektort nevezzük. A háromszög egyenl®tlenségb®l adódik, hogy |y − µ| − |y| ≤ |µ|, tehát a denícióban szerepl® várható érték akkor is létezik, ha x-nek nincs várható értéke. 2.2 Aszimptotikus viselkedés A továbbiakban a Möttönen, Nordhausen és Oja [21] nyomán a térbeli medián

néhány aszimptotikus tulajdonságát mutatjuk be, melyekhez a következ® két feltétellel élünk : 1. Az x vektorváltozó f s¶r¶ségfüggvénye folytonos és korlátos 2. x térbeli mediánja a nullvektor Az állításokhoz deniáljuk a következ® mátrix érték¶ függvényeket. ( ) xx⊤ 1 A(x) = Ip − |y| |x|2 B(x) = xx⊤ |x|2 A(0) és B(0) értéke legyen nulla, a várható értékekre pedig vezessük be az A = ( ) ( ) = E A(x) és B = E B(x) jelöléseket (belátható, hogy mindkét várható érték létezik és korlátos). A térbeli medián aszimptotikus viselkedésének vizsgálatához fölhasználjuk még az Arcones [3] és Bai [4] m¶veiben szerepl® eredményt is. 2.21 Lemma ( ) x⊤ xx⊤ 1 ⊤ 1 |x − µ| − |x| + µ−µ µ ≤ C1 1+δ |µ|2+δ Ip − 2 |x| 2|x| |x| |x| Ahol 0 < δ < 1, C1 pedig nem függ µ-t®l és x-t®l. 28 2.2 Aszimptotikus viselkedés Bizonyítás. A bizonyítást itt nem részletezzük, a µ 7 |x − µ| függvény

origó körüli négyzetes közelítésével adódik. 2.21 Következmény A lemma közvetlen következménye, hogy a fönti két feltétel mellett D(µ) = 12 µ⊤ Aµ + o(|µ|2 ). Legyen X = (x1 , x2 , . , xn )⊤ az F eloszlásfüggvény¶ d-dimenziós eloszlásból vett véletlen minta. Írjuk föl az el®bbi lemmát √1n µ-re ( ) ) ( n n n ) ∑ 1 x i x⊤ C1 ∑ |µ|2+δ 1 ∑ 1 ( i xi − √ µ − |xi | − √ Ip − 0 µ ≤ 2+δ |xi |2 n n i=1 2|xi | n 2 i=1 |xi |1+δ i=1 X = (x1 , x2 , . , xn )⊤ minta esetén vezessük be a következ® jelöléseket Dn (a) legyen a következ® konvex és korlátos függvény (a korlátosság a háromszög egyenl®tlenségb®l következik, ahogy korábban láttuk) : n ) 1 ∑( |xi − a| − |xi | Dn (a) = n i=1 2.21 Deníció A Dn függvényt minimalizáló µ̂ vektort az X minta tapasztalati térbeli mediánjának nevezzük. Tehát µ̂ = µ̂(X) = arg min Dn (µ) 2.22 Deníció A Tn = T (X) = 1 n ∑n xi i=1 |xi

| statisztikát térbeli el®jel próba- statisztikának nevezzük. 2.21 Megjegyzés A térbeli el®jel próba az egy dimenziós esetben jól ismert el®jel próba általánosítása. Segítségével tesztelhetjük azt a nullhipotézist, hogy a medián az origó. Ha µ = 0, többváltozós centrális határeloszlás tétel miatt : ( ) √ xx⊤ d nTn − Nd 0, 2 |x| A következ® tétel Arcones [3] és Davis [9] m¶veiben egyaránt szerepel, itt nem bizonyítjuk. 2.21 Tétel Legyen Gn (µ) konvex sztochasztikus folyamatok sorozata (µ ∈ Rd ), G(µ) pedig egy konvex határfolyamat. (Gn (µ) véges dimenziós határeloszlásai G(µ)- höz tartanak.) µ̂, µˆ1 , µˆ2 , legyenek valószín¶ségi változók úgy, hogy G(µ̂) = µ̂. = inf µ G(µ) és Gn (µˆn ) = inf µ Gn (µ). Ekkor µˆn − d 29 2.3 A térbeli kvantilis ( ) ( )⊤ A tételt a Gn (µ) = nDn √1n µ és G(µ) = z − 12 Aµ µ szereposztással ( ) alkalmazva z ∼ Nd (0, B) adódik a

következ® tétel : 2.22 Tétel √ nµ̂ − Nd (0, A−1 BA−1 ) d Az A−1 BA−1 aszimptotikus kovarianciamátrixot részenként becsülhetjük. ∑ ∑ Belátható, hogy  = n1 ni=1 A(xi − µ̂) és B̂ = n1 ni=1 B(xi − µ̂) becslésekre  − A és B̂ − B . Tehát a µ̂ tapasztalati térbeli medián eloszlása aszimptotikusan ( ) normális, a Nd µ, 12 Â−1 B̂ Â−1 d-dimenziós normális eloszlással közelíthet®. A d H0 : µ = 0 hipotézis tesztelésére a Q2 = nTn⊤ B̂ −1 Tn − χ2d próbastatisztika alkalmazható. 2.3 A térbeli kvantilis A térbeli medián fogalma után természetesen adódó feladat, hogy a térbeli kvantilist is deniáljuk. A következ®kben Abdous és Theodorescu [1] nyomán bemutatunk egy lehetséges deníciót, majd bemutatjuk a kvantilis egy fontos alkalmazását, hiszen a Szolvencia II rendszerben a kvantilisek számítása, és több kockázat együttes kezelése alapvet® követelmény. 2.31 Deníció Legyen

0 < α < 1 rögzített szám, x pedig egy d-dimenziós valószín¶ségi vektorváltozó. Ekkor x térbeli α-kvantilisének az alábbi várható értéket minimalizáló µ vektort nevezzük: ( D(a) = E ∥x − a∥p,α − ∥x∥p,α ahol ∥x∥p,α ) a következ® függvény (nem norma, de rendelkezik hasonló tulajdonságokkal): ∥x∥p,α = |x1 | + (2α − 1)x1 |xd | + (2α − 1)xd ,., 2 2 ∥ · ∥p az Rd -beli Lp normát jelöli. p 2.3 A térbeli kvantilis 30 Egy biztosító a szavatoló t®ke szükségletének számításakor különböz® típusú kockázatokat vesz gyelembe. A Szolvencia II klasszikációja szerint a következ® kockázatokat kell vizsgálni : ⋄ Biztosítási kockázat, ⋄ hitelkockázat, ⋄ m¶ködési kockázat, ⋄ piaci kockázat, ⋄ likviditási kockázat, ⋄ immateriális javak kockázata, ⋄ stratégiai és reputációs kockázat. A Szolvencia II alapvet® kvantitatív követelménye, hogy a biztosító szavatoló

t®kéje meghaladja a szavatoló t®ke szükséglet mértékét. A szavatoló t®ke az alapvet® és a kiegészít® szavatoló t®ke összege. El®bbi az eszközök és kötelezettségek értékének különbözete, csökkentve a tartott saját részvények értékével, plusz az alárendelt kötelezettségek; utóbbi pedig az egyéb, veszteségek elnyelésére alkalmas t®keelemeket tartalmazza. (A kötelezettségek értékelése során gyelembe kell venni a valószín¶séggel súlyozott jöv®beni pénzáramokat, valamint a pénz id®értékét is.) A szavatoló t®ke szükséglet az alapvet® szavatoló t®ke 1 éves id®horizontú, 99,5%os biztonsági szint¶ VaR-ja. A c biztonsági szint melletti VaR értéke egy 1 − − c rend¶ kvantilis, amely megmutatja, hogy mekkora az az összeg, amelynél nagyobb értékvesztés 1 − c valószín¶séggel következik be a vizsgált id®szakban. Tehát a szavatoló t®ke szükséglet számításakor kvantiliseket kell kiszámolni

számos kockázattípus esetén, így a térbeli kvantilis természetes módon merül föl a gyakorlatban, bár a kiszámítása meglehet®sen fáradságos. A t®keszükséglet kiszámítása a gyakorlatban formulákkal, vagy sokkokkal történhet, a különböz® kockázati modulok és almodulok esetén korrelációs mátrixokkal dolgozunk. Mazzoleni [20] cikkében a térbeli kvantilis egy olyan megközelítését mutatja be, amely a különböz® kockázatok relatív súlyozásán alapul. Az általa 2.3 A térbeli kvantilis 31 bemutatott irányított kvantilils használatával a korrelációs mátrixok becslése, és a fent deniált térbeli kvantilis bonyolult számítási módja is elkerülhet®. 3. fejezet Többközpontú telepítési problémák 3.1 Egy többközpontú telepítési feladat Az els® fejezetben bemutatott Fermat-Weber feladat esetén olyan középpontot kerestünk, melynek a megadott pontoktól vett össztávolsága a lehet® legkisebb. Természetesen

fölmerül® általánosabb változata a feladatnak, ha több középpontot keresünk. Például legyen adott n város, melyekbe k < n db postaközpontot szeretnénk telepíteni. A központokból minden reggel kézbesít® indul, aki bejárja a hozzá tartozó címeket, és kiszállítja a küldeményeket. Ekkor célszer¶ a központokat úgy megválasztani, hogy a kézbesít®k a lehet® legrövidebb id® alatt befejezzék feladatukat, tehát kézenfekv® a kézbesít®k által bejárt össztávolságok minimalizálása. A feladatnak számos típusa ismert, minimalizálhatjuk a központoktól vett legnagyobb távolságot, össztávolságot, vagy az átlagos távolságot is, szempont lehet továbbá az is, hogy a telepítend® központok minél közelebb legyenek egymáshoz. Egy jellemz® általános többközpontú telepítési feladat a következ® [8]-ban található példa : 3.11 Feladat Adott A1 , A 2 , . , A m ∈ Rd pontok. Keressük azokat a P1 , P2 , . , Pn

∈ Rd pontokat, amelyek minimalizálják a következ® függvényt: D(P1 , P2 , . , Pn ) = m ∑ n ∑ 1 ∑∑ vij ∥Pj − Pi ∥ 2 i=1 j=1 n wij ∥Pj − Ai ∥ + i=1 j=1 n ahol wij -k és vij -k nemnegatív súlyok, és minden i és j esetén vij = vji . 32 33 3.2 Alkalmazása a klaszteranalízisben A feladat úgy képzelhet® el, hogy adott m db központ, melyek mellé még n darabot szeretnénk telepíteni úgy, hogy a központok egymástól vett súlyozott össztávolsága minimális legyen. A feladat átfogalmazható gráfokra a következ®képp: 3.12 Feladat Legyen I a telepítend® központokat reprezentáló n elem¶ csúcshalmaz, J pedig a meglév®ket reprezentáló m elem¶ csúcshalmaz. E legyen azon élek halmaza, melyek egyik csúcsa I -beli, a másik pedig J -beli, az I halmaz csúcsai között men® élek halmaza pedig legyen F . wij és vij legyenek a megfelel® élekhez tartozó pozitív súlyok. G gráf csúcshalmaza legyen I ∪ J ,

élhalmaza pedig E ∪ F A minimalizálandó függvény: D(P1 , P2 , . , Pn ) = ∑ wij ∥Pj − Ai ∥ + (i,j)∈E 1 ∑ vij ∥Pj − Pi ∥ 2 (i,j)∈F A feladat megoldásához az els® fejezetben bemutatott Weiszfeld algoritmus alkalmas kiterjesztése lehet a legalapvet®bb eszköz. Az algoritmusnak számos gyorsítása, hatékonyabb változata ismert. 3.2 Alkalmazása a klaszteranalízisben A klaszteranalízis a többváltozós adatelemzés egy széles körben alkalmazott eljárása. Lényege, hogy a meggyeléseinket csoportokba szeretnénk sorolni úgy, hogy a hasonlóak azonos csoportba kerüljenek. Az eljárás használatos piaci szegmentációhoz, portfóliók kockázatának csökkentéséhez, a képfeldolgozásban különböz® objektumok elhatárolásához, a biológiában gének csoportosításához, különböz® szociális hálók adatbányászatához, valamint számos egyéb területen. A biztosítók is gyakran sorolják szerz®déseiket kockázatuk szerint

csoportokba, ezért az eljárás aktuáriusi szemszögb®l sem érdektelen. A klaszteranalízisben megkülönböztetünk hierarchikus és nem hierarchikus eljárásokat. Utóbbi esetben el®re meg kell határozni a létrehozandó klaszterek számát, klaszterközéppontokat keresünk, melyek segítenek az adatpontokat fürtökbe sorolni. A feladat tulajdonképpen többközpontú telepítési probléma, hiszen a klaszterközéppontok a klaszterek reprezentáns elemei, amelyekhez az adatpontokat rendeljük hozzá. 3.2 Alkalmazása a klaszteranalízisben 34 3.21 k-közép klaszterezés A legismertebb és legrégebben használt nem hierarchikus klaszterezési eljárás az ún. k-közép klaszterezés, melynek során a négyzetes euklideszi távolság a használt metrika, menete pedig a következ®: ⋄ Meghatározzuk a létrehozandó klaszterek számát (k ), és kiválasztunk k db kezd® klaszterközéppontot. ⋄ Minden adatpontot a hozzá legközelebbi klaszterközépponthoz

rendelünk, ezáltal létrehozunk k db klasztert. ⋄ A k db klaszterközéppontot újraszámítjuk, minden klaszternek a bele sorolt meggyelések átlagai adják az új középpontokat. ⋄ A második és harmadik lépést iteráljuk, amikor a besorolás már nem változik, az algoritmus véget ér. A klaszterek középpontjait itt a négyzetes euklideszi távolság minimalizálásával számoljuk, tehát minden klaszternek a súlypontja lesz a klaszterközéppont. A súlypontok könnyen kiszámolhatók, így a módszer jól használható, ugyanakkor hátrányai is vannak. Például a besorolás függ a kezd®pontok választásától, ezért célszer¶ az algoritmust különböz® kezd®pontokkal, többször lefuttatni, hogy pontosabb eredményt kapjunk. Másik hátránya, hogy maradhatnak üres klaszterek is, ennek megoldására is van mód, például ha az üres klaszter középpontja helyett a legnagyobb négyzetes össztávolsággal rendelkez® klaszterb®l választunk egy

pontot, a k-közép eljárás folytatható. Az átlag tulajdonságai is befolyásolják az eljárás min®ségét, hiszen a k-közép klaszterezés érzékeny a kiugró adatokra. Bizonyos esetekben tehát el®nyös lehet a súlypontok helyett a térbeli medián választása, ezáltal egy robusztusabb eljárást hozhatunk létre. 3.22 k-térbeli medián klaszterezés Ezt a k-közép klaszterezéshez nagyon hasonló eljárást alkalmazva bizonyos esetekben a csoportokat jobban reprezentáló klaszterközéppontokat hozhatunk létre, 3.2 Alkalmazása a klaszteranalízisben 35 ezáltal hatékonyabban tudjuk csoportosítani a meggyeléseinket. Az eljárás az euklideszi metrikát használja, menete a következ®: ⋄ Meghatározzuk a létrehozandó klaszterek számát (k ), és kiválasztunk k db kezd® klaszterközéppontot. ⋄ Minden adatpontot a hozzá legközelebbi klaszterközépponthoz rendelünk, ezáltal létrehozunk k db klasztert. ⋄ A k db klaszterközéppontot

újraszámítjuk, minden klaszternek a bele sorolt meggyelések térbeli mediánjai adják az új középpontokat. ⋄ A második és harmadik lépést iteráljuk, amikor a besorolás már nem változik, az algoritmus véget ér. A k-közép klaszterezéssel szemben az eljárás nagy hátránya, hogy a térbeli medián kiszámítására nem létezik zárt képlet. A klaszterközéppontokat tehát például a Weiszfeld-algoritmussal kereshetjük meg, ez azonban meglehet®sen lassúvá teszi a procedúrát. Bizonyos esetekben azonban megéri a fáradságosabb k-térbeli medián klaszterezést használni, hiszen az eredménye olykor pontosabb. Az algoritmusnak léteznek gyorsított változatai is (például a [18]-ben szerepl® algoritmus), ezáltal a lassúság problémája többnyire kezelhet®. Az alábbi [14]-b®l származó példák olyan eseteket mutatnak, amikor a k-térbeli medián eljárás el®nyben részesül a k-közép klaszterezéssel szemben. 3.1 ábra Kiugró adatok

3.2 Alkalmazása a klaszteranalízisben 36 3.2 ábra Elnyúlt klaszterek Az ábrák közül a bal oldaliak mutatják a k-közép klaszterezés által létrehozott besorolást, a jobb oldaliak pedig a k-térbeli medián eljárás eredményét. Mindkét esetben két klasztert hozunk létre, az ábrán számmal vannak jelölve, hogy az adatpontokat melyik klaszterbe sorolták az egyes eljárások. Látható, hogy a két metódus eltér® klaszterfelosztást hozott létre. Elnyúlt klaszterek esetén a robusztusabb k-térbeli medián klaszterezés eredménye jobban érzékelteti a csoportok különböz®ségét, és e módszer esetén a kiugró adatok sem befolyásolják annyira a besorolást. Ez gyakran el®nyös, hiszen ha például két boltot létesítünk az els® ábra pontajival jelölt városokba, akkor jobb bevételt érhetünk el, ha több emberhez lesz közel a bolt, így nem feltétlenül éri meg a messzi város közelébe telepíteni az üzletet. Természetesen ez az

eljárás is adhat nem kívánt besorolást, ezért a megfelel® procedúra kiválasztása igen fontos a klaszterezés során. 4. fejezet A Monge-Kantorovics feladat Ebben a fejezetben a Fermat-Weber feladat után egy rokon feladatot is bemutatunk. Ez az ún Monge-Kantorovics feladat, amely szintén több évszázados múltra tekint vissza. 4.1 Az eredeti feladat A ma Monge-Kantorovics feladat néven ismert problémát eredeti formájában Monge vetette föl még a XVIII. század végén A feladat nagy vonalakban az, hogy egy halom szemetet egy vele ugyanakkora térfogatú verembe akarunk szállítani, mindezt úgy, hogy a szemét kis egységei által megtett össztávolság minimális legyen. A feladat precízebb, általánosabb és modernebb megfogalmazása a következ® ([6]) : 4.11 Feladat Legyenek µ1 és µ2 kompakt tartójú, abszolút folytonos mértékek Rd n, K1 és K2 tartóval Feltesszük, hogy µ1 (K1 ) = µ2 (K2 ) Egy s : K1 K2 mérhet® függvényt megengedettnek

nevezünk, ha majdnem mindenütt injektív, és µ1 ◦ s−1 = = µ2 . Olyan megengedett s függvényt keresünk, amely minimalizálja a következ® költségfüggvényt: ∫ I(s) = c(x, s(x))dµ1 (x) K1 ahol c ∈ C(K1 × K2 ) nemnegatív függvény. 4.11 Megjegyzés A c költségfüggvény szemléletesen egy egységnyi szemét valamely K1 -beli pontból egy K2 -beli pontba történ® szállítási költségét jelenti. 37 38 4.2 A relaxált feladat A feladatnak számos alkalmazása ismert, meteorológiai, közgazdaságtani, zikai területeken egyaránt felhasználható. Az eredményként kapott függvény segítségével pedig deniálható egy távolságmérték, amellyel eloszlások különböz®ségét vizsgálhatjuk. 4.11 Deníció Legyen (M, d) metrikus tér. A µ és ν valószín¶ségi mértékek p- edik Wasserstein-távolsága : ( ) Wp (µ, ν)p = inf E d(X, Y )p ahol X és Y valószín¶ségi változók eloszlása rendre µ és ν , az inmum

pedig X és Y együttes eloszlásain értend®. A Wasserstein-távolság deníciójában szerepl® d távolság lehet például az euklideszi távolság. Az információelméletben fontos feladat, hogy eloszlásokat hasonlítsunk A össze, tehát Wasserstein-távolság egy bizonyos értelemben lehetséges mérték, a távolságukat amellyel ezt vizsgáljuk. meg tudjuk tenni. Eloszlások távolsága fölfögható úgy, mint a modellezés során létrejött információveszteség. 4.2 A relaxált feladat Monge eredeti feladatában föltettük, hogy egy K1 beli x pontból az összes szemetet ugyanabba az s(x), K2 -beli pontba szállítjuk. A közgazdasági Nobel-díjas Kantorovics ehelyett az s függvény helyett egy π ∈ M (K1 × K2 ) mértéket használt, melyet megengedettnek nevezett, ha π(· × K2 ) = µ1 és π(K1 × ·) = µ2 . A relaxált feladat így a következ® J(π)-t minimalizáló megengedett mérték megtalálása : ∫ J(π) = cdπ K1 ×K2 Gangbo

és McCann [11] bebizonyították, hogy szigorúan konvex költségfüggvény esetén a relaxált feladat, és az eredeti feladat megoldása azonos és egyértelm¶, vagyis min I(s) = min J(π). A c költségfüggvény lehet például a K1 -beli és K2 -beli pontok négyzetes euklideszi távolsága, vagy euklideszi távolsága. Utóbbi esetben a kapcsolat a Fermat-Weber problémával kézenfekv®. Kantorovics a relaxált feladat duálisát is megfogalmazta : 39 4.2 A relaxált feladat 4.21 Feladat Keressük azokat a u ∈ C(K1 ) és v ∈ C(K2 ) függvényeket, melyekre u(x) + v(x) ≤ c(x, y) minden x ∈ K1 , y ∈ K2 esetén teljesül, és maximalizálják a következ® függvényt: ∫ K(u, v) = ∫ udµ1 + K1 vdµ2 K2 Ekkor sup K(u, v) = min J(π). A feladat megoldására többféle algoritmus ismert, különböz® változatait a lineáris programozás eszközeivel, folyamalgoritmusokkal és egyéb algoritmusokkal is megoldják a szakirodalomban, ezeknek az

ismertetésére itt nem térünk ki. 5. fejezet Laplace eloszlás Statisztikai elemzések során a társadalmi, gazdasági és egyéb adatok a véletlenszer¶ hibák mellett szabályos és durva hibákat is tartalmazhatnak. A legkisebb négyzetek módszerével történ® paraméterbecsléshez ezeket mindenképpen ki kell sz¶rni, különben a becslés eredménye bizonytalan lehet. A durva hibák kisz¶résére és megfelel® kezelésére különféle tesztek és módszerek ismertek, de ezek gyakran nagyon munkaigényesek, vagy nem mindig m¶ködnek tökéletesen, el®fordulhat például helyes meggyelés kisz¶rése is. Ezért szükségessé vált robusztus becslési módszerek kidolgozása, melyek kevéssé érzékenyek a mérések eloszlásfüggvényeinek kis változásaira, ezáltal a szabályos hibák jelenlétére is. A legismertebb robusztus becslési módszer a rendkívül széleskör¶en alkalmazott maximum likelihood becslés, melynek szerepe a

biztosításmatematikában is jelent®s. A medián kiszámításakor távolságösszeget minimalizáltunk. Robusztus becslések során a medián el®nyben részesül a gyakrabban alkalmazott, és sok szempontból szebben viselked® legkisebb négyzetösszegekkel szemben, hiszen a medián kevésbé érzékeny a kiugró adatokra mint az átlag. Ebben a fejezetben bemutatjuk a Laplace eloszlást, melynek esetében a várható érték robusztus becslése a mediánon keresztül történik. Deniáljuk az aszimmetrikus Laplace eloszlások családját (ALeloszlások), melyek a normális eloszláshoz hasonlóan viselkednek, és tulajdonságaik miatt pénzügyi id®sorok modellezésében és a biztosításmatematikában is jól alkalmazhatóak. 40 41 5.1 Egy dimenziós Laplace eloszlás 5.1 Egy dimenziós Laplace eloszlás 5.11 Deníció X valószín¶ségi változó Laplace eloszlású (egyes szakirodalmak biexponenciális eloszlásnak is nevezik), ha s¶r¶ségfüggvénye a

következ®: f (x) = α −α|x−m| e 2 ahol α > 0 a skála-, m pedig a helyparaméter. 5.1 ábra A Laplace-eloszlás s¶r¶ségfüggvénye 5.11 Tulajdonságok A Laplace eloszlás eloszlásfüggvénye: F (x) = 1 1 + sgn(x − m)(1 − e−α|x−m| ) 2 2 Karakterisztikus függvénye: ϕX (t) = 5.11 Állítás Két független eitm 2 1 + αt 2 λ paraméter¶ exponenciális eloszlású valószín¶ségi változó különbsége Laplace eloszlású α = λ és m = 0 paraméterekkel. Bizonyítás. Legyen X1 és X2 két független, λ paraméter¶ exponenciális eloszlású valószín¶ségi változó. Írjuk föl X1 − X2 karakterisztikus függvényét ϕX1 −X2 (t) = ϕX1 (t) · ϕ−X2 (t) = ϕX1 (t) · ϕX1 (−t) = 1 1− it λ · 1 1+ it λ = 1 2 1 + λt 2 42 5.1 Egy dimenziós Laplace eloszlás A kapott karakterisztikus függvény az α = λ, m = 0 paraméter¶ Laplace eloszlás karakterisztikus függvénye. 5.11 Megjegyzés Az exponenciális

eloszlás a biztosításmatematikában a legrégebben használt káreloszlás. Egyszer¶en becsülhet® paramétere és könny¶ kezelhet®sége teszik széleskör¶en alkalmazhatóvá. 5.12 A paraméterek becslése Könnyen belátható, hogy az m paraméter maximum likelihood becslésére a minta mediánja adódik. A likelihood függvény: L(m, α) = N ∏ α i=1 Logaritmust véve: 2 e−α|xi −m| ∑ α l(m, α) = N log − α |xi − m| 2 i=1 N A log-likelihood függvény ezen alakjából könnyen látható, hogy a likelihood függvény ∑ ott veszi föl a maximumát, ahol a N i=1 |xi −m| összeg minimális, ami éppen a medián deníciója. Egy dimenziós esetben a medián a mintaelemek sorba rendezésével egyszer¶en meghatározható. Az α skálaparaméter reciprokának maximum likelihood becslése pedig a helyparamétert®l vett átlagos euklideszi távolság: ∑N |xi − m| 1 = i=1 α̂ N A Weiszfeld algoritmus során éppen ezt az átlagos távolságot akarjuk

minimalizálni. Tehát Laplace eloszlás esetén a várható érték becslésére a medián, a szórás becslésére pedig a legkisebb abszolút eltérés adódik. 5.13 Aszimmetrikus Laplace eloszlás (AL-eloszlás) 5.12 Deníció Az X valószín¶ségi változó aszimmetrikus Laplace eloszlású m hely- és α ̸= β alakparaméterekkel, ha s¶r¶ségfüggvénye a következ®:   αβ e−α|x−m| , (x ≥ m) α+β f (x) =  αβ e−β|x−m| , (x < m) α+β 43 5.1 Egy dimenziós Laplace eloszlás α = β esetén a szimmetrikus Laplace eloszlást kapjuk. Legyen a = α1 − √ 2 − β1 az aszimmetria paraméter, σ = pedig a skálaparaméter. Az m, a, σ αβ paraméter¶ aszimmetrikus Laplace eloszlású (X ∼ AL(m, a, σ)) valószín¶ségi változó karakterisztikus függvénye: ϕX (t) = eimt 1 − iat + σ 2 t2 2 A következ®kben Alexis Akira Toda munkája [23] nyomán megmutatjuk, hogy független valószín¶ségi változók véletlen tagszámú

összege bizonyos feltételek teljesülése esetén eloszlásban konvergál az AL-eloszláshoz. El®ször a határeloszlás tétel egy speciálisabb alakját bizonyítjuk. 5.11 Tétel Legyenek Y1 , Y2 , . független normális eloszlású valószín¶ségi változók, melyekre E(Yj ) = 0 és D2 (Yj ) = σj2 . Feltesszük, hogy σ 2 = = limn∞ 1 n ∑n j=1 a = limn∞ 1 n σj2 pozitív és véges. Legyen a1 , a2 , valós számsorozat, melyre ∑n j=1 aj létezik. νp pedig legyen az Yj -kt®l független, p paraméter¶ geometriai eloszlású valószín¶ségi változó. Ekkor p 0 esetén νp √ ∑ √ d AL(0, a, σ) p (Yj + paj ) − j=1 Bizonyítás. A bizonyításhoz az alábbi lemmákra lesz szükségünk : 5.11 Lemma Tetsz®leges z komplex számra |ez − 1| ≤ |z|e|z| Bizonyítás. A bizonyítás ez Taylor-sorából egyszer¶en adódik : |e − 1| = z ∞ ∑ zn n=1 5.12 Lemma n! ≤ |z| ∞ ∑ n=0 ∞ ∑ |z|n |z|n = |z|e|z| ≤ |z| (n + 1)! n! n=0

0 < p < 1 és x ≥ −1 esetén 0 < (1 − p)e−px < 1. Bizonyítás. Mivel minden t-re et ≥ 1 + t, ezért epx ≥ 1 + px ≥ 1 − p > 0 Az els® egyenl®tlenség pontosan akkor teljesül egyenl®séggel, ha px = 0, a második pedig pontosan akkor, ha x = −1. Mivel 0 < p < 1, ezért nyilván nem teljesülhet mindkét egyenl®ség egyszerre, tehát epx ≥ 1 − p, amib®l a lemma 0 < (1 − p)e−px < 1 állítása nyilvánvalóan adódik. 44 5.1 Egy dimenziós Laplace eloszlás 5.13 Lemma Legyen 0 < p < 1, és z1 , z2 , . konvergens komplex sorozat z határértékkel, melyre Rez > −1. Ekkor lim p0 ∞ ∑ (1 − p)n−1 pe−pnzn = n=1 1 1+z Bizonyítás. El®ször lássuk be, hogy a határérték létezik Rögzített p-re legyen S(p) = ∑∞ n−1 −pnzn pe . n=1 (1 − p) A zn komplex számot írjuk föl zn = xn + iyn alakba. Tudjuk, hogy lim xn > −1, ezért létezik olyan N küszöbindex, hogy minden n >

> N esetén xn > −1. A háromszög egyenl®tlenséget alkalmazva S(p) abszolút értéke fölülr®l becsülhet®, zn helyett az xn valós résszel számolva a következ®képpen : N ∞ ∑ ∑ n−1 −pnxn |S(p)| ≤ (1 − p) pe + (1 − p)n−1 pe−pnxn ≤ n=1 N ∑ n=N +1 (1 − p)n−1 pe−pnxn + n=1 ∞ ∑ (1 − p)n−1 pepn n=N +1 Az el®z® lemmát használva tudjuk, hogy 0 < (1−p)ep < 1, tehát a második szumma egy konvergens mértani sorösszeg, amib®l következik a határérték létezése, hiszen |S(p)| ≤ N ∑ (1 − p)n−1 pe−pnxn + (1 − p)N n=1 pep 1 − (1 − p)ep zn helyére z -t írva ugyanezzel a gondolatmenettel kapjuk, hogy T (p) = ∞ ∑ n=1 (1 − p)n−1 pe−pnz = pe−pz 1 − (1 − p)e−pz A lHospital szabályt alkalmazva az el®bbi konvergens sor határértéke: 1 pe−pz p 1 = = lim = lim p0 1 − (1 − p)e−pz p0 epz − (1 − p) p0 zepz + 1 1+z lim T (p) = lim p0 p0 Tehát a lemma igazolásához

elég bebizonyítani, hogy |S(p) − T (p)| −− 0. Ezt az állítást itt nem bizonyítjuk, [23]-ban megtalálható. (A bizonyítás a fönti két lemmát egyaránt fölhasználja.) A tétel bizonyításához rögzített n-re legyen Sn = ∑n j=1 Yj az n db független ∑n = j=1 an és legyen normális eloszlású valószín¶ségi változó összege, legyen bn ∑n 2 τn2 = j=1 σn . Mivel az Yj -k független normális eloszlású valószín¶ségi változók, 45 5.1 Egy dimenziós Laplace eloszlás ezért Sn ∼ N (0, τn2 ). Írjuk föl a Zp = √ ∑νp √ p j=1 (Yj + paj ) geometriai összeg karakterisztikus függvényét. itZp ϕZp (t) = E(e ( itZp ) = E E(e ∞ √ ) ∑ ( √ ) |νp ) = (1 − p)n−1 pE eit p(Sn + pbn ) n=1 Tudjuk, hogy Sn normális eloszlású 0 várható értékkel és τn2 szórásnégyzettel, így Zp karakterisztikus függvénye: ϕZp (t) = ∞ ∑ (1 − p) n−1 pe itpbn − 2 pt2 τn 2 n=1 Legyen zn = −it bnn + ∞ 2 ∑

t2 τn bn = (1 − p)n−1 pe−pn(−it n + 2n ) n=1 t2 τn2 . 2n n∞ Ekkor zn −−− z = −ita + σ 2 t2 . 2 Mivel Rez = σ 2 t2 2 > −1, ezért a harmadik lemmát alkalmazva: lim ϕZp (t) = p0 1 1 = 1+z 1 − iat + σ 2 t2 2 A kapott karakterisztikus függvény éppen az AL(0, a, σ) eloszlású valószín¶ségi d változó karakterisztikus függvénye. Tehát beláttuk, hogy Zp − AL(0, a, σ), ha p 0. Bebizonyítottuk, hogy az AL-eloszlások természetes módon adódnak független, normális eloszlású valószín¶ségi változók véletlen tagszámú összegének határeloszlásaként, ahol az összeadandók száma geometriai eloszlású, p 0 paraméterrel. Ennél azonban bizonyos feltételek teljesülése esetén egy általánosabb tétel is igaz. 5.12 Tétel Legyenek X1 , X2 , X3 . független valószín¶ségi változók, melyekre E(Xj ) = 0 és D2 (Yj ) = σj2 . Feltesszük, hogy létezik olyan 0 < α < 1, melyre ∑ 2 limn∞

nσnα = 0, és σ 2 = limn∞ n1 nj=1 σj2 pozitív és véges. Legyen a1 , a2 , ∑ valós számsorozat, melyre a = limn∞ n1 nj=1 aj létezik, νp pedig legyen az Xj - kt®l független, p paraméter¶ geometriai eloszlású valószín¶ségi változó. Tegyük föl továbbá, hogy minden ϵ > 0 esetén lim p0 Ekkor p 0 esetén ∞ ∑ ) ( (1 − p)j−1 pE Xj2 χ{|Xj |≥ √ϵp } = 0 j=1 νp √ √ ∑ d p (Xj + paj ) − AL(0, a, σ) j=1 46 5.1 Egy dimenziós Laplace eloszlás 5.12 Megjegyzés A tétel hasonlít a centrális határeloszlás tételhez, csak független, véges szórású valószín¶ségi változók geometriai összegét vesszük, ahol a geometriai eloszlás paramétere tart nullához. A tételben szerepl® feltétel hasonló, mint a centrális határeloszlás tétel általános alakjában szerepl® Lindeberg-feltétel, és itt is ugyanazt a szerepet játssza. Szemléletes jelentése, hogy mindegyik Xj komponens elenyész®en kicsi az

összeghez képest. Bizonyítás. A tétel bizonyításához egy állítást használunk föl, melyet itt nem bizonyítunk, a bizonyítás [23]-ban megtalálható. 5.12 Állítás Legyenek X1 , X2 , X3 független, nulla várható érték¶ valószín¶ségi változók véges szórással, Y1 , Y2 , Y3 , . pedig független N (0, σj2 ) eloszlású valószín¶ségi változók. aj és νp pedig legyen a tételben szerepl® valós számsorozat, és geometriai eloszlású valószín¶ségi változó. Ekkor minden olyan C 3 -beli valós f függvényre, melynek az els® három deriváltja korlátos, νp νp ( (√ ∑ ( (√ ∑ )) ) √ √ (Xj + paj ) − E f p (Yj + paj ) = 0. lim E f p p0 j=1 j=1 A tétel bizonyításához legyen f (x) = eitx . f egy C ∞ -beli függvény, és minden deriváltja korlátos, mivel |f (n) (x)| = |(it)n eitx | = tn , ami nem függ x-t®l. Tehát az el®bbi állítás alkalmazható f függvényre, és így kapjuk, hogy ( ) √ ∑νp √ it p

j=1 (Xj + paj ) lim E e p0 ( ) √ ∑νp √ it p j=1 (Yj + paj ) −E e =0 Ebb®l a független normális eloszlású valószín¶ségi változók geometriai összegére vonatkozó tételb®l ) ) ( √ ∑νp ( √ ∑νp √ √ lim E eit p j=1 (Xj + paj ) = lim E eit p j=1 (Yj + paj ) = p0 A kapott p0 kifejezés éppen az AL(0, a, σ) eloszlású 1 1 − iat + valószín¶ségi σ 2 t2 2 változó karakterisztikus függvénye, ami t = 0-ban folytonos, így a tétel igaz, tehát p 0 esetén νp √ ∑ √ d p (Xj + paj ) − AL(0, a, σ). j=1 5.2 Többdimenziós 47 AL-eloszlás AL-eloszlás 5.2 Többdimenziós Az egy dimenziós Laplace eloszlás után kézenfekv® a feladat, hogy az ALeloszlások családját többdimenziós eloszlások esetén is deniáljuk úgy, hogy megtartsa az egy dimenziós AL-eloszlások imént tárgyalt tulajdonságait, és az egy dimenziós esetre vonatkozó tételek magasabb dimenzióban is érvényesek legyenek. 5.21

Deníció Egy x ∈ Rd valószín¶ségi vektorváltozó Laplace eloszlású, ha karakterisztikus függvénye ϕx (t) = 1 1+ , 1 ⊤ t Σt 2 ahol t ∈ Rd és Σ egy d × d-s pozitív denit mátrix. A dimenziós d AL-eloszlásokat szintén deniálhatjuk karakterisztikus függvényükkel a következ®képp: 5.22 Deníció Egy x ∈ Rd valószín¶ségi vektorváltozó aszimmetrikus Laplace ) eloszlású (AL(m, a, Σ) , ha karakterisztikus függvénye ( ⊤ ϕx (t) = eim t , t ∈ Rd , 1 − ia⊤ t + 12 t⊤ Σt ahol Σ egy d × d-s pozitív denit mátrix, és m, a ∈ Rd . Az egy dimenziós esettel analóg módon a többdimenziós AL-eloszlásokra is teljesül a korábban belátott határeloszlás tétel. A tétel d dimenziós változatát bizonyítás nélkül ismertetjük. 5.21 Tétel Legyenek x1 , x2 , x3 , . független Rd -beli valószín¶ségi változók, melyekre E(xj ) = 0 és D2 (xj ) = Σj . Feltesszük, hogy létezik olyan 0 < α < 1,

melyre limn∞ Σnαn = 0, és Σ = limn∞ n1 ∑n Σj létezik és pozitív denit. Legyen ∑ a1 , a2 , a3 , . Rd -beli vektorok sorozata, melyre a = limn∞ n1 nj=1 aj létezik νp j=1 pedig legyen az xj -kt®l független, p paraméter¶ geometriai eloszlású valószín¶ségi változó. Tegyük föl továbbá, hogy minden ϵ > 0 esetén lim p0 ∞ ∑ j=1 (1 − p) j−1 ( pE ∥xj ∥ χ 2 ) {∥xj ∥≥ √ϵp } = 0, 5.2 Többdimenziós 48 AL-eloszlás ahol ∥.∥ az euklideszi normát jelenti Ekkor p 0 esetén νp √ ∑ √ d p AL(0, a, Σ) (xj + paj ) − j=1 Ezen tételekból látható, hogy az AL eloszlások viselkedése hasonló a normális eloszlások viselkedéséhez. Az alábbi [16]-ben található állítások az AL-eloszlások és a normális eloszlások rokonságát jelzik. 5.22 Tétel Legyen y ∼ ALd (0, a, Σ) (d-dimenziós AL-eloszlású valószín¶ségi vektorváltozó) és x ∼ Nd (0, Σ). Z legyen egy x-t®l és y -tól

független, 1 paraméter¶ exponenciális eloszlású valószín¶ségi változó. Ekkor d y = aZ + √ Zx A tétel szerint az AL eloszlások el®állíthatók normális eloszlású változók skálakeverékeként. Mivel exponenciális, és többdimenziós normális eloszlások generálása is relatíve könnyen megoldható, ezért ez a tétel jól alkalmazható többdimenziós AL-eloszlású vektorváltozó generálásához. 5.21 Állítás Legyen y ∼ ALd (0, a, Σ) és Z egy 1 paraméter¶ exponenciális eloszlású valószín¶ségi változó, X pedig egy Gauss-folyamat, melyre X(0) = 0 és X(1) ∼ Nd (a, Σ). Ekkor y = X(Z) d Tehát az AL-eloszlások úgy is elképzelhet®k, hogy egy Gauss-folyamatra (egy sztochasztikus folyamatot Gauss-folyamatnak nevezünk, ha a véges dimenziós eloszlásai normálisak) exponenciális eloszlású véletlen id®pontban ránézünk. Vizsgáljuk meg az AL-eloszlású valószín¶ségi vektorváltozók lineáris kombinációit. Könnyen

belátható a következ® tétel [16] : 5.23 Tétel Legyen valós mátrix. Ekkor a y = (Y1 , Y2 , . , Yd )⊤ ∼ ALd (0, a, Σ) és legyen By vektorváltozó eloszlása ALl (0, Ba, BΣB ⊤). Bizonyítás. Írjuk föl By karakterisztikus függvényét ( ⊤ ⊤) ( ⊤ ) ϕBy (t) = E ei(By) t = E eiy B t = ϕy (B⊤ t), amib®l az állítás adódik. B egy l × d-s 49 5.3 Stabilitási tulajdonságok 5.21 Következmény Legyen y = (Y1 , Y2 , . , Yd )⊤ ∼ ALd (0, a, Σ), ahol Σ = = (σij )di,j=1 . Ekkor 1. Minden n ≤ d-re (Y1 , , Yn ) ∼ ALn (0, ã, Σ̃),ahol ã = (a1 , , an )⊤ és Σ̃ egy n × n-es mátrix, melyre σ̃ij = σij (i, j = 1, . , n) 2. Minden b = (b1 , , bd )⊤ ∈ Rd esetén az Yb = √ ∑d k=1 bk Yk valószín¶ségi változó egyváltozós AL(0, a⊤ b, b⊤ Σb) eloszlású. √ 3. Minden i ≤ d-re Yi ∼ AL(0, ai , σii ) A tétel következményeként adódott, hogy az y vektorváltozó Yi komponensei

AL-eloszlásúak, és összegük szintén AL-eloszlású. Azonban általában nem igaz, hogy független, azonos eloszlású AL valószín¶ségi változók összege is AL-eloszlású. A következmény második pontjából pedig azt kapjuk, hogy egy d dimenziós AL-eloszlású valószín¶ségi vektorváltozó komponenseinek lineáris kombinációi egyváltozós AL-eloszlásúak. Az állítás megfordítása nem bizonyított 5.3 Stabilitási tulajdonságok Az eloszlásoknak egy fontos osztályát alkotják a stabilis eloszlások. Ez az eloszlásosztály zárt a konvolúcióra nézve, ami a biztosításmatematikában is hasznossá teszi, hiszen gyakran felmerül® probléma az aggregált káreloszlások kezelése. A normális eloszlás az egyetlen véges szórású stabilis eloszlás, emiatt is ez a legszélesebb körben ismert, és használt eloszlás. Pénzügyi adatsorok modellezése esetén azonban a normális eloszlásnál vastagabb szél¶ eloszlások használata

elkerülhetetlen, így más stabilis eloszlások is gyakran alkalmazandók. Ezek azonban bizonyos esetekben nehezen kezelhet®k, hiszen szórásuk nem véges, így célszer¶ lehet a Laplace-eloszlások használata is, melyek esetében a második momentum létezik, és az eloszlás szélei is vastagabbak, mint a normális eloszlásoké. A Laplace-eloszlás nem stabilis ugyan, de véletlen tagszámú geometriai összegeket tekintve rendelkezik stabilis eloszlásokhoz hasonló tulajdonságokkal, azt mondjuk, hogy a Laplace-eloszlás geometriai-stabilis. 50 5.3 Stabilitási tulajdonságok 5.31 Deníció Egy X valószín¶ségi változó eloszlása stabilis, ha minden b1 , b2 valós számhoz léteznek b, a valós számok úgy, hogy X1 , X2 vele azonos eloszlású valószín¶ségi változókra b1 X1 + b2 X2 = bX1 + a. A geometriai-stabilis eloszlásokat a karakterisztikus függvényeikkel deniálhatjuk. 5.32 Deníció Azokat az eloszlásokat, melyeknek karakterisztikus

függvénye a következ® alakú, geometriai-stabilis eloszlásoknak nevezzük. ϕ(t; α, β, λ, µ) = Ahol 1 (1 + λα |t|α ω − iµt)   1 − i tan πα βsign(t) ha α ̸= 1 2 ω=  1 + i 2 β log |t|sign(t) ha α = 1 π 0 ≤ α ≤ 2 a stabilitási index, amely az eloszlás széleinek vastagságát is meghatározza ; −1 ≤ β ≤ 1 a ferdeségi paraméter, λ ≥ 0 a skála-, µ pedig a helyparaméter. Látható, hogy az α = 2, β , λ = √σ 2 és µ = a paraméter¶ geometriai-stabilis eloszlás karakterisztikus függvénye a deníció szerint: ) ( 1 σ ϕ t; 2, β, √ , a = 1 − iat + 2 σ 2 t2 2 Észrevehetjük, hogy ez éppen az AL(0, a, σ) eloszlás karakterisztikus függvénye, tehát az aszimmetrikus Laplace eloszlás a geometriai-stabilis eloszlások közé tartozik. Stabilis eloszlások esetén, ha X1 , X2 , . , Xn független, azonos eloszlású és stabilis valószín¶ségi változók, akkor az Y = an (X1 + · · · + Xn ) + bn

valószín¶ségi változó eloszlása az Xi -kkel egyezik meg valamely an és bn esetén. Geometriai-stabilis eloszlások esetén hasonló igaz azzal a különbséggel, hogy az összeadandók száma egy geometriai eloszlású valószín¶ségi változó p 0 paraméterrel. Tehát ha X1 , X2 , független, azonos eloszlású, geometriai-stabilis valószín¶ségi változók, νp pedig p paraméter¶ geometriai eloszlású változó, akkor az Y = aνp (X1 + · · · + Xνp ) + + bνp eloszlásban konvergál az Xi -k eloszlásához, ha p 0. Az AL-eloszlásokra 5.3 Stabilitási tulajdonságok 51 ezt korábban bizonyítottuk. A geometriai eloszlás a negatív binomiális eloszlás speciális esete, amely az (a, b,0) eloszlások közé tartozik, és a biztosításmatematikában egy gyakran alkalmazott kárszámeloszlás. Megmutattuk, hogy ilyen geometriai összegek esetén az AL-eloszlás hasonlóan viselkedik, mint az n tagszámú összegek esetén a normális eloszlás, így a

biztosításmatematikában összkárok eloszlásának közelítéséhez is jól használható. Az AL-eloszlások a geometriai-stabilis eloszlások között pedig olyan szerepet játszanak, mint a normális eloszlások a stabilis eloszlások között. Függelék A Weiszfeld algoritmus Excel-makrójának kódja : Sub weiszfeld() Dim pontszam As Integer Dim dimenzio As Integer Dim a(0 To 20000) As Single Dim w(0 To 1000) As Single Dim p(0 To 20) As Single Dim nextp(0 To 20) As Single Dim nev(0 To 1000) As Single Dim r k(0 To 20) As Single Dim lepeshossz(0 To 1000) As Single Dim i1 As Integer Dim i2 As Integer Dim i3 As Integer Dim i4 As Integer Dim i5 As Integer Dim j1 As Integer Dim j2 As Integer Dim j3 As Integer Dim j4 As Integer Dim k1 As Integer Dim k2 As Integer Dim k3 As Integer Dim eq As Boolean Dim eq2 As Boolean Dim zz(1 To 1000000) As Single Dim tpnev As Single dimenzio = Worksheets("alg").Cells(1, 2) pontszam = Worksheets("alg").Cells(2, 2) For i1 = 1

To pontszam For j1 = 1 To dimenzio a(j1 + (i1 - 1) * dimenzio) = Worksheets("alg").Cells(i1 + 5, j1 + 1) Next j1 Next i1 For i2 = 1 To pontszam w(i2) = Worksheets("alg").Cells(5 + i2, 1) Next i2 52 53 FÜGGELÉK For i3 = 1 To dimenzio p(i3) = Worksheets("alg").Cells(3, 1 + i3) Next i3 eq = False eq2 = False Do While eq2 = False For i4 = 1 To pontszam For j2 = 1 To dimenzio zz(j2) = a(((i4 - 1) * dimenzio) + j2) Next j2 Call iseq(dimenzio, zz, p) eq = Worksheets("alg").Cells(2, 35) If eq = True Then MsgBox ("Az algoritmus az egyik A i pontba lépett!") Call tk(pontszam, dimenzio, a, w) For k1 = 1 To pontszam lepeshossz(k1) = Worksheets("alg").Cells(5, 34 + k1) Next k1 Call rk(pontszam, dimenzio, a, i4, w) For k2 = 1 To dimenzio r k(k2) = Worksheets("alg").Cells(3, 34 + k2) Next k2 Call norm(dimenzio, r k) n = Worksheets("alg").Cells(1, 35) If lepeshossz(i4) = 0 Then MsgBox ("A medián az egyik A

i pontba esik!") eq2 = True End If For k3 = 1 To dimenzio p(k3) = p(k3) + lepeshossz(i4) * r k(k3) / n Next k3 End If Next i4 If eq2 = False Then Call tp(pontszam, dimenzio, a, w, p) For j3 = 1 To dimenzio nextp(j3) = Worksheets("alg").Cells(2, 6 + j3) Next j3 Call iseq(dimenzio, nextp, p) eq2 = Worksheets("alg").Cells(2, 35) For j4 = 1 To dimenzio p(j4) = nextp(j4) Next j4 End If Loop For i5 = 1 To dimenzio Worksheets("alg").Cells(1, 6 + i5) = p(i5) FÜGGELÉK 54 Next i5 End Sub A Weiszfeld algoritmus során a következ® számítást iteráljuk :   T (P ), ha P ∈ Rd {A1 , A2 , . , Am } T ∗ (P ) =  A + t Rk , haP = A , 1 ≤ k ≤ m. k k ∥Rk ∥ k Az egyes kifejezések számolásához a weiszfeld nev¶ makró különböz® részeljárásokat használ. A T (p)-t a nextp nev¶ makró, a tk lépésközt a tvesszok és tk makrók, az Rk -kat pedig az rk makró számolja : Sub tp(pontszam As Integer, dimenzio As Integer, a() As

Single, w() As Single, p() As Single) Dim nextp(0 To 20) As Single Dim nev(0 To 1000) As Single Dim i1 As Integer Dim i2 As Integer Dim i3 As Integer Dim j1 As Integer Dim j2 As Integer Dim s As Single Dim tpnev As Single tpnev = 0 For i1 = 1 To pontszam s = 0 For j1 = 1 To dimenzio s = (p(j1) - a(j1 + (i1 - 1) * dimenzio)) ^ 2 + s Next j1 nev(i1) = s ^ (1 / 2) tpnev = (w(i1) / nev(i1)) + tpnev Next i1 For i2 = 1 To pontszam For j2 = 1 To dimenzio nextp(j2) = ((w(i2) * a(j2 + (i2 - 1) dimenzio)) / nev(i2)) / tpnev + nextp(j2) Next j2 Next i2 For i3 = 1 To dimenzio Worksheets("alg").Cells(2, 6 + i3) = nextp(i3) Next i3 End Sub Sub tvesszok(pontszam As Integer, dimenzio As Integer, a() As Single) Dim i1 As Integer Dim i2 As Integer Dim i3 As Integer Dim j1 As Integer Dim k As Integer Dim s As Single 55 FÜGGELÉK Dim t k(1 To 1000) As Single For i1 = 1 To pontszam t k(i1) = 999999999 Next i1 For i2 = 1 To pontszam For j1 = 1 To pontszam s = 0 For k1 = 1 To dimenzio If i2

<> j1 Then s = (a(k1 + (i2 - 1) * dimenzio) - a(k1 + (j1 - 1) dimenzio)) ^ 2 + s End If Next k1 If i2 <> j1 Then If (s ^ (1 / 2) / 2) < t k(i2) Then t k(i2) = (s ^ (1 / 2) / 2) End If End If Next j1 Next i2 For i3 = 1 To pontszam Worksheets("alg").Cells(4, 34 + i3) = t k(i3) Next i3 End Sub Sub tk(pontszam As Integer, dimenzio As Integer, a() As Single, w() As Single) Dim i1 As Integer Dim i2 As Integer Dim i3 As Integer Dim i4 As Integer Dim i5 As Integer Dim j1 As Integer Dim j2 As Integer Dim j3 As Integer Dim lepeshossz(1 To 1000) As Single Dim r k(1 To 20) As Single Dim t k(1 To 1000) As Single Dim nev As Double Dim b(1 To 1000000) As Single Dim n As Single nev = 0 j1 = 0 For i1 = 1 To pontszam Do While j1 < pontszam j1 = j1 + 1 If Not (i1 = j1) Then For j2 = 1 To dimenzio b(j2) = a((j1 - 1) * dimenzio + j2) - a((i1 - 1) dimenzio + j2) Next j2 FÜGGELÉK Call norm(dimenzio, b) n = Worksheets("alg").Cells(1, 35) nev = 4 * w(j1) / n + nev

Else nev = nev + 0 End If Loop Call rk(pontszam, dimenzio, a, i1, w) For j3 = 1 To dimenzio r k(j3) = Worksheets("alg").Cells(3, 34 + j3) Next j3 Call norm(dimenzio, r k) n = Worksheets("alg").Cells(1, 35) lepeshossz(i1) = (n - w(i1)) / nev Next i1 For i2 = 1 To pontszam Worksheets("alg").Cells(5, 34 + i2) = lepeshossz(i2) Next i2 Call tvesszok(pontszam, dimenzio, a) For i3 = 1 To pontszam t k(i3) = Worksheets("alg").Cells(4, 34 + i3) Next i3 For i4 = 1 To pontszam If lepeshossz(i4) > t k(i4) Then lepeshossz(i4) = t k(i4) End If If lepeshossz(i4) < 0 Then lepeshossz(i4) = 0 End If Next i4 For i5 = 1 To pontszam Worksheets("alg").Cells(5, 34 + i5) = lepeshossz(i5) Next i5 End Sub Sub rk(pontszam As Integer, dimenzio As Integer, a() As Single, k As Integer, w() As Single) Dim r k(1 To 20) As Single Dim i1 As Integer Dim i2 As Integer Dim j1 As Integer Dim j2 As Integer Dim j3 As Integer Dim j4 As Integer Dim b(1 To 20) As Single Dim

c(1 To 20) As Single Dim n As Single i1 = 0 Do While i1 < pontszam 56 FÜGGELÉK 57 i1 = i1 + 1 If Not (k = i1) Then For j1 = 1 To dimenzio b(j1) = a((i1 - 1) * dimenzio + j1) - a((k - 1) dimenzio + j1) c(j1) = w(i1) * b(j1) Next j1 Call norm(dimenzio, b) n = Worksheets("alg").Cells(1, 35) For j2 = 1 To dimenzio c(j2) = c(j2) / n Next j2 Else For j3 = 1 To dimenzio c(j3) = 0 Next j3 End If For j4 = 1 To dimenzio r k(j4) = c(j4) + r k(j4) Next j4 Loop For i2 = 1 To dimenzio Worksheets("alg").Cells(3, 34 + i2) = r k(i2) Next i2 End Sub A fönti makrók két további segédeljárást használnak. A norm nev¶ makró a paramétereként megadott vektor euklideszi normáját számítja ki, az iseq pedig azt vizsgálja, hogy a bemenetként kapott két vektor megegyezik-e. A kerekítések miatt itt nem követelünk meg pontos egyezést, az algoritmus során két vektort általában akkor kezelünk egyenl®ként, ha a különbségük euklideszi normája

0,001-nél kisebb. (A magyarországi városok 8 dimenziós példájánál ezt 0,01-re állítottuk.) Sub norm(dimenzio As Integer, v() As Single) Dim i As Integer Dim n As Single n = 0 For i = 1 To dimenzio n = (v(i) ^ 2) + n Next i n = n ^ (1 / 2) Worksheets("alg").Cells(1, 35) = n End Sub Sub iseq(dimenzio As Integer, v1() As Single, v2() As Single) Dim i As Integer Dim n As Single Dim eq As Boolean Dim kulonbseg(1 To 20) As Single FÜGGELÉK For i = 1 To dimenzio kulonbseg(i) = v1(i) - v2(i) Next i Call norm(dimenzio, kulonbseg) n = Worksheets("alg").Cells(1, 35) If n < 0.001 Then eq = True Else eq = False End If Worksheets("alg").Cells(2, 35) = eq End Sub 58 Irodalomjegyzék [1] B. Abdous, R Theodorescu, Note on the spatial quantile of a random vector, Statistics and Probability Letters vol.13, (1992), 333-336 [2] Arató Miklós, Az Eötvös Loránd Tudományegyetemen elhangzott Valószín¶ségszámítás cím¶ el®adásainak

anyaga, Budapest (2009) [3] M. A Arcones, Asymptotic theory for M-estimators over a convex kernel Econometric theory 14,(2005) [4] Z. D Bai, X R Chen, B Q Miao, C R Rao, Asymptotic theory of least distances estimate in multivariate linear models, Statistics 21, (1990) [5] Bischof Annamária, A robusztus becslések valószím¶ségi modellje, Sopron (2007) [6] R. Chartrand, K Vixie, B Wohlberg, E Bolt, A gradient descent solution to the Monge-Kantorovich problem, Appl. Math Sci, 3 (2009) [7] R. Chen, Noniterative solution of some Fermat-Weber location problems, Advances in Operations Reseach, Volume 2001, Article ID 379505 (2011) [8] V. Chepoi, A multifacility location problem on median spaces, Discrete Applied Mathematics 64 (1996) 129. [9] R. A Davis, K Knight, J Liu, M-estimation for autoregression with innite variance Stochastic processes and their Applications 40 , (1992) [10] T. Eltoft, On the multivariate Laplace distribution, IEEE Signal Processing Letters, 13(5) (2006) 59

IRODALOMJEGYZÉK 60 [11] W. Gangbo, R J McCann, The geometry of optimal transportation, Acta Math., 177 (1996), 113161 [12] J.BS Haldane, Note on the median of a multivariate distribution, Biometrika 35 (1948), 414415 [13] Hanák Gábor, A Budapesti Corvinus Egyetemen elhangzott Biztosítási tartalékolás és szolvencia cím¶ el®adásainak anyaga, Budapest (2012) [14] M. Jhun, S Jin, Application of the k-spatial medians clustering (1999) [15] T. Kärkkäinen, S Äyrämö, On computation of spatial median for robust data mining, Proceedings of the EUROGEN 2005 Conference. (2005) [16] S. Kotz, T Kozubowski, K Podgórski, An asymmetric multivariate Laplace distribution, (2001) [17] H. W Kuhn, A note on Fermats problem, Math Programming 4, (1973) [18] Y. Li, A Newton Acceleration of the Weiszfeld Algorithm for Minimizing the Sum of Euclidean Distances, (1995) [19] Márkus László, Az Eötvös Loránd Tudományegyetemen elhangzott Id®sorok cím¶ el®adásainak anyaga,

Budapest (2011) [20] P. Mazzoleni, Towards a directional solvency requirement, (2008) [21] J. Möttönen, K Nordhausen, H Oja, Asymptotic theory of the spatial median, (2010) [22] D. Rautenbach, M Struzyna, C Szegedy, J Vygen, Weiszfelds algorithm revisited once again Report No. 04946-OR, Research Institute for Discrete Mathematics, University of Bonn, (2004) [23] A. Toda, Weak limit of the geometric sum of independent but not identically distributed random variables, (2012) [24] J. Vygen, Approximation Algorithms for Facility Location Problems - lecture notes,(2005)