Informatika | Mesterséges intelligencia » Kovács Tamás - A mesterséges intelligencia és a nyelv viszonya

Alapadatok

Év, oldalszám:2019, 15 oldal

Nyelv:magyar

Letöltések száma:57

Feltöltve:2019. július 05.

Méret:1 MB

Intézmény:
-

Megjegyzés:

Csatolmány:-

Letöltés PDF-ben:Kérlek jelentkezz be!



Értékelések

Nincs még értékelés. Legyél Te az első!

Tartalmi kivonat

A mesterséges intelligencia és a nyelv viszonya Tamás Kovács A mesterséges intelligencia és a nyelv viszonya A nyelv az emberi kommunikáció legáltalánosabb eszköze, tagolt, egymástól elkülöníthető jelekből alkotott jelrendszer. A nyelv minden társas tevékenység nélkülözhetetlen feltétele, meghatározó szerepet játszik az egyének gondolkodásában. Egyes kutatók szerint a nyelv és gondolkodás ugyanazon folyamat különböző aspektusa, egyidejű, egymást feltételező jelenségek. A nyelv függ a gondolkodástól, ugyanakkor meg is határozza azt. A legáltalánosabban használt formája a beszéd A beszédtudomány fő területei a beszédképzés, a beszédészlelés és a beszédismétlés. A felsorolt alapvetések tényszerűen igazak és bizonyítottak az emberi kommunikációt illetően. Hosszú évezredekig a az ember volt képes egyes egyedül kommunikálni, azaz gondolatait észlelhető,, érzékelhető formába önteni. A 21 század

technológiai lehetőségei és a nyelvhasználatot illető kutatások megteremtették az alapját annak, hogy a nyelv nem csak az emberi DNS-láncok átörökítő kapcsain keresztül öröklődjék generációkról generációkra, hanem a mesterséges intelligencia révén az ember által létrehozott fizikai környezet is az emberi kommunikációs tér aktív részesévé váljon. Azaz ha elég merészen tekintünk a jövőbe, és ismerjük az elmúlt évtizedek kutatási trendjeit, akkor szinte kijelenthetjük, hogy a beszélő gépek korszakának küszöbén állunk. Az olvasó e pontnál joggal kapja fel a fejét: de hát ilyen már volt! Valóban, az 1700-as évek végén Kempelen Farkas feltalálta és bemutatta a beszélőgépet, amely nyelvészeti szempontból fontos mérföldkő: elindítja a modern fonetikai kutatásokat. E tekintetben nyelvészeti szerepe véget is ért, mert valóban képes volt az emberi hang frekvenciáján „megszólalni”, szavakhoz, sőt

mondatokhoz hasonlatos hangsorokat kiadni, de ez így csak fizika. Mert a kommunikáció az nem egyedül a beszédképzést és beszédészlelést jelenti, hanem annál sokkal több: a percepció, befogadás művészete az, ami igazán emberivé teszi. S íme, Kempelen után közel háromszáz évvel már-már elérhető közelségbe kerül a valós emberi kommunikáció modellezése. Mindehhez nem kellett más, mint az emberi kommunikáció, a nyelv behatóbb ismerete, illetve olyan informatikai eszközök és eljárások létrehozása, amely képes modellezni az emberi gondolkodás és nyelv működésének egyes elemeit. A Természetes Nyelv Feldolgozás (Natural Language Processing, NLP) a számítástudomány egy területe, mely olyan számítógépek létrehozását tűzte ki célul, melyek inputként, vagy outputként természetes nyelvet használnak. A természetes nyelv kommunikációs eszközként való alkalmazása az ember igényeinek kiszolgálását jelenti, ugyanakkor

nehéz feladatot ró a gépre. Különösen a bemeneti oldal, az emberi nyelv inputként való alkalmazása nehéz a beszélt nyelv sokszínűsége és a hordozott jelentés többszintűsége miatt. Míg a nyelv feldolgozása a nyelv megértését igényelné, addig a beszédgenerálás egy beparaméterezett egyirányú folyamat. A verbális robotkommunikáció négy nagy fejlesztési területe:  beszédészlelés és hangfeldolgozás  morfológiai elemzés  szemantikai elemzés  beszédgenerálás A beszédészlelés – hangfeldolgozás, illetve a beszédgenerálás sematikusan leegyszerűsítve nem más, mint egy adott eszközrendszer működtetése adott fizikai paraméterek mellett. Ebben az esetben nem kell feltétlenül az emberi modellt követnie a gépi technológiának. Ellenben az emberi kommunikáció a nyelvet használó területeinek (nyelvelsajátítás, kategorizálás, szemantikai beszédértés, logikus válaszadás) modellezése már a

számítástudomány és nyelvészet közös kutatási kapcsolatát, egy új tudományos terület meglétét feltételezi, amely nem más, mint a 20. század közepétől megjelenő és egyre intenzívebben fejlődő számítógépes nyelvészet. Mesterséges intelligencia és nyelvtechnológia A számítógép és a kognitív tudomány egymáshoz való viszonya két egymástól jól elkülöníthető aspektusban írható le. Az egyik célja, hogy olyan intelligens számítógépes alkalmazásokat hozzanak létre, amelyek kognitív funkciók tekintetében legalább emberi szinten, de inkább azt meghaladóan teljesítsenek. A másik felfogás az emberi megértés, a gondolkodás mintázatainak modellezését tűzte ki célul, azaz annak megértését, hogy milyen elemi összetevők által képes az ember gondolkodni, illetve a megszületett gondolatokat mások számára érthető formában megfogalmazni és közölni. Ez utóbbi vizsgálódás már nem egyedül

számítástudományi, informatikai feladat, hanem nyelvészeti is. A nyelvészeti tudományok ezen ágát számítógépes nyelvészetnek nevezzük, amelynek egyik kiemelt célja és feladata az emberi kognitív folyamatok, a beszédprodukció és a beszédpercepció modellezése. A gépi intelligencia kutatásában kiemelt helyet foglal el a nyelvhasználat képessége, mivel a nyelv központi szerepet tölt be az emberi gondolatok átadásában. Ezt már a számítógépes kor kezdetén is felismerték, amikor Alan Turing 1950-ben (Turing 1950/1964) az első modern számítógépek megjelenését követően megfogalmazott egy gondolatkísérletet, amely számítógépes programok intelligens voltát volt hivatott megállapítani. A Turing-tesztben a tesztelő személy egy számára láthatatlan számítógéppel és egy ugyancsak láthatatlan másik személlyel levelez bármilyen témáról. Mindkét levelezőpartner célja az, hogy meggyőzze a tesztelőt arról, hogy valódi

ember. A tesztelő feladata pedig az, hogy eldöntse, a két levelezőpartner közül melyik a gép. Ha a tesztelő sikertelen, mondja Turing, praktikus szempontból intelligens géppel állunk szemben. A mesterséges intelligencia első nyelvi modelljei Turing hatására megkezdődött a verseny a társalgó gépek kifejlesztésében. A mesterséges intelligencia (artificial intelligence) kifejezés 1956-ból származik, amikor Marvin Minsky, Claude Shannon és más kutatók ezen a néven konferenciát szerveztek, ahol a gépi nyelvi készség problémáját egy formalizált logikai utasításrendszer segítségével próbálták megközelíteni. A kezdetben nagyon egyszerű módszer (részleges) sikerét Weizenbaum (1966) ELIZA nevű társalgórendszere bizonyította. ELIZA egy rogersiánus pszichoterapeutát szimulál, aki partnerét beszédre bíztatja, ő maga viszont tartalmilag semmit nem tesz hozzá a beszélgetéshez. Az Eliza algoritmus a beszélgetőtárs közléseiből

kulcsszavak keresésével és behelyettesítésével állítja elő értelmesnek tűnő válaszait. Adatbázisában több szó és kifejezés, és az ahhoz tartozó válasz-sablonok szerepelnek. Ha a beszélgetőtárs kommunikációja tartalmazza valamelyik kulcsszót, az algoritmus véletlenszerűen kiválaszt egy, a szóhoz társított elemet adatbázisából, és megalkotja a választ. Az algoritmus nagyban épít az angol nyelv sajátos nyelvtani szerkezetére, ezért más nyelveken alkalmazni nehézségekkel jár. Az algoritmus sajátos "mellékhatása", hogy a program hasonló stílusban válaszol, mint egy rogersi szemléletű terapeuta: gyakran "tükrözi" vissza beszélgetőpartnere mondatait, formálja át kérdésekké kijelentéseit, bátorítja őt az adott téma kifejtésére. Ezzel a megoldással elkerülhető volt a tárgyi tudás problémája, és fókuszban maradhattak a társalgás nyelvi kérdései. Az alkotók szerint a rendszer felhasználói

több perc levelezés után sem jöttek rá, hogy nem emberrel, hanem egy géppel beszélgetnek, vagyis ELIZA megfelelt a Turing-teszt követelményeinek, bár csak a maga korlátozott témakörében. A hetvenes évek során Roger Schank vezetésével az egyszerű nyelvközpontú modellek kibővítésével kísérleteztek a mesterséges intelligencia kutatói. Ezeknek az úgynevezett forgatókönyv (script) rendszereknek a lényege a nyelvi tudás mellett a rendszerezett háttérismeret volt, és azt tűzték ki célul, hogy hétköznapi szituációkra vonatkozó kérdésekre emberhez hasonlóan tudjon választ adni a gép. A válaszadás alapja a háttérismeret, vagyis az adott szituációra megírt pontos forgatókönyv (algoritmus). A forgatókönyv ismeretében a rendszer logikai következtetéseket tudott levonni, és ennek megfelelően kommunikálni. A kísérlet kapcsán megjegyzendő, hogy egy használhatóan részletes, mindenre kiterjedő forgatókönyv összeállítása

megvalósíthatatlan feladatnak bizonyult. Ám valamilyen formában a háttértudás ma is lényeges eleme sok nyelvfeldolgozó alkalmazásnak, és a lexikális tudás az emberi nyelvfeldolgozásban is fontos szerepet kap. A nyelvtechnológia mai eszközei Az utóbbi évtizedekben jobban körülhatárolt célok felé fordult a számítógépes nyelvészet. Ma már ebben a kontextusban nem is mesterséges intelligenciáról, hanem inkább nyelvtechnológiáról beszélünk, amelynek a mindennapokban is használt sikerei közé tartozik például a helyesírásellenőrzés, a szövegkivonatolás, a bankszámlaegyenleg lekérdezése, a mozijegyrendelés és a gépi fordítás. Ezek és más hasonló alkalmazások a nyelvtechnológia egyes részfeladatainak megoldásával jöhettek létre. Ilyen részfeladatok a következők: Beszédfelismerés: a hallgató szerepében a gép első feladata a felhasználó által adott akusztikus jelek felismerése és a folyamatos hanghullám nyelvi

egységekre bontása. Beszédszintézis: a dialógus másik oldalán a gépnek tudnia kell beszédhangokat szintetizálni és ezeket folyamatos beszéddé alakítani. Elemzés (parsing): a nyelvi elemzés során a feladat a szöveg különböző szintű elemeinek rendszerezése, az elemek közötti függőségek megállapítása. A mondatok szintjén a szavak szerveződését vizsgáljuk (pl. mi minek a jelzője, birtokosa, tárgya stb), a szavak szintjén pedig a szótő és a toldalékok viszonya az elemzés tárgya (pl. a szavak szófajának megállapítása és a végződések kategorizálása). Szemantikai elemzés: a szöveg értelmezéséhez ismerni kell nemcsak a szavak jelentését, hanem a szöveg körülményeitől függő ún. deiktikus kifejezések utalási szándékát is Az akkor, tegnap, ő, itt szavak például csak a szövegkörnyezethez és/vagy a fizikai környezethez viszonyítva értelmezhetők. Ezen túl egyértelműsíteni kell a többértelmű szavakat, és

azonosítani a többszavas kifejezéseket, metaforákat, beszédaktusokat stb. Generálás: nyelvgenerálásnak nevezzük valamilyen tudás nyelvi kódolását, vagyis természetes nyelven – megformált mondatokban, szövegben – való kifejezését. Tekinthető ez úgy, mint a parsing és a szemantikai elemzés fordított irányú alkalmazása. Inferencia: végül egy bonyolultabb, háttértudással vagy tanulómemóriával rendelkező rendszer logikai következtetések levonására is alkalmas lehet, explicit vagy implicit statisztikai formában, amivel input hiányában is kinyerhet új információt. Ezt a folyamatot nevezzük inferenciának, ami a nyelvelsajátítás és nyelvfeldolgozás számítógépes modelljeinek szerves része. A nyelvtechnológiai rendszerek minden részfeladatánál két fő célt tartunk szem előtt, ahogy – feltételezhetően – az emberi nyelvfeldolgozásban is: az egyik a fedés (recall) maximalizálása (minél több nyelvi elemet tudjunk

azonosítani illetve kódolni), a másik pedig a pontosság (precision) maximalizálása (az azonosítás vagy a kódolás hibamentes legyen). A két törekvés gyakran ellentétben áll egymással, mert a fedés növeléséhez megengedőbb rendszerre van szükség, a hibák számának csökkentését viszont szigorítással lehet elérni. A számítógépes rendszereket ezért ezzel a két mértékkel, illetve ezek egyesítésével (F-mérték) szokták értékelni. A kérdés az, hogy ezeket a részfeladatokat – amennyiben az emberi nyelv működését kívánjuk modellezni – milyen eszközök / technikák bevetésével oldhatjuk meg. A nyelvészet e kérdésre kétirányú választ ad Szabályrendszer vagy statisztika A „klasszikus” megközelítés szabályok alkalmazásában látja a feladatok megoldását. A szabályrendszert a nyelvfeldolgozó program tervezője saját nyelvi tudása és a pszicholingvisztikai kutatások eredményei alapján alkotja meg, gyakran

általánosított, elvonatkoztatott kategóriákra építve. A szabályok tipikusan „mindent vagy semmit” alapon működnek, tehát vagy érvényesül egy szabály a feldolgozás során, vagy nem érvényesül, közbülső állapot nem létezik. Ezzel szembeállítható az újabban elterjedt statisztikai módszer, ahol a rendszer természetes nyelvi szövegekből (szakszóval korpuszokból) automatikusan von ki mintákat és ezeket alkalmazza más nyelvi megnyilvánulások feldolgozására. A mintákhoz tipikusan valószínűségeket rendel az algoritmus és újabb szövegek feldolgozásakor vagy generálásakor arra törekszik, hogy az együttes valószínűség maximalizálása mellett valósítsa meg a mintaillesztést. A modern nyelvtechnológiai alkalmazások többségében keverednek a szabályalapú és a statisztikai eszközök, bár az alsóbb szinteken (beszédfelismerés, szófaji elemzés) a statisztikai megoldások dominálnak, míg a felsőbb szinteken (parsing,

szemantika) csak az utóbbi néhány évben kezdte megingatni a statisztikai módszer a szabályalapú modellek fölényét. A beszédfelismerés A beszédfelismerő rendszerek egyik alapelve egy 18. századi matematikus, Thomas Bayes törvényein alapul. A bayesi megközelítés célja annak felbecslése, hogy ha adott egy h hangsor, mi annak a valószínűsége ,hogy ez a hangsor s szóhoz tartozik: P(s|h). A valószínűségek kiszámításához három tárra van szükség: Egy variációlistára, vagyis egy emberi segítséggel összeállított listára arról, hogy a korpuszban egy-egy hangsorhoz milyen szavak tartoznak. Ez adja meg a bayesi képlet lehetséges s szavait Egy listára a nyelv szavainak gyakoriságáról (hányszor fordul elő egy-egy szó a korpuszban). Ebből kapjuk a szó abszolút (vagy prior) valószínűségét: P(s). Egy listára a nyelvben előforduló fonotaktikai folyamatok gyakoriságáról (pl. szóvégi n hang lehagyásának valószínűsége). A

variációtárhoz hasonlóan ezt az információt is emberi munkával lehet a korpuszból kinyerni. Ez az információ adja egy-egy szóhoz tartozó hangsor valószínűségét (h) A keresett értéket a fenti három adat alapján számoljuk ki egyenként minden s szóra: P(s|h) = P(h|s)P(s). A bayesi módszer gyenge pontja a szavak prior valószínűségének meghatározó szerepe. Ez azt eredményezi, hogy ritkább szavak esetében jó esély van a hibára. A bayesi módszer eredményeinek javítása megvalósítható a szövegkörnyezet figyelembevételével, már csak azért is mert az emberi beszédfelismerés is nagyban támaszkodik a szövegkörnyezetre. A környezetfüggő előfordulási valószínűségek kiszámításának legelterjedtebb eszközei az n-grammodellek, ahol a célszavak prior valószínűségét az előttük szereplő szavak határozzák meg. Az n a modell nevében azt jelöli, hogy hány szó szerepel a vizsgált sorozatban. Egy kétszavas sorozat bigrammodell

lesz, három szóval trigrammodellt alkotunk. Minél tágabb a célszó szövegkörnyezete (vagyis minél nagyobb a modell), annál pontosabban tudjuk meghatározni a célszó előfordulási valószínűségét. Például a szem szó összességében lényegesen gyakoribb a magyarban, mint az eszem szó, a villával szót követően megfordul az egymáshoz viszonyított valószínűségük. Ezeket a valószínűségeket automatikusan nyerjük a korpuszból: a szókapcsolat előfordulási gyakoriságát elosztva az első tag előfordulási gyakoriságával. A korpusz összes szókapcsolatának valószínűségei adják a teljes n-gram-nyelvtant. Parsing: szófaji és morfológiai elemzés A beszélt vagy írott szavak azonosítása után a nyelvfeldolgozás következő szintje a szavak nyelvtani elemzése. Ez két részfeladatra bontható: egyrészt a szavak szófajának meghatározása (főnév, ige, névelő, határozószó stb.), másrészt a szavak morfológiai

összetételének elemzése (igekötők, képzők, ragok, jelek azonosítása). Az előbbi részfeladat tejesítésében ma a statisztikai programok a legsikeresebbek, míg az utóbbi problémára a magyarban és a magyarhoz hasonlóan bonyolult morfológiai rendszerű nyelvekben jelenleg még a szabályalapú módszerek kínálják a legjobb megoldást. A szóelemzés legfontosabb erőforrása a szótár A szótár tartalmazza a szótövek listáját, szófaji címkéikkel, morfofonológiai kategóriáikkal és alternatív töveikkel együtt. Elvben a szavak elemzése megoldható kizárólag egy olyan szótáron keresztül, ahol a nyelv összes létező szóalakja és a hozzájuk tartozó szófaji, illetve morfológiai címkék fel vannak sorolva. A gyakorlatban azonban ez a módszer nemcsak gazdaságtalan, hanem egyenesen kivitelezhetetlen, hiszen a szóalkotás kreatív folyamat a természetes nyelvekben. A szótár mellett tehát az elemzéshez szükség van egy szabályrendszerre,

vagyis morfológiai nyelvtanra. Ez minimálisan a következő információkat tartalmazza:  A toldalékok típusait (igekötő, képző, rag).  A toldalékok morfológiai jegyeinek szerveződését – pl.: IGE:-- idő --múlt, nem múlt – szám -egyes, többes – személy -- 1, 2, 3  A morfofonológiai kategóriákra vonatkozó szabályokat. Ide tartozik például az a megkötés, hogy a sziszegő hangra végződő igék egyes szám 2. személyű ragja -l, és nem -sz  A morfotaktikai szabályokat, vagyis a toldalékok előfordulásának lehetséges sorrendjét. Ilyen megkötés például, hogy a birtokos nem állhat esetragok után (testvéremet és nem testvéretem). A morfotaktikai szabályok ismerete jelentősen csökkentheti a hibák számát. A szófaji és morfológiai elemzés során az elemző algoritmusok a szótárhoz és a nyelvtan szabályaihoz próbálják illeszteni az input szövegben található szóalakokat. Az illesztésnek háromféle eredménye

lehet: (1) a szóalak egyértelműnek bizonyul és sikeresen felcímkézhető; (2) több elemzés is rendelhető az adott szóalakhoz. (3) az elemzendő szóalak töve nem szerepel a szótárban (lehet egy új szó a nyelvben, név, vagy éppen idegen szó). A többértelműség feloldását a szövegkörnyezet teszi lehetővé az előzőekben említett bayesi valószínűségek és n-gram-modellek segítségével. A hangalak helyén itt a szóalak áll, a célszó helyén pedig a szófaji/morfológiai kategória. Ismeretlen szótő esetén különböző stratégiák alkalmazhatók. A legbiztonságosabb és valószínűleg leggazdaságtalanabb megoldás a szótő válogatás nélküli többértelmű címkézése, vagyis a nyelvtanban szereplő összes szófaji címke felragasztása, amiket azután az egyértelműsítő n-gram-modell rangsorol valószínűségük szerint. Szófaji és morfológiai elemzők ma már 95–98%-os pontossággal működnek a világ különböző nyelvein.

Hasonló az eredmény az emberi elemző teljesítményével, tehát ha két személy egymástól függetlenül felcímkéz egy szöveget egy adott nyelvtan alapján, tipikusan a címkék 95–98%-a egyezik meg. Parsing: mondatelemzés A mondatelemzés célja a szavak közötti szintaktikai (szerkezeti) és szemantikai (jelentésbeli) viszonyok feltárása. Az elemzés eredményét különböző alkalmazásokban lehet hasznosítani, például nyelvhelyesség-ellenőrzésben, gépi fordításban, automatikus szövegkivonatolásban és kérdésre válaszoló rendszerekben. A gépi mondatelemzés jelenleg elsősorban szabályalapú rendszerekkel történik, és eredményei egyelőre elmaradnak a beszédfelismerés és a morfológiai elemzés eredményeitől. A gépi mondatelemzés legfontosabb erőforrása a nyelvtan, amely egy-egy nyelv szerkezetének a szabályrendszerét tartalmazza. A nyelvtechnológiában használt nyelvtanok nyelvelméleti modelleken alapulnak. A nyelvtanoknak két

fő típusát különböztethetjük meg A lexikalista függőségi nyelvtanok a mondat szerkezeti függőségeit az egyes szavak (lexikális elemek) közötti átmenetek alapján határozzák meg, vagyis a nyelvtan lényegében egy kiterjesztett szókapcsolattár vagy konstrukcióhalmaz. A nyelvtanok másik típusa a generatív nyelvelméletből ismert módszerre támaszkodva a mondatot hierarchikusan elrendezett frázisokra (szócsoportokra) bontja és a mondat szerkezeti függőségeit a frázisok alapján határozza meg. Minden frázisnak van egy kategóriája, amelyet a frázist leginkább meghatározó szó szófaja ad meg. A frázisstruktúra-nyelvtanokat le lehet írni ún környezetfüggetlen újraíró szabályokkal, ahol a szabály bal oldalán egyetlen fráziskategória áll, amelyet a szabály jobb oldalán álló egy vagy több kategóriára vagy szóra lehet bontani. A nyelvtan környezetfüggetlen, mert a bal oldali kategória felbontása a szövegkörnyezetétől

függetlenül van meghatározva. A szabálysor a legfelső kategória (a mondat) felbontásával kezdődik, és lépésenként halad lefelé a hierarchián, amíg el nem jut a szavakhoz. A gépi mondatelemzés során az elemző algoritmus a nyelvtan által megengedett frázisszerkezeteket próbálja az input mondatra illeszteni. Mivel a nyelvtan szófaji kategóriákra és morfológiai jegyekre épül, a mondatelemző bemenetének előzőleg felcímkézett szövegnek kell lennie. Egy mondat lehet szerkezetileg többértelmű. A többértelműség feloldásához a szövegkörnyezet figyelembevételére van szükség; ez statisztikai módszerekkel valósítható meg. Itt azonban összetettebb problémáról van szó, mint a morfológiai egyértelműsítés esetében. A nyelvtan elsajátításának számítógépes modellezése A szintaxis tanulásának modellezéséhez először szükség van valamilyen szintaktikai tudást reprezentáló modellre, amelyet majd a rendszernek a nyers

szöveg alapján ki kell alakítania. A nyelvtan elsajátításának ígéretes modellje a statisztikai tanulás elmélete, amely szerint a tanuló a körülötte elhangzó nyelvi megnyilvánulásokból mintázatokat von ki az egyes elemek együttelőfordulási gyakorisága alapján, majd ezekből a mintázatokból fokozatosan nyelvtani kategóriákat alakít ki. Ez a nehezebb, mint a gépi morfológiai elemzés, mert ezekben a modellekben nem használhatunk szófajokkal felcímkézett szótárt: azt próbáljuk modellálni, hogy előzetes tudás hiányában, csupán a hallott szövegekből hogyan lehet a szavakat kategóriákba sorolni. Ennek a megközelítésnek egyik legegyszerűbb számítógépes megvalósítása Mintz és munkatársai nevéhez fűződik. A klaszterelemzéses modell a szavakat a környezetükben előforduló egyéb szavak gyakoriságával jellemzi. Először ki kell választanunk, hogy mely szavakat szeretnénk kategorizálni, ezeket hívjuk célszavaknak. A

célszavak általában a szöveg leggyakoribb szavai lesznek Ez után el kell döntenünk, hogy mely szavakkal szeretnénk jellemezni a célszavakat, ezek a kontextusszavak. Egy alapproblémája a hierarchikus klaszterelemzéses modellnek, hogy az algoritmus nem inkrementális, azaz a teljes korpuszra szükség van ahhoz, hogy a klaszterhierarciát felépítsük, és egy újabb mondat bevonása az egész algoritmus újrafuttatását igényli. Cartwright és Brent továbbfejlesztette a Mintz által kidolgozott modellt és kiküszöböli ezeket a hibákat. Az algoritmus online, inkrementális működésű, azaz minden mondat feldolgozása után felállít egy hipotézist az eddigi szavak kategorizálására, és következő mondat beadásával ezt a hipotézist anélkül tudja tovább finomítani, hogy szüksége lenne a korábbi mondatok újrafeldolgozására. A szerzők a kategorizálásra mint optimalizációs feladatra tekintettek: a cél olyan kategorizáció megadása, amellyel a

lehető legrövidebben leírhatóak a mondatok. A leírás három részből áll: a kategóriák tagjainak ismertetéséből, a mondatok leírásából a kategóriákkal (ezt hívjuk hipotézisnek), valamint a hipotézisben templátummal leírt mondatok egyértelműsítéséből (ezt hívjuk derivációnak). Cartwright és Brent az MDL (minimum description length) néven ismert információelméleti szemléletet választotta, amely szerint az a legjobb kategorizáció, amely a legjobban tömöríti a hallott mondatokat. A mondat-összevonási heurisztikákat úgy tervezték, hogy az összevonások során a minimális leírási hosszt lehetőleg minél jobban megközelítsék. A modell teljesítményét egy egyszerű szimbólumokból álló mesterséges nyelven értékelve igen jó eredmények születtek, viszont természetes nyelveken futtatva az algoritmus több nehézséggel küzdött. Bár a módszer pontossága nagyon jó volt, azaz ha két szót egy kategóriába sorolt, akkor

azok valóban egy nyelvtani kategóriába tartoztak, a fedés viszont igen alacsony lett, azaz két külön kategóriába sorolt szónak sokszor egy kategóriába kellett volna tartoznia. Az algoritmus tehát túl konzervatívra sikerült, sok kis kategóriát hagyott meg a végén, anélkül, hogy a még szükséges összevonásokat elvégezte volna. Cartwright és Brent hangsúlyozzák, hogy a disztribúciós elemzést nem tekintik kizárólagos mechanizmusnak a nyelvtani kategóriák elsajátításában. Nézetük szerint szemléletük összeegyeztethető veleszületett nyelvtani ismeretek feltételezésével is, hiszen a célnyelvi szavak kategorizálásának kérdésére az innátista elméleteknek sincs kielégítő válaszuk. A lexikon elsajátítása: vonzatkeretek Lexikális tudáson nemcsak a szavak kategorizálását értjük, hanem egyéb idioszinkratikus szintaktikai tulajdonságaik ismeretét is. A predikatív nyelvi elemek – köztük az igék – lexikális

tulajdonságai közé tartozik a vonzatkeretük, azaz hogy milyen kategóriájú, illetve morfoszintaktikai szerkezetű bővítményekkel jelenhetnek meg a mondatban. Ez a tudás nem csak a mondatalkotás, hanem a mondatfeldolgozás szempontjából is elengedhetetlen. A vonzatkeretek elsajátításának számítógépes modelljei ezt a problémát úgy fogalmazzák meg, hogy ha adott egy F vonzatkeretkészlet és egy V igehalmaz, az inputban megjelenő mondatok alapján döntsük el minden (f, v) > F × V párról, hogy a nyelvtan szerint f lehet-e v vonzatkerete. A tanulás eredményeként megengedett ige–vonzatkeret párok alkotják a tanuló lexikonját. A gyereknyelv esetében az input a gyerek nyelvi környezetét jelenti, a számítógépes modell pedig digitális korpuszokból tanul. A vonzatkeretek gépi tanulásának egyik mérföldköve Brent statisztikai módszeren alapuló modellje. Brent eljárásának az a feltételezés az alapja, hogy minden vonzatkerethez

tartoznak ún. jegyek Egy jegy olyan mintázat vagy formai sajátosság, aminek megjelenése egy mondatban valószínűsíti, hogy a mondatban előfordul a jegyhez tartozó igei vonzatkeret. Például a „tárgyas ige” vonzatkerethez tartozhat a következő jegy: a mondatban pontosan egy ige van, és van benne tárgyesetű névszó. A számítógépes modellben felhasznált jegyeket a gyereknyelvi korpuszban konzisztensen előforduló, a felnőtt nyelvtan szabályainak megfelelő argumentumszerkezetek részletei adják. A vonzatkeretet tanuló modell olyan korpuszból tanul, ahol a jegyek már jelölve vannak, vagyis feltételez némi előzetes tudást, ami akár az előző részben tárgyalt kategorizáló mechanizmusok eredménye is lehet. Minden jegyhez tartozik egy hibavalószínűség, ez annak a valószínűsége, hogy a jegy ugyan megjelenik egy mondatban, de a jegyhez tartozó vonzatkeret mégsem tartozik az adott predikátum megengedett vonzatkeretei közé. A

hibavalószínűségek (>) meghatározása különböző módszerekkel történhet. Elméleti szempontból az a módszer tűnik az emberi nyelvelsajátítás legjobb megközelítésének, amely a vonzatkeretek disztribúciójára épül. Vesszük a korpuszban egyenként legalább n-szer előforduló igék első n előfordulását, és kiszámoljuk, hogy egy fvonzatkerethez tartozó jeggyel hány ige szerepel egy adott 1 ≤ i ≤ n gyakorisággal. A hibavalószínűségek ismeretében egy statisztikai modellel döntünk arról, hogy egy ige megjelenthet-e egy adott vonzatkerettel. Két elterjedt statisztikai modellt alkalmas erre a feladatra: a binomiális modell és a valószínűségi hányados modell. A binomiális modell eredményei azt mutatják, hogy a pontosság és a fedés relatív értékei nagyon erősen függnek a hibavalószínűség értékétől: ha emeljük a hibavalószínűség értékét, akkor a pontosság megnő, a fedés értéke viszont csökken. A legjobb

összteljesítményt akkor kapjuk, ha nagyon alacsonyra állítjuk a hibavalószínűséget, vagyis ha a modell szinte minden egyes megfigyelt ige–vonzatkeret párt megtanulandó példának tekint. Ebben az esetben viszont nincs fejlődés, több input esetén sem javul a pontosság. A valószínűségi hányados modell azt teszteli, hogy egy adott v ige megjelenése és egy adott f vonzatkerethez tartozó jegy megjelenése egy mondatban független eseményeknek tekinthetők-e, azaz, hogy együttes előfordulásuk mennyire véletlenszerű. Ha a két esemény nem független, f v vonzatkeretének tekinthető. Mivel ez a modell egy adott vonzatkeret más igékkel való előfordulási gyakoriságát érzékenyebben veszi figyelembe, mint az előző modell hibavalószínűségi paramétere, elméletben közelebb áll az emberi nyelvelsajátítás esetében feltételezett általánosító, majd a hibás általánosításokat „visszatanuló” tanulási mechanizmushoz. A gépi

nyelvfeldolgozás szempontjából a valószínűségi hányados próba a binomiális módszernél kissé gyengébb eredményeket mutat: a viszonylag jó fedés igen szegényes pontossággal párosul. Ez az állapot a gyereknyelv fejlődésének azt a szakaszát idézi, amikor a kezdeti konzervatív tanulási stratégiát felváltja az általánosító stratégia. Több adaton a modell egyre jobban teljesít, viszonylag jól reprodukálva az U alakú tanulási görbét. A gyereknyelvi elemzések esetében a teljesítmény az idő (a gyerek kora) előrehaladtával csökken majd nő újra, a számítógépes modell esetében pedig az input adatmennyiségének növekedésével. A kettő megfeleltethető egymásnak, hiszen az idő múltával a kisgyerek egyre több beszédet hall, így egyre több adathoz jut. A szintaxis elsajátításának modellje Összetettebb modell az ADIOS (automatic distillation of structure: szerkezetek automatikus kinyerése) algoritmus, amely már nem csupán a

szavak lexikális tulajdonságait tanulja, hanem a mondat szavai között fennálló szerkezeti függőségeket is megpróbálja kimutatni. Az ADIOS egyszerű és kevés prekoncepciót tartalmazó modellt használó általános mintakinyerő algoritmus, amelyet a nyelvelsajátítás modellezésén kívül más, például bioinformatikai problémák megoldására is használtak. Az algoritmust először egy környezetfüggő szabályokkal leírt mesterséges nyelvtan segítségével tesztelték, ahol sikerült 95%-os fedést (vagyis a nyelvtan által generált mondatok 95 százalékát fogadta el az ADIOS) és 86%-os pontosságot (vagyis az ADIOS által generált mondatok 86 százaléka felelt meg a nyelvtannak) elérni. Tehát az ADIOS viszonylag kiegyensúlyozott tanulónak tűnik, nem is általánosít túl, és nem is túl konzervatív, így a felismerés és a generálás hasonlóan jó eredményekkel sikerült. Az ADIOS rendszer olyan tanulóalgoritmus, amely a nyers szöveg

alapján generálásra is alkalmas környezetfüggő mintarendszert állít elő a szöveg nyelvtanának reprezentálására. Mivel a mintarendszer környezetfüggő, ezért szavakat egyszerre képes külön konstrukciókban sajátosan kezelni és nagy létszámú kategóriákba sorolva általános szabályokba illeszteni. Mindez rokoníthatóvá teszi Goldberg konstrukciós nyelvtanának szemléletével. Így egyszerre tud jól általánosítani és furcsa egyedi eseteket kezelni. Ez a tulajdonsága kognitív modellként különösen elfogadhatóvá teszi A konnekcionista megközelítés A konnekcionizmus szakítani próbál a hagyományos szimbolikus modellekkel, és az idegrendszer természete által inspirált modellel dolgozik. Elveti a soros működést, és az agyhoz hasonlóan egymással masszívan párhuzamosan működő objektumokat feltételez. Nem szerepeltet explicit szimbólumokat a modelljeiben, hanem reméli, hogy olyan idő- és térbeli mintázatok jönnek létre,

amelyeknek a kifejező ereje előrekódolás nélkül is meghaladja a szimbólumokét. Ezenfelül minél kevesebb tudást próbál előre beprogramozni a rendszerbe, és inkább gépi tanulási módszereket használva próbálja automatikussá tenni a tudás rendszerbe vitelét. A konnekcionista (vagy neurális) hálózatok alapegysége a mesterséges neuron. Ez egy egyszerű feldolgozó egység, amely kap valamennyi bemeneti ingert (ezeket valós számokkal írjuk le), és kibocsát egy kimeneti ingert. Minden bemenethez tartozik egy súly, és a neuron aktivációját a bemenetek súlyozott összege valamilyen nemlineáris függvénye (aktivációs függvény) határozza meg. A kimenet ezek után csatlakozik egy másik neuronhoz (amelyhez ezen kívül tipikusan több másik neuron kimenete is kapcsolódik), amelynek így egyik bemenetét képezi. Az aktivációs függvény nemlinearitása teszi lehetővé, hogy a neuronháló ne csak folytonos jellegű, hanem élesebb, kategoriális

jellegű döntéseket is tudjon hozni. A hálózat tudása a neuronok közötti kapcsolatok súlyaiban fejeződik ki, az aktuális belső állapota pedig a neuronok aktivációs szintjében. Az első nagy hatású pszicholingvisztikai tárgyú konnekcionista modell Rumelhart és McClelland múlt idejű ragozást tanuló rendszere volt. A többrétegű perceptront használó modell azon felül, hogy elsajátította az angol igék múlt idejű alakjait, természetes módon reprodukálta a gyerekek fejlődése során megfigyelt U alakú fejlődési görbét: a leggyakoribb rendhagyó igéket először helyesen jelenítette meg, ezután kiterjesztette rájuk a szabályos múlt időt, mielőtt végül a célnak megfelelő teljesítményt ért el. Ezzel mintáját adta annak a többször megfigyelhető jelenségnek, amikor egy konnekcionista rendszer spontán, rendszerbeli sajátosságai folytán mutat olyan, az életben megfigyelhető működési jellegzetességeket, amelyeket a formális

szimbolikus modellek csak erre a célra kitalált plusz komponensek segítségével tudnak reprodukálni. Rumelhart és McClelland azt bizonyította be a modellel, hogy a szabályszerű viselkedés mögött nem feltétlenül húzódik meg valódi explicit szabály, hanem lehet különböző általános információfeldolgozási folyamatok eredménye is. Jeffrey Elman úgynevezett rekurrens vagy visszacsatolt neurális hálózattal modellezte a nyelvelsajátítás és -feldolgozás több jelenségét. A rekurrens hálózatok olyan rétegelt neurális hálók, ahol az egyik réteg visszakapcsolódik egy korábbihoz, ezzel egy hurkot hozva létre. A hálózat elemei így egy bemenet hatására tetszőleges ideig aktivációban maradhatnak. A rekurrens hálók használatának sajátossága, hogy minden időegységben beadunk nekik egy bemeneti ingert, miközben a visszacsatolás miatt még a korábbi ingerek feldolgozása is folyik. Ezek a hálózatok tehát az egymás utáni ingereket

nem elkülönült folyamatok során dolgozzák fel, hanem a működésükre mindig közvetett hatással vannak a korábbi bemeneti minták, így a neurális hálók ezen osztálya egyfajta rövid távú memóriamodellt valósít meg. A mondatfeldolgozás és a nyelvtan elsajátításának modellezése mellett Elman ezzel a hálótípussal, mintegy melléktermékként, a nyelvelsajátítás egy érdekes és vitatott kérdésére, a kritikus periódus okára és mechanizmusára is egy lehetséges magyarázatot adott. Elman egy, az angolhoz hasonlító, de erősen leegyszerűsített nyelv nyelvtanát próbálta a rekurrens hálónak megtanítani. A nyelvben főnevek és igék voltak, ezeket egymással számban egyeztetni kellett, illetve az igék az argumentumszerkezetük szerint három kategóriába tartozhattak (intranzitív, opcionálisan tranzitív vagy kötelezően tranzitív). A mondatokban többszörös beágyazások is lehettek, így az egymással egyeztetendő elemek egymástól

távol kerülhettek. A szavakon formailag nem volt jelölve sem a szintaktikai kategória, sem a szám, sem más információ, és a hálóba sem volt beépítve ezekkel kapcsolatban semmilyen előzetes tudás. A tanítás célja, hogy a háló jósolja meg a mondat következő szavát a kimeneti rétegen. Az első szimulációs próbálkozás teljes kudarccal végződött, a háló semmiféle predikcióra nem volt képes. A második szimulációs sorozat során először csak egyszerű mondatokat kapott a háló, majd fokozatosan növekedett az összetett mondatok aránya, míg végül már csak összetett mondatok képezték a bemenetet. A háló így már sikeresen működött, hasonló valószínűséggel folytatta a mondattöredékeket a különböző szavakkal, mint ahogy azok a tanító mondatkészletben szerepeltek. Elman következő szimulációjában ezért nem a bemenet bonyolultságát korlátozta, hanem magát a hálózatot tette időben változóvá. Az ötlet abból

állt, hogy az elvileg korlátlan (bár időben fokozatosan halványuló) memória időbeli terjedelmét kezdetben korlátozta. A szimuláció első szakaszában minden harmadik-negyedik szó után megszüntette a visszacsatolást a rejtett rétegről a kontextusrétegbe, és csak fokozatosan engedte meg a folyamatos visszacsatolást. Mivel az egyszerű mondatok hossza három-négy szó, ezért az egyszerű mondatokat a korlátozott memóriával is jól feldolgozhatta a rendszer. A hosszú összetett mondatoknak azonban csak töredékeit tudta feldolgozni Ezeken sokszor nincs mit megtanulni, egyszerűen zajnak minősülnek. Szerencsére a neurális hálók egyik erőssége, hogy zajra nem érzékenyek, azt hatékonyan ki tudják szűrni a bemenetből. Az eredmények ezt igazolták is, a háló az előző esethez (növekvő bemenet) hasonlóan jól megtanulta a nyelv sajátosságait, mindössze annyi volt a különbség, hogy a kezdeti „legbutább” szakaszt hosszabbra kellett venni,

mint az előző tréning során a legrövidebb bemenetes szakaszt. Ez teljesen megfelel az elvárásainknak, mert míg a növekvő bemenet esetében minden mondat helyes volt, értékes adatnak minősült, addig a növekvő memória esetében csak az egyszerű mondatok alkottak hasznos bemenetet, a mondattöredékek pusztán zajt alkottak, és így lassabban gyűlt össze a megfelelő mennyiségű tanító példa. Elman rávilágít a neurális hálók néhány, a nyelvelsajátítás szempontjából különösen fontos tulajdonságára: A neurális hálózatok tanulásának alapja a bemenetben lévő statisztikai törvényszerűségek felismerése. Mindezen felül a neurális hálók az adatok alapján általánosítanak, ezért képesek sokszor olyan bemenethez is megfelelő kimenetet rendelni, amellyel korábban még nem találkoztak. Chomsky ezért tévedett, amikor azt gondolta, rendkívül sok példa kellene ahhoz, hogy statisztikai tanulással elsajátíthatóak legyenek a

nyelvtan törvényszerűségei. A neurális hálózatok semmilyen módon nem tárolják a korábbi tapasztalatokat, csupán a súlyok mintázata, rekurrens hálók esetén pedig a belső állapotuk, tehát neuronok aktivációja őrzi a korábbi tapasztalatok hatását. Így a háló a jelenben él, mindig van egy aktuális hipotézise, de már nem tud visszanyúlni azokhoz a tapasztalatokhoz, amelyek alapján ezt a hipotézist megalkotta. Ez azt jelenti, hogy a háló a friss tapasztalatok birtokában nem tudja a régi ingereket egy alternatív hipotézis fényében újraértékelni. A hipotézisek keresési terében (ami konkrétan a súlyok mintázatával van megvalósítva) csak kis lépésekben lehet haladni, nem lehet hirtelen egy nagyon más alternatív hipotézisre átugrani. A hálózat tanulási képessége az idő előrehaladtával fokozatosan csökken, ahogy a rendszer egyre többet tud, egyre nehezebben változtatja meg súlyait az új ingerek hatására. Ebből a négy

sajátosságból együtt következik a konnekcionista hálózatok gyengesége: ha a kezdeti adatok alapján a rendszer elkötelezi magát egy hibás hipotézis mellett, akkor ezen később már nagyon nehezen tud változtatni. Ha ráadásul a kezdeti adatok túl bonyolultak, akkor a súlyok mintázata nem fog tartani sehová, a rendszer egyszerűen nem tanul meg semmit. Christiansen és Chater részletesebben a kielemezte az Elman-féle rekurrens háló képességeit, különös tekintettel a rekurzív szerkezetek, azaz az azonos típusú frázisok egymásba ágyazásának felismerésére. Azt figyelték meg, hogy a rekurrens hálók teljesítménye gyorsan leromlott a beágyazások mélységének növelésével, és ezen nem lehetett javítani sem a rejtett réteg méretének növelésével, sem a sokszoros beágyazások intenzívebb tanításával. Mindez azt jelzi, hogy a sokszoros beágyazások elsajátítása strukturálisan korlátozott a rekurrens hálók számára, és nem csak

szerencsétlen paraméterbeállítások következménye. A szerzők szerint a háló működésének az emberi performanciát és nem a kompetenciát kell modelleznie, ezért nem kell hátránynak tekintenünk, ha a beágyazások számával romlik a rendszer teljesítménye, hiszen ugyanezt a jelenséget embereknél is megfigyelhetjük. Az eredmények eszerint támogatják azt a nézetet, hogy a rekurrens hálók megfelelő modelljei lehetnek a természetes emberi nyelvelsajátításnak (pontosabban a szintaxis elsajátításának) és mondatfeldolgozásnak. Szemantikai és pragmatikai tudás: a metaforák feldolgozása Számítógépes szempontból a problémát tekinthetjük úgy, mint a többértelműség feloldásának egy speciális formáját, ahol egyes szavak vagy kifejezések átvitt értelemben szerepelnek a szövegben. A metaforák azonosítására leginkább statisztikai megoldások léteznek, de valamilyen mértékű előzetes tudásra minden modellnek szüksége van.

Kérdés, hogy milyen mértékben jósolható meg egy-egy metaforikus kifejezés előfordulása a szövegkörnyezet alapján. Martin (2006) tanulmánya pénzügyi metaforákat (pl emelkedett az infláció) vizsgált, ahol a fizikai mozgást kifejező forrástartomány és a pénzügyi jelenségre utaló céltartomány egymástól szemantikailag távol esik (a forrás- és céltartomány magyarázatát l. a könyv 17. fejezetében) A metafora forrástartományának konkrét értelmű szemantikai szomszédjait (pl. emelkedik, nő, ugrik) és céltartományának szemantikai szomszédjait (pl infláció, ár, kamat)azonosította egy korpuszban és ezek előfordulásához viszonyította a pénzügyi metafora valószínűségét. Az eredmények azt mutatják, hogy a metaforák a semleges szövegkörnyezethez képest kisebb valószínűséggel fordulnak elő akkor, ha a szövegkörnyezetben a forrástartomány szemantikai szomszédjai konkrét értelemben szerepelnek, és nagyobb

valószínűséggel fordulnak elő akkor, ha a szövegkörnyezet a céltartomány szemantikai szomszédjait tartalmazza. Például az emelkedik szó kisebb valószínűséggel metaforikus értelmű, ha a környékén az ugrik szó fizikai értelemben szerepel, és nagyobb valószínűséggel metaforikus, ha a környékén előfordul mondjuk a kamat szó. A kísérlet eredményei arra mutatnak rá, hogy már a szövegkörnyezet egyszerű lexikális összetétele is segíthet a metaforikus kifejezések értelmezésében, illetve gépi feldolgozásában. Egy másik felvetés szerint a kritikus szavak együttes előfordulásán túl a szintaktikai szerkezetet is érdemes figyelembe venni a metaforák felismeréséhez. A British National Corpus egy részének kézi elemzése szerint az itt előforduló 241 metaforikus kifejezésből 164-et, vagyis jóval több, mint a felét, ige vezeti be. Erre a megfigyelésre épül Fass met* elnevezésű, félig-meddig gépesített rendszere, amely szó

szerinti, metaforikus, metonimikus és anomáliás igealapú kifejezéseket kísérel meg megkülönböztetni egymástól. A rendszer három lépésben működik Először egy kézi erővel alkotott szelekcióspreferencia-szótár és részontológia segítségével különíti el a szó szerinti jelentést (ahol az argumentumok megfelelnek az ige szelekciós preferenciáinak) minden nem szó szerinti jelentéstől (ahol az argumentumok nem felelnek meg a szelekciós preferenciáknak). Ezt a lépést az emberi nyelvfeldolgozásban párhuzamba vonhatjuk a konkrét értelmű ige vonzatkeretének ismeretével a mentális lexikonban. A második lépésben a rendszer egy forrás- és céltartomány-részontológiával veti össze a vonzatszerkezetet, és ha megfelelést talál, metaforikusnak címkézi a kifejezést. A harmadik lépésben a metonimikus és az anomáliás kifejezéseket próbálja hasonló módszerrel elkülöníteni. A modell problémája az, hogy a jelentős kézi

beavatkozás ellenére vagy erősen alulgenerál (nem találja meg a metaforákat) vagy erősen túlgenerál (mindent metaforának ítél). Az eredmények szinte kizárólag azon múlnak, hogy mi szerepel a kézileg megalkotott ontológiában. Ezzel szemben az emberi metaforafeldolgozásról tudjuk, hogy ennél sokkal rugalmasabban működik. Shutova és munkatársai új munkájukban az argumentumstruktúra módszerét a korpuszból kinyert forrás- és céltartománybeli szólistakeresési módszerrel kombinálták: olyan kifejezéseket kerestek, ahol az ige jelöli a forrástartományt és az alany vagy a tárgy a céltartományt. A forrás- illetve céltartományi szavakat klaszteralgoritmusok segítségével korpuszból állították össze. Az igék közül kiszűrték azokat, amelyek – szintén korpuszelemzések szerint – gyenge szelekciós preferenciákat mutatnak, vagyis sok különböző típusú alannyal vagy tárggyal is előfordulhatnak konkrét értelmükben. A

szerzők hipotézise szerint az olyan kifejezések, ahol erős szelekciós preferenciájú forrástartományi igék céltartományi vonzatokkal fordulnak elő, metaforikusnak tekinthetők. A módszer eredményeként 79 százalékos pontosságot értek el. Végül Baumer és munkatársai még több előzetes tudás bevonásával próbálkoztak: egy hasonló klaszteralapú megoldást egészítettek ki szemantikaiszerepcímkézéssel (semantic role labelling, SRL). Az SRL segítségével a szintaktikai elemzéssel ellátott korpuszban különböző szintaktikai szerkezetekből is ki tudták vonni a tematikus szerepeket (pl. az angol passzív szerkezet alanyáról megállapítható, hogy az ige páciens típusú argumentuma). A rendszer jelenleg kísérleti stádiumban van. Összefoglalás A számítógépes nyelvészet modelljei az emberi nyelvelsajátítást, illetve nyelvfeldolgozást igyekeznek szimulálni. A modellek ötvözik a nyelvtechnológiában bevált módszereket a

pszicholingvisztikai kutatásokban feltárt folyamatok gépi megvalósításaival, miközben arra törekszenek, hogy a modellek eredményei minél jobban közelítsenek a pszicholingvisztikai kísérletek és elemzések mintázataihoz. A célok megvalósítására – a pszicholingvisztika elméleti modelljeihez hasonlóan – két gyökeresen különböző, de egymást nem feltétlenül kizáró megközelítést találunk: szabályalapú és mintaalapú (statisztikai) megoldásokat. Az elmúlt időszakban a statisztikai módszerek kerültek előtérbe, és ezek bizonyulnak sikeresebbnek, ami főként annak köszönhető, hogy a nyelvről ma már nem csak intuíciók alapján tudunk elmélkedni, hanem hatalmas természetes korpuszok állnak rendelkezésünkre, valamint olyan informatikai eszközök, amelyekkel ezeket a korpuszokat fel tudjuk dolgozni. A statisztikai modelleknél is kulcskérdés azonban, hogy ha nem feltételezünk is velünk született nyelvi szabályrendszereket,

mégis fel tudjuk fedezni, hogy a nyelvfeldolgozás egyes szintjei milyen előzetes tudást feltételeznek, amelynek pszicholingvisztikai realitása is van, és megfelelően precízen meghatározható ahhoz, hogy implementálható is legyen. Talán nem meglepő módon, minél feljebb megyünk a nyelvfeldolgozás szintjein, annál nehezebbnek tűnik ez a probléma. Míg a beszédfelismerés, szófaji kategorizálás és morfológiai elemzés szintjén ma már jól működő és a pszicholingvisztikai eredményekkel is kompatibilis számítógépes modelleket találunk, addig a mondatok szintaktikai feldolgozása és a szemantikai elemzés terén eddig csak részfeladatokat sikerült megoldani. Ugyanakkor már ezek a részmegoldások is hasznos információkkal szolgálnak ahhoz, hogy jobban megértsük a nyelvelsajátítás és nyelvfeldolgozás mechanizmusait. Felhasznált irodalom: Csáji Balázs Csanád (2002) A mesterséges intelligencia filozófiai problémái. Budapest,

ELTE-BTK (szigorlati dolgozat) http://old.sztakihu/~csaji/CsBCs MIpdf (Letöltés: 20190302) Dudás László (2011). Alkalmazott mesterséges intelligencia Miskolci Egyetem https://www.tankonyvtarhu/hu/tartalom/tamop425/0046 alkalmazott mesterseges intelligencia/a datok.html (Letöltés: 20190511) Kristóf Tamás (2002) A mesterséges neurális hálók a jövőkutatás szolgálatában. Budapesti Közgazdaságtudományi és Államigazgatási Egyetem Jövőkutatási Kutatóközpont Budapest https://www.researchgatenet/publication/283463205 A mesterseges neuralis halok a jovokutat as szolgalataban Artificial neural networks in Futures Studies (Letöltés: 2019.0302) Négyesi Imre (2017) A mesterséges intelligencia és a hadsereg III. Beszédfelismerő szoftverek II Hadtudományi Szemle 2017. 10: 142-155 http://epa.oszkhu/02400/02463/00037/pdf/EPA02463 hadtudomanyi szemle 2017 04 142-155pdf (Letöltés: 2019.0302) Pléh Csaba – Lukács Ágnes (2014). Magyar pszicholingvisztikai

kézikönyv Akadémiai Kiadó, Budapest Stuart Russell – Norvig, Peter (2005).Mesterséges Intelligencia Modern megközelítésben Bp Panem https://people.infeltehu/fekete/algoritmusok msc/wumpus/Russel Norvig MI 2edpdf (Letöltés: 2019.0302) Varjú Zoltán (2017) Hogyan tanuljon a mesterséges intelligencia. Nyelv és Tudomány 2017 https://www.nyesthu/hirek/hogyan-tanuljon-a-mesterseges-intelligencia (Letöltés: 2019.0302)