Nem csak mi taníthatjuk az intelligens gépeket, akár ők is minket. Beszélgetés dr. Bodó Zalánnal, a gépi tanulás szakértőjével

TwitterFacebook

Dr. Bodó Zalán a BBTE Matematika és Informatika Karának docenseként mesterségesintelligencia-kutatással, azon belül gépi tanulással foglalkozik. Állítása szerint a mesterségesintelligencia-kutatás korántsem tart abban a fázisban, hogy intelligens gépek világuralmi törekvéseitől kellene tartanunk, ugyanakkor az okos gépek, illetve alkalmazások számos pozitív hozadékára hívja fel a figyelmet, az orvoslástól az álhírek kiszűrésén keresztül a fűtésrendszerek energiatakarékos üzemeltetéséig. A BBTE kutatója szakterületén belül azt tartja a legizgalmasabb esetnek, amikor mi, emberek tanulunk valamit az általunk programozott gépektől. A szakemberrel Serestély Zalán beszélgetett.

Serestély Zalán: Milyen kritériumok segítségével határozható meg az, hogy mitől tekinthető valami mesterséges intelligenciának? És mi lenne a mesterséges intelligencia abszolút foka?

Bodó Zalán: Nem minden esetben könnyű eldönteni, hogy mesterséges intelligenciának (MI) minősíthető-e valami vagy sem, de általában MI-nek nevezünk minden olyan rendszert, módszert, algoritmust, amely valamilyen intelligens természetes/természetbeli folyamatot modellez, és itt nem csak emberi intelligenciáról beszélünk. Mivel legintelligensebbnek magunkat, vagyis az embert tekintjük, ezért az MI abszolút foka az emberi szintű mesterséges intelligencia lenne, vagyis az emberi kognitív funkciók pontos számítógépes megvalósítása/leutánzása. Hogy ez valaha be fog-e következni, elegendő-e hozzá a mai tudásunk, megfelelőek-e a jelenlegi számítógépes architektúrák, az már más kérdés, amit nem is igazán tartok fontosnak. A gépek valójában már most is intelligensek, bizonyos feladatokban jócskán leköröznek minket, elérhetővé tesznek számunkra olyan dolgokat, amelyek még 20 évvel ezelőtt szinte elképzelhetetlenek voltak.

S. Z.: Mesterséges intelligencia területén belül a BBTE-n minek a kutatására nyílik lehetőség, és Ön pontosan mivel foglalkozik?

B. Z.: Elvileg szinte bármilyen, az MI-vel kapcsolatos területtel lehetőség van foglalkozni a BBTE-n – hardver szempontjából nem állunk rosszul, a költséges eszközöket igénylő feladatok pedig az esetek többségében megoldhatók szimulációs környezetekben.

Én leginkább gépi tanulással foglalkozom, ami az utóbbi időben elég nagy figyelmet kap/kapott, hála a mély neurális háló alapú tanulási rendszerek elterjedésének és az ezen a területen elért újabb eredményeknek. Megemlíthető itt a Google DeepMind AlphaGo rendszere, amely 2016-ban legyőzte I Szedol dél-koreai, 9 danos, profi gojátékost [go – kínai eredetű, stratégiai táblajáték], majd 2017-ben Ko Csie kínai, ugyancsak 9 danos gojátékost, akit 2017-ben a világ legjobb profi versenyzőjeként tartottak számon. Egy másik kiemelendő eredmény, hogy a 2018-as Stanford kérdésmegválaszolási feladaton az Alibaba és a Microsoft közös rendszere az emberinél jobb teljesítményt ért el (jelenleg ezen a területen is a Google AI Research BERT nevű rendszere vezet a ranglistán).[1][2] És ez valójában csak a jéghegy csúcsa, számos olyan kisebb, nem feltétlenül látványos eredmény született az utóbbi években, amelyek kutatási szempontból nagyon is fontosak – a YOLO valós idejű objektumfelismerő rendszerek, neurális háló alapú nyelvi modellek, generatívpárharc-hálózatok (GAN). Ennek ellenére nem osztom azt az eléggé elterjedt nézetet, miszerint ezek a mély neurális hálók jelentenék a megoldást „mindenre”.

A gépi tanuláson belül a kernel módszerek kérdése [a kernelek valamiféle hasonlósági metrikaként foghatók fel, melyek elengedhetetlenül szükségesek a tanuláshoz], a félig felügyelt tanulás érdekel, azaz hogy miként lehet felhasználni szinte költségmentesen beszerezhető, címkézetlen adatokat felügyelt tanulás során. Emellett bizonyos természetesnyelv-feldolgozási és információ-visszakeresési feladatokkal foglalkozom, például természetes nyelvű szövegek numerikus reprezentációjával, szövegek hasonlóságának meghatározásával, tulajdonságok (feature-ök) kiválasztásával a tanuláshoz.

S. Z.: Van esetleg olyan szakmai kihívás, ami az utóbbi időben különösen lekötötte az érdeklődését?

B. Z.: Újabban az automatikus álhírdetektálás irányába mozdult el a figyelmem, ami az információ-visszakeresésbeli szövegkategorizálásnak egy speciális esete. Noha nem túl látványos, ennek ellenére szép feladat. Egy aktuális kihívásra ad választ, bár valószínűleg önmagában nem oldja meg a problémát. Ha például odateszünk egy kis zászlócskát, hogy az adott hír vagy cikk olyan állításokat is tartalmaz, amelyek nem feltétlenül összeegyeztethetők a valósággal, sok esetben a várttal ellentétes hatást váltunk ki: egyesek azt fogják hinni, hogy maga a zászlócska a „fake”, mert valakik nem akarják, hogy elterjedjenek a cikkben leírtak. Sokak szerint a posztigazsággal, az álhírekkel, az összeesküvés-elméletekkel csak úgy lehet felvenni a harcot, hogy már az iskolában megtanítjuk a gyerekeknek, hogyan ellenőrizzék le bizonyos információk hitelességét. Emellett azonban az automatikus detektálás is hasznos lehet: például egy tanuló rendszerhez automatizált módon akarunk szövegeket gyűjteni, hogy az megtanuljon bizonyos dolgokat ezekből – ilyenkor hasznos lehet a nem megfelelő igazságtartalmú szövegeket kigyomlálni az adatok közül.

S. Z.: Oktatóként-kutatóként mikor kezdett mesterségesintelligencia-kutatással foglalkozni, kik segítették szakmai tájékozódását az egyetemen?

B. Z.: Mindenképpen Dan Dumitrescu tanár urat tartom a hazai mesterségesintelligencia-kutatások egyik legkiemelkedőbb személyiségének, aki sajnálatos módon 2016-ban elhunyt. Sokat tanultam volt tanáraimtól, valójában ők szerettették meg velem ezt e területet – úgy alapképzésen, mint a mesteri tanulmányok ideje alatt; neveket azonban inkább nem mondanék, mert félő, hogy véletlenül kihagynék valakit a felsorolásból.

Doktori tanulmányaimat 2005-ben kezdtem el Kása Zoltán tanár úr vezetése alatt a BBTE-n, és Minier Zsolt volt doktorandusztársammal, illetve Csató Lehel kollégámmal sokat dolgoztunk együtt a korábban már említett területeken, feladatokon. 2008-ban felvettek tanársegédnek az egyetem Matematika és Informatika Karára, 2009-ben megvédtem a doktori tézisemet, jelenleg pedig docensként dolgozom a BBTE Magyar Matematika és Informatika Intézetében. Az évek során több, az MI-hez, pontosabban a gépi tanuláshoz köthető kutatási projektben vettem részt, illetve az egyetemen tanítok is kapcsolódó tárgyakat. Ezek közül talán az egyik mesteris, a természetesnyelv-feldolgozás módszereibe bevezető tantárgy a kedvencem. Elvileg a kutatás miatt indultam el a pályán, közben az oktatást is egyre jobban megszerettem, és jelenleg valójában az oktatás sokkal nagyobb súllyal van jelen az életemben. Ez nem feltétlenül a saját döntésem volt, ugyanakkor egyáltalán nem bánom.

S. Z.: Az emberek rendszerint a katasztrófafilmek felől alkotnak képet a mesterséges intelligenciáról (ld. fellázadó, a Földet kolonializáló robotok). Részben talán érthető a szkepszisük is, az automatizált termelési folyamatok leemelnek bizonyos terheket a vállunkról, a másik oldalon viszont humán szereplőket szorítanak ki a termelési folyamatokból. De látni más példákat is: a BBTE-n több éve folyik egy olyan program, amelynek keretében autista spektrumzavarral küszködő gyerekeket kezelnek nanorobotok segítségével. A depresszió kezelésében is próbálkoznak smart applikációkkal. Mit gondol, milyen területeken lehet hasznos a mesterséges intelligencia?

B. Z.: Elég optimista vagyok ezen a téren, nem hiszem, hogy egyhamar félnünk kellene gonosz, világuralomra törő vagy „egyszerűen” csak az ember kiirtására törekvő mesterséges intelligenciától. Ezzel szemben úgy látom, hogy szinte minden területen hasznosnak bizonyulnak az embert kiegészítő, segítő intelligens megoldások. Valószínűleg lesznek olyan munkahelyek/munkakörök, amelyek megszűnnek, ám legtöbbször ezek inkább csak átalakulnak. Az okos eszközök például meg tudják mutatni nekünk az optimális útvonalat, figyelembe véve a távolságot és az aktuális forgalmi adatokat, vagy felügyelik és optimalizálják a házunk fűtésrendszerét, energiát takarítva meg ily módon. Ezek nagyon hasznos alkalmazásai a mesterséges intelligenciának, azonban a leghasznosabbnak talán azt tartom, amikor nekünk, embereknek sikerül valami újat tanulnunk az MI-től, azaz új, eleddig nem ismert dolgokra sikerül rájönnünk, magyarázatot kapnunk valamilyen eddig megmagyarázhatatlan jelenségre, vagy a betanított rendszerek „észrevesznek” olyan dolgokat, amelyekre az emberek nem képesek. Például számítógéppel támogatott orvosi diagnózis (CAD) segítségével bizonyos megbetegedéseket előre lehet jelezni, esetleg már korai fázisban felismerni. A másik kedvenc esetem az, amikor kutatók kitalálnak egy algoritmust mindenféle valós, természetbeli inspiráció nélkül, majd rájönnek, hogy ez bizony a természetben is így működik.[3]

S. Z.: A Tesla egy ideje olyan autókkal kísérletezik, amelyek képesek lesznek döntéseket hozni a vezető helyett/mellett. De ezek mégiscsak előregyártott algoritmusok szerint meghozott döntések, tehát olyan cselekvések, amelyeknek a morális alapját tulajdonképpen emberek fektetik le. Egy ilyen autó megvásárolásával például nem fogjuk kizárni az ember lehetséges jobbik részét is a döntési folyamatokból?

B. Z.: Ez tulajdonképpen mindig is így volt: a programokat az emberek írják, akik akár saját elképzelésüket, világnézetüket, erkölcsi normáikat is beleszőhetik a háttérben működő algoritmusokba, és azáltal, hogy valaki elkezdi használni az illető alkalmazást – függetlenül attól, hogy elolvasta-e részletesen a használati feltételeket –, beleegyezik ebbe. Én tehát ezt nem látom problémának: ha valakinek ez nem tetszik, akkor egyszerűen ne használja az illető alkalmazást, terméket.

Amit inkább problematikusnak tartok, az a komplex döntések magyarázata. A tanuló rendszerek – amelyek tanulási példákon keresztül sajátítják el azt, hogy mi mit is jelent, tehát a „szabályokat” implicit módon maguk építik fel – sokszor annyira bonyolultak, hogy nagyon nehéz megmagyarázni egy döntés esetén a miérteket. Miért gondolja, hogy a képen egy kutya látható, vagy miért mondja azt, hogy a kép egy keselyűt ábrázol, holott egy panda van rajta? Van, hogy – eléggé aberráns módon – egy a másik fölött álló, gépi tanulórendszert tanítanak be arra, hogy elmagyarázza az előbbi döntéseit, vagy architekturális szempontból eleve úgy próbálják megtervezni a rendszert, hogy a döntési folyamatai transzparensek legyenek.[4] Ilyen típusú megoldásokból egyelőre még kevés létezik, de úgy látom, a jövőben egyre inkább fontossá fog válni a magyarázat.

S. Z.: Van valamilyen közös formális/informális etikai minimum, amit mindenki betart ezen a területen? Vannak-e konszenzuálisan elfogadott etikai/pragmatikus célok, targetek, amelyek valamiképpen összekapcsolják a kutatásokat, vagy inkább atomizált részterületekről lehet beszélni?

B. Z.: Azt hiszem, erről először mindenkinek a robotika Asimov-féle három alaptörvénye jut eszébe. Annak ellenére, hogy mesterséges intelligenciáról már körülbelül az 1950-es évek második felétől beszélhetünk, valójában nem létezik egy általánosan elfogadott standard vagy ajánlás az MI-beli etikáról, mint amilyen például a netikett a hálózati kommunikáció, viselkedés esetében. Az IEEE [Institute of Electrical and Electronics Engineers] 2015–2016-ban elkezdett ilyen szabványokon dolgozni,[5] de nem ismerem ezeket közelebbről. A probémát érdekesnek tartom, de mi inkább új algoritmusokat, módszereket próbálunk kitalálni adott feladatokra, illetve létező eljárásokon igyekszünk javítani. Hogy ezeket milyen célokra lehet vagy etikus felhasználni, ennek vitáját és megválaszolását inkább másokra hagyom.

S. Z.: Érintkeznek valahol az akadémiai szférában, a katonaságok által és a magánszektorban végzett mesterségesintelligencia-kutatások? Van-e valamilyen információáramlás ezen területek között?

B. Z.: Természetesen vannak olyan kutatások, illetve eredmények, amelyek akár biztonsági vagy ipari okok miatt nem nyilvánosak. Például nem fogja egyik internetes keresőszolgáltatást üzemeltető nagy cég sem nyilvánossá tenni a háttérben működő teljes kereső és rangsoroló algoritmusát – nem mintha ennek ismeretében olyan könnyű lenne bárkinek is megteremteni a szolgáltatáshoz szükséges hardveres infrastruktúrát. Gondolom, hasonlóképpen működnek a dolgok a hadiiparban is: nem feltétlenül szerencsés, ha publikus például a rakétavédelmi rendszerünk működése.

Az informatikában – és főleg a mesterséges intelligencia, gépi tanulás területén – nagyon gyorsan hozzá lehet jutni az új eredményekhez: szinte mindenki azonnal feltölti a tanulmányát az ismert platformokra. Van, hogy meg sem várják a cikk elbírálását, a publikálásával kapcsolatos döntést. Ennek az a hátulütője, hogy sokszor olyan, elsőre jónak tűnő, hangzatos eredmények születnek, amelyekről egy idő után kiderül, hogy valójában nem is működnek. Az egyik legkellemetlenebb forgatókönyv az, hogyha erre te jössz rá több napi munka után, ami alatt megpróbáltad reprodukálni a cikkben leírtakat, sikertelenül. Persze ez ugyanígy előfordulhat elfogadott, publikált munkák esetén is. Ettől függetlenül (vagy ennek ellenére?) én csakis támogatni tudom az új tudományos eredmények mihamarabbi publikussá tételét, ingyenes megosztását.

S. Z.: Sokszor tapasztalom, hogy professzionális informatikusok a magánéletükben csak korlátozottan veszik igénybe az informatikai eszközöket. Ön hogy áll ezzel?

B. Z.: Nem hiszem, hogy másként tekintenék ezekre a technológiákra, eszközökre, mint mások, mert esetleg tudom, hogy körülbelül hogyan működhet a rendszer, illetve melyek a gyenge pontjai. Természetesen vannak olyan intelligens vagy kevésbé okos eszközök, amelyeket én haszontalannak tartok, de azért igyekszem lépést tartani a világgal.

[1] Chong, Z., AI beats humans in Stanford reading comprehension test. CNET, 2018. https://www.cnet.com/news/new-results-show-ai-is-as-good-as-reading-comprehension-as-we-are/
[2] The Stanford Question Answering Dataset. https://rajpurkar.github.io/SQuAD-explorer/
[3] Ld. Zhu, X. et al., Humans perform semi-supervised classification too. In AAAI, 2007, 864–870.
[4] Ld. Mascharka, D. et al., Transparency by design: Closing the gap between performance and interpretability in visual reasoning. In CVPR, 2018, 4942–4950.
[5] The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems.  https://standards.ieee.org/industry-connections/ec/autonomous-systems.html

Eredeti megjelenés: a BBTE honlapján

TwitterFacebook