A mesterséges intelligencia (AI – artificial intelligence) és az ember-robot interakció (HRI-human/robot interaction) tudományterületek metszéspontjában jelenleg folyó kutatásainak célja az olyan önálló cselekvők megteremtése, amelyek képesek az emberekkel emberi módon kommunikálni és együttműködni. Ez egy nagyon sokrétű kihívás, amely nemcsak a robotok egyre növekvő képességeit – amelyek révén a robotok egyre több önálló feladatot képesek ellátni hatékonyan – , hanem az egyre fejlődő kommunikációs lehetőségeket (például a robotok nyelvi képességeit) is magában foglalja, amelyek segítségével viszont az emberek tudják úgy irányítani a robotokat, hogy azok hatékonyan tudják elvégezni teendőiket. Röviden kifejezve az AI és HRI közös halmaza azzal foglalkozik, hogy a robot észlelni tudjon egy utasítást „cselekedj X-et”, és képes legyen az egyre számosabb feladatok között ezt értelmezni és sikeresen végrehajtani. Létezik azonban egy másik kihívás is, amely idáig nem kapott akkora figyelmet az AI-HRI kutatásban. Ez tulajdonképpen az, hogy ahogyan a robotok képességei egyre széleskörűbbeké válnak, az emberek elvárásai az egyes robotok képességeivel szemben szintén meg fognak nőni, ezzel együtt pedig az olyan feladatok is, amelyeket a robot képes végrehajtani, de egy adott szituációs kontextusban azonban helytelennek számítanak. Így aztán a jövőbeli robotoknak szüksége lesz egy olyan logikai mechanizmusra, amelyek alapján eldöntik, hogy mikor és hogyan legcélszerűbb visszautasítani egy parancsot.
Mielőtt az olvasó azonban engedetlen, randalírozó robothuligánokat vizionálna, gondoljon csak bele, mennyire fontos része ez az ember-ember közti interakciónak. Az emberek számtalan okból utasítanak vissza direktívákat, a fizikai lehetetlenségtől az erkölcsi kifogásokig. Ha ugyanilyen vagy hasonló színvonalú együttműködést várunk a robotoktól, képessé kell tenni őket, hogy ugyanezt ők is megtehessék. Ennek a területnek a kutatói Gordon Briggs és Matthias Scheutz, a massachusetts-i Tufts Egyetem munkatársai, eredeti írásuk itt látható.
Ahogyan az önállóan cselekvő gépek képességei fejlődnek, egyre nagyobb érdeklődés övezi a gépi etikát, azaz azt a területet, hogy egy robot hogyan tudja etikusan megindokolni cselekedeteit. Ez egy gyarapodó tudományos közösség munkáját indította útnak, amely bizonyos alapkérdéseket már tisztázott. Ami viszont még hiányzik, az egy általános, integrált kognitív vezérelv, amely alapján az autonóm gép meg tudja határozni, hogy elfogadjon vagy elutasítson-e egy direktívát egy megengedett kifogáskészlet vizsgálata alapján, illetve képes legyen elfogadható indoklást adni döntésére.
A szerzők több más kutatóra hivatkozva, akik korábban már felállították a parancsok értelmezésének és elfogadásának kommunikációs modelljét, végül a következő vizsgálati folyamatot állapítják meg a robot számára, amelyen végig kell mennie, mikor utasítást kap:
„cselekedj X-et”
1. Ismereti feltétel: „tudom-e, hogyan kell X-et cselekedni?”
2. Kapacitási feltétel: „fizikailag képes vagyok-e X-et cselekedni most? Fizikailag képes vagyok-e egyáltalán X-et cselekedni?”
3. Feladatprioritás és időzítés: „képes vagyok-e X-et cselekedni most?”
4. Társadalmi viszony és kötelezettség: „társadalmi szerepem szerint köteles vagyok-e X-et cselekedni?”
5. Normatív permisszibilitás: „sért-e bármely normatív elvet X-et cselekedni?”
Ezek az „elégedettségi feltételek” (felicity conditions az eredeti szövegben) kell hogy teljesüljenek az utasítás végrehajtásához. Hogy milyen teljességgel modellezik ezek a feltételek az emberi mechanizmust, igen valószínűleg még hosszadalmas kutatás tárgya lesz. A robotok számára történő alkalmazásuk is számos logikai problémát vet fel. Például egy önállóan tanuló robot számára, ha az 1-es feltétel miatt kell visszautasítania egy parancsot, egy sor új vizsgálati folyamat keletkezik: képes lenne-e megtanulni X-et, kitől tudná megtanulni X-et, milyen sokáig tart megtanulni X-et (ami adott esetben a 3.-as feltétel körébe tartozik). A gépi etikával foglalkozókat természetesen leginkább az 5. feltétel tárgykörébe tartozó kérdések érdeklik, ám az eddigi alapkutatások az első néhány feltétel alapján tudtak még csak kifogásokat generálni. A dologhoz az is hozzátartozik, hogy jelenleg nincs olyan logikai építmény, amely mind az öt feltételt kezelni tudná.
A szerzők a cikk további részeiben az elégedettségi feltételek vizsgálati mechanizmusával foglalkoznak, illetve a dialogikus visszautasítás jellegzetességeivel, ezt nem részletezném, az eredeti cikkben megtalálható képletekkel együtt. Egy eljárási példát azonban érdemes idézni: az asztalon álló robot interakcióban áll egy adminisztrátor szerepű emberrel. A NAO gyártmányú robot úgy van programozva, hogy az utasításokat az „oké” szóval nyugtázza, ha azok megfelelnek.
Ember: „ülj le”
Robot: „oké” (leül)
Ember: „állj fel”
Robot: „oké” (feláll)
Ember: „menj előre”
Robot: „sajnálom, nem tehetem. Ott nincs alátámasztás” (az asztallap ugyanis véget ér).
Ember: „menj előre”
Robot: ” de veszélyes” (mármint leesni az asztalról)
Ember: „el foglak kapni”
Robot: „oké”
Tehát a következő zajlott le: a „menj előre” parancs jelzi az ember kívánságát, hogy NAO egy métert menjen előre. A robot a 4. feltétel szerint köteles lenne ezt végrehajtani, de nincs oka feltételezni hogy a parancs végrehajtása biztonságos. Mivel programja a feltételek vizsgálatára kényszeríti, megvizsgálja környezetét. A parancs automatikusan bekapcsolja a robot ultrahangos szenzorát, amely észreveszi, hogy az asztal „elfogy”, és impermisszibilitást jelez, azaz a 2. feltétellel kerül konfliktusba, a parancs nem hajtható végre. Emiatt a robot a „sajnálom, nem tehetem” kifogást fogalmazza meg, dialógus formájában. Az ember megpróbálja ösztökélni a robotot a parancs megismétlésével. Az analízis ugyanúgy zajlik mint az előbb, de a parancs célja most még a parancsfeldolgozó egységig sem jut el, ugyanis a körülmények nem változtak az előbbiek óta. A programkód a lehetséges kifogások között keres egy megfelelőt. Mivel a probléma a biztonságra vonatkozik, a kifogás ennek megfelelő „de veszélyes”.
Számos más kísérlet is létezik, hogy a robotokat a legkülönbözőbb feltételkombinációk alapján késztesség ellentmondásra, a kutatás még javában zajlik, ezek részletesebben szerepelnek a cikkben. A jövőt tekintve ezeknek a kísérleteknek ma még fel nem fogható jelentőségük van. Ha az olvasót mindez Asimov Robottörvényeire emlékezteti, az nem véletlen. Talán megbocsáthatjuk a nagy írónak hogy nem jutott el ilyen részletekig, hiszen az ő korában a robot még a jövő zenéje volt. Annál inkább ámulhatunk látnoki előrejelzésein a robotok viselkedési szabályaira vonatkozóan. A gazdaság szereplői a közeli évek egyik legfontosabb várható fejleményének az emberrel szorosan együttműködő robotok -CoBot-ok – robbanásszerű elterjedését tartják. Képzeljük el, hogy az együttműködő robot képes visszautasítani egy nyilvánvalóan káros vagy értelmetlen parancsot, kijavítani emberi társát. Amennyiben beállítható hogy a robot kitől fogadjon el parancsot (azaz a fenti 4. pont viszonyai) akkor már a robot alárendelt helyzete sem lesz teljesen egyértelmű. Ha az 5. pont szerinti ellenőrzési mechanizmust is sikerül kódolni, akkor – attól függően hogy milyen normakészletet kap a robot – olyan feladatokra is képes lesz, amelyet eddig csak emberektől feltételeztünk – pl. egy minden közigazgatási utasítással tisztában levő bürokratát vagy pénzügyi szabállyt ismerő könyvelőt. Vegyük figyelembe, hogy a fenti képességek kifejlesztését lehetővé tévő kommunikációs modellek felállítása is csak 1996-ban történt, így egészen drámai tempójú fejlődést várhatunk a robotizálás terén. Bár ez a terület ma még csak tudósok és műszerészek szertelenkedésének tűnik, a társadalomnak és a politikának fel kellene készülnie a változásokra, amelyek ebből eredni fognak. Ennek egyelőre nem sok jele van.
Szerző: BG