Rossz a kedve, vegye le a lábát a gázról

-

„Lassíts le 50 km/h sebességre” – mondja a vezető az autónak, és a jármű engedelmesen végrehajtja az utasítást. De miért tenne mást, amikor előtte pont ő figyelmeztette a volán mögött ülő személyt, hogy túl dühös a higgadt és körültekintő vezetéshez, és különben is esteledik?


A mesterséges intelligencia témakörébe tartozó érzelmi számításokat (affective computing) és a jövő autóját automatizáló törekvéseket integrálták a Lausanne-i Műegyetem Jelfeldolgozó Laboratórium (LTS5) a PSA Peugeot Citroënnel együttműködő kutatói. Rendszerük arckifejezés-elemzés alapján ismer fel érzelmi állapotokat, így növeli a vezető biztonságát és kényelmét. Kedveskedik is: ha dühöseknek lát minket, lágy zenék csendülnek fel, ha blazírtnak, jöhetnek az energikus dobszólók. Érzelmi számításokkal az 1990-es évek második fele óta foglalkoznak, legismertebb képviselője az MIT Médialaboratórium Affektív Számítások Kutatócsoportját vezető Rosalind Picard. Az ember-számítógép interakció szempontjából fontos tudni, milyen kapcsolatok alakíthatók ki a résztvevők között. Érzékelik, megértik-e egyszer a gépek érzelmi állapotainkat, és ha igen, hogyan reagálnak rájuk? Picard válasza egyértelműen pozitív, és ma már egyre többen gondolják úgy, mint ő.



Ezen a ponton érdemes különbséget tenni tudományos fantasztikum és tudományos tények között: szerelmes robotok, vérgőzös terminátorok, cinikus vezérlőrendszerek helyett bohókás avatárok, beszélgető fejek (chatbotok), mosolygós humanoidok, emotikonokat megjelenítő láthatatlan programok próbálják felismerni, hogy mit érzünk. Sci-fi és valóság közti legnagyobb különbség az, hogy a legfejlettebb gépek ugyan felismernek néhány alapérzelmet, tudatosításukra és átélésükre viszont képtelenek. Hiába tanulja meg például a szomorúság jellemzőit, attól még nem érzi szomorúnak magát. De ha valóban emberközpontú rendszereket akarunk tervezni – többek között azért, hogy ne idegesítse az embereket a gépekkel való kapcsolattartás –, akkor az emocionális oldalt mindenképpen figyelembe kell venni. A szakterület jelentőségét szemlélteti, hogy a W3C (WWW Konzorcium) régóta foglalkozik érzelmi alkalmazásokat formalizáló specifikáción, az EML nyelven (Emotional Markup Language). Indoklás: a jövő számítógépei úgy kommunikáljanak, hogy az a felhasználó számára is természetesnek tűnjön.


A természetesség minden élethelyzetben, így vezetés közben is fontos. Az LTS5 rendszere kormánykerék mögötti infravörös kamerával dolgozik, „kiolvassa” arcunkból a hét alapérzelem – félelem, düh, öröm, szomorúság, undor, meglepődés, gyanakvás – valamelyikét. A svájci kutatók legtöbb kollégájukhoz hasonlóan Paul Ekman amerikai pszichológus 1972-es hatos tipológiájából indultak ki, amelyet általában a gyanakvással szoktak még kiegészíteni. Tény, hogy legyen hatos vagy hetes, a csoportosítással mindenképpen durván egyszerűsítenek, viszont a jelenlegi rendszereknek gyakran még ennyi is sok. Az LTSC5-ének például az okozza a legfőbb problémát, hogy észrevegye a vezető arcán, ha valami zavarja. Az irritációt sokféleképpen fejezzük ki: van, aki dühös képet vág, másoknak megrándul az arcuk, megint mások fapofával néznek a nagyvilágba, és így tovább. A kutatók leegyszerűsítették a feladatot: a rendszernek első körben csak két kifejezést, haragot és undort kellett figyelnie. Előbb fényképek, majd videók alapján tanult, aztán jöttek a tesztek, amelyeken akkor tévedett, ha a megfigyelt személyek teljesen másként fejezték ki ugyanazt az érzést. Hamarosan valós időben fogja frissíteni, bővíteni ismeretbázisát, amihez vagy egy saját magát tanító ember-gép interfész, vagy egy fejlett arcmonitorozó algoritmus lesz a megoldás. A projekt részeként az érzelemfelismerőt összekombinálják egy, a szemhéj lezáródásának gyakoriságát mérő fáradtság-detektorral. Más megoldásokkal is próbálkoznak: még több állapot, például a szórakozottság gépi érzékelésével, hangfelismeréssel, szájról olvasással.