Van nekem egy külhonban élő, kisiskolás unokaöcsém, aki szabadidejében – egyéb kreatív ötletei mellett – azzal foglalkozik, hogy kinevelje minden idők leggonoszabb Sirijét. Tevékenysége korából adódóan egyelőre abban fullad ki, hogy amikor a szülők nem figyelnek, csúnyán beszél az anyja telefonján „lakó” személyi asszisztenshez. A „nevelést” nagyon elszántan és kitartóan műveli, és bár egyelőre nem úgy tűnik, hogy bármi észlelhető hatása lenne a rendszerre, már önmagában az is figyelemre méltó, hogy ilyen fiatalon felfogta Sirivel kapcsolatban azt, hogy a program tanítható, és hogy bizonyos jellegű adatok bevitelével potenciálisan meg lehet változtatni viselkedését.
Az MIT kutatói új kísérletük során valami nagyon hasonlót műveltek, persze jóval tudományosabban állva a problémához. A kutatás célja annak vizsgálata volt, hogyan befolyásolhatja egy tanulásra képes algoritmus későbbi működését (viselkedését) a bevitt adatok milyensége. Az általuk kifejlesztett rendszer, Norman képeket elemez, majd leírja, hogy mit látott azokon. A szakértők ezt az algoritmust egy olyan Reddit-alcsoportban engedték szabadjára, amelyben szörnyű haláleseteket ábrázoló képeket osztanak meg a felhasználók. Norman mellett egy vele eredetileg egyforma, másik programot is kiképeztek a szakértők, amely azonban aranyos állatokat és kedvesen mosolysó embereket ábrázoló képeken tanulta ki feladatát.
A „kiképzés” után mindkét algoritmussal elvégeztették a Rorschach-tesztet, amely során az alapján mérik fel a pszichológusok a betegek lelki egészségét, hogy az alanyok mit látnak bele néhány formátlan tintapacába. Norman válaszai gyökeresen eltértek barátságos képeken felnőtt „testvére” reakcióitól. Az alábbi képek alatt néhány példa is olvasható azzal kapcsolatban, hogyan írta le Norman és a másik program ugyanazt a pacát.
Ha jobban belegondolunk, az eredmények persze annyira nem meglepőek, elvégre Norman pontosan olyan reakciókat adott a képekre, amiket korábban megtanult. A kísérlet azonban látványosan hívja fel a figyelmet arra, hogy a tanulásra képes algoritmusoknál mennyire fontos a bevitt adatok milyensége.
„Norman tartósan ki volt téve a Reddit legsötétebb bugyrainak, és kiváló esettanulmányként szolgálhat annak bemutatására, hogy milyen veszélyei vannak, ha egy mesterséges intelligencia nem megfelelő adatokhoz jut a gépi tanulás során” – mondják a fejlesztők.
Hasonló tendenciákat már más kísérletek is igazoltak, és úgy tűnik, hogy ahhoz, hogy egy ilyen rendszer „félremenjen”, nem is kell annyira aktívan tenni, ahogy az MIT kutatói tették. A gépi tanulásra képes rendszerek elképesztő gyorsan szedik magukra a mindennapok rasszizmusát és szexizmusát, amit mi már szinte észre sem veszünk vagy automatikusan figyelmen kívül hagyunk.
Emlékezetes példája volt ennek a Microsoft chatprogramja, Tay, akit 24 óra alatt annyira korrumpált a Twitter, hogy sértő megjegyzései miatt el kellett távolítani a világhálóról. Norman számára azonban még nincs minden veszve, egy új kísérlet keretében bárki segíthet neki jobbá (de legalábbis emberibbé) nevelődni, ha megcsinálja a Rorschach-tesztet ezen az oldalon.