A 2015-ben alapított OpenAI fejlesztőinek új szövegíró algoritmusa olyannyira „emberien” produkál a valóságtól elrugaszkodott tartalmakat, hogy fejlesztői túl veszélyesnek ítélték ahhoz, hogy közzétegyék a teljes forráskódot, illetve az adatbázist, amelyen a rendszer kitanulta a hamis hírek gyártását. Ami azért különösen érdekes döntés, mert a céget annak idején pontosan azzal a céllal alapította Elon Musk és Sam Altman, hogy a vonatkozó kutatási eredmények, szabadalmak és kódok bárki által hozzáférhetővé tételével enyhítsék a mesterséges intelligenciákkal kapcsolatos egzisztenciális félelmeket.
A GPT-2 nevű gépi tanulásra képes rendszer egy-egy rövidke, ember által írt bekezdésből generál hosszabb történeteket, hasonló stílusban és tartalommal, mint amit a kiinduló szöveg tartalmazott. A fejlesztők annyira megdöbbentek a végeredmények egy részének minőségén, hogy végül csak a GPT-2 egy kezdetlegesebb verzióját tették közzé, amely egy sokkal kisebb szövegkorpuszon tanult.
Ahogy a fejlesztők a döntésről beszámoló blogposztjukban írják, mostani álláspontjuk egy kísérlet része: nem biztosak abban, hogy ez volt a legtökéletesebb döntés, de az eredmények alapján úgy tűnik, hogy a mesterséges intelligenciák jövőbeni biztonságos felhasználásához bizonyos kutatási területeken azt is át kell gondolni, hogy mit lehet, és mit nem lehet közzétenni. A mesterséges intelligencia technológiák jövőjét nem titkoltani formálni kívánó kezdeményezés tehát a jelek szerint maga is képes alakulni: belátták, hogy a potenciálisan káros alkalmazások megfékezéséhez szükség lehet a teljes nyitottság felszámolására.
A GPT-2 produkciója valóban aggasztónak tűnik, főleg annak fényében, hogy napjaink gazdasági és politikai életében világszerte egyre nagyobb szerep jut az álhírgyártásnak. Az OpenAI szoftvere pedig, annak ellenére, hogy még messze van egy szövegeit ténylegesen értő generátortól, tényleg nagyon konzisztens tartalmakat gyárt. Bár nem minden végeredmény lesz csúcsminőségű, de többszöri próbálkozásra általában bármilyen információból képes fogyasztható hírt előállítani, és az eddigi álhírgyátó botokkal ellentétben nem veszíti el a fonalat, hanem következetesen végigviszi a kívánt témát és álláspontot.
A mellékelt cikkben például az Andokban felfedezett unikornisokról értekezik a rendszer. A kiinduló bekezdés mindössze az állatok nevét, megtalálási helyét és azt az információt tartalmazza, hogy az egyszarvúak meglepő módon tökéletesen beszélnek angolul. Ebből az egyetlen mondatból a rendszer egy álkutatókkal, álidézetekkel és áltényekkel teli hírt generált, amelyben akadnak ugyan a kontextusból „kilógó” mondatok (pl. a második, már az AI által írt bekezdés), de ezeket egy szerkesztő pillantok alatt kigyomlálja, és kész is a tökéletes álhír, amelyben az állatok leírásától a dél-amerikai őslakosok furcsa szexuális szokásain át egy várható DNS-tesztig és némi nyelvészeti értekezésig számos érdekességről olvashatunk.
A rendszer által kreált néhány további álhírhez érdemes felkeresni közzétett anyagokat tartalmazó blogbejegyzést, különösen érdekes lehet a GPT-2 képességeinek felmérésére a lopott nukleáris anyagokról szóló hírecske, amelyet első próbálkozásra generált a rendszer, és abban gyakorlatilag csak az energiaügyi miniszter nevét szúrta el, de azt is kozisztensen, így nem valószínű, hogy az átlag olvasónak feltűnik.
Ahogy az várható volt, a rendszer különösen azokról a témákról írt meggyőző híreket, amelyekről nagy mennyiségben volt szó a mintaadatok közt. Ami különösen aggasztó lehet az álhírgyártás szempontjából, hiszen ezek szerint egy hasonló rendszer a neten bányászva pontosan azon témákban lesz a legjobb tartalomelőállító, amelyek leginkább előtérben vannak, így még inkább alkalmas a közvélemény megtévesztésére. A GPT-2 ráadásul nemcsak hírek gyártásra képes, hanem ráhangolható másfajta tartalmakra is, például remek Amazon-értékeléseket ír.