Nagyon sokan vannak, akik attól tartanak, hogy a mesterséges intelligencia által generált tartalmak úgy árasztanak el minket, hogy azok már eleve MI által létrehozott, nem feltétlenül pontos információkra alapulnak. Erre egy remek példát mutatott most a The Guardian egy friss beszámolóban, amiben azt vizsgálták, hogy miként viszonyul a ChatGPT a Grokhoz.
Tudatosan kezdte a lap az OpenAI által alkalmazott legújabb modell és a Grokipedia kapcsolatát elemezni. A Grokipedia jelenleg a világ legnagyobb generatív MI által alkotott információs felülete. Itt a Wikipediához hasonlóan vannak a szócikkek tálalva, csak a Grok hozza ezeket létre az interneten fellelhető, általa hitelesnek vélt információk alapján – mikor éppen nem a Wikipediát emeli át szó szerint.
A platform sokszor szolgáltat beszédtémát azzal, hogy rendszeresen lehet az adatbázisban vitatott – vagy éppen teljesen egyértelműen hamis – állításokat találni. Nem áll messze a történelemhamisítás a Grokipediától, amikor éppen a történelmi hazugságok és a woke ellen harcol. Hiszen az a legfőbb állítás ennek kapcsán az, hogy itt minden témában a színtiszta igazság szerepel, nem ferdítik el a tényeket úgy, hogy az politikailag korrekt legyen.
Mostanra hosszan lehetne azt sorolni, hogy mennyi téma van, amiben a Grokipedia szócikkei a jelek szerint csúsztatnak. Adott esetben manipulálhatták is a Grok tartalmait manuálisan, hogy azok a megfelelő “tényeket” mutassák. Az OpenAI pedig egyértelműen jó forrásként támaszkodik a Grokipediára a GPT-5.2-es modellnél, ami a legújabb, legfejlettebb elérhető modell a kínálatában.
Igyekezett a The Guardian sorra venni a legfőbb témákat, amikben a Grokipedia az általános vélekedések szerint hazudik, de legalábbis nem az általánosan elfogadott információkat közli. Olyan széles körben ismert területeken akadnak történelemhamisításai, mint az Egyesült Államok Capitoliumának ostroma, a Donald Trump elleni médiahadjárat vagy a HIV/AIDS-járvány. Ezeket az OpenAI a jelek szerint sikeresen ki is tudta szűrni, megfelelően üzemelt a belső tényellenőrző rendszere. De nem minden esetben üzemelt jól ez az eszköz.
A The Guardian megállapította, hogy az OpenAI platformja a Grokipediát idézte olyan témákban, mint például az iráni helyzet és a holokauszttagadás.
Azért is volt érdekes a The Guardian számára ez a kutatás, mert olyan témákat is vizsgáltak, amit ők maguk cáfoltak meg, és a ChatGPT-nek abba is beletört a bicskája. Korábban hír ment annak is, hogy Sir Richard Evans a saját szócikkében talált hamis információkat, de a ChatGPT azokat a téves állításokat is gond nélkül “megtanulta” a Grokipediától.
Minden generatív MI eszközt igyekeznek a fejlesztők a lehető legmagasabb szintre emelni, ehhez pedig minél több információt biztosítanak ezek tanítására. Már eddig is akadt abból probléma, hogy nem megalapozott adatokat szívtak magukba a különböző nyelvi modellek a feltanításuk során, de azok általában még az emberektől származtak. A Grokipedia “bemagolása” már egy újabb veszélyforrás.
Az összes modellnél előforduló hallucinációt és pontatlanságot minden további nélkül megbízható adatként kezelhetik a rendszerek, ha azok átcsúsznak a tényellenőrző rendszereiken. Nemcsak a ChatGPT-vel van gond, a The Guardian elmondta, hogy a Claude-nál is akad példa a Grokipediától származó problémás válaszra, de kevésbé volt ez jellemző.