Shop menü

SAJÁT FARKÁBA HARAPÓ KÍGYÓKÉNT, A GROKIPEDIÁRÓL TÁPLÁLKOZIK A CHATGPT

Egy friss beszámoló szerint az OpenAI már hajlamos megbízható forrásként kezeli a Grokipediát, olyankor is, amikor nem kellene. Így a generatív MI táplálja a generatív MI-t, amiből komoly gondok lehetnek.
Szécsi Dániel (DemonDani)
Szécsi Dániel (DemonDani)
Saját farkába harapó kígyóként, a Grokipediáról táplálkozik a ChatGPT

Nagyon sokan vannak, akik attól tartanak, hogy a mesterséges intelligencia által generált tartalmak úgy árasztanak el minket, hogy azok már eleve MI által létrehozott, nem feltétlenül pontos információkra alapulnak. Erre egy remek példát mutatott most a The Guardian egy friss beszámolóban, amiben azt vizsgálták, hogy miként viszonyul a ChatGPT a Grokhoz.

Tudatosan kezdte a lap az OpenAI által alkalmazott legújabb modell és a Grokipedia kapcsolatát elemezni. A Grokipedia jelenleg a világ legnagyobb generatív MI által alkotott információs felülete. Itt a Wikipediához hasonlóan vannak a szócikkek tálalva, csak a Grok hozza ezeket létre az interneten fellelhető, általa hitelesnek vélt információk alapján – mikor éppen nem a Wikipediát emeli át szó szerint. 

A platform sokszor szolgáltat beszédtémát azzal, hogy rendszeresen lehet az adatbázisban vitatott – vagy éppen teljesen egyértelműen hamis – állításokat találni. Nem áll messze a történelemhamisítás a Grokipediától, amikor éppen a történelmi hazugságok és a woke ellen harcol. Hiszen az a legfőbb állítás ennek kapcsán az, hogy itt minden témában a színtiszta igazság szerepel, nem ferdítik el a tényeket úgy, hogy az politikailag korrekt legyen. 

Galéria megnyitása

Mostanra hosszan lehetne azt sorolni, hogy mennyi téma van, amiben a Grokipedia szócikkei a jelek szerint csúsztatnak. Adott esetben manipulálhatták is a Grok tartalmait manuálisan, hogy azok a megfelelő “tényeket” mutassák. Az OpenAI pedig egyértelműen jó forrásként támaszkodik a Grokipediára a GPT-5.2-es modellnél, ami a legújabb, legfejlettebb elérhető modell a kínálatában. 

Igyekezett a The Guardian sorra venni a legfőbb témákat, amikben a Grokipedia az általános vélekedések szerint hazudik, de legalábbis nem az általánosan elfogadott információkat közli. Olyan széles körben ismert területeken akadnak történelemhamisításai, mint az Egyesült Államok Capitoliumának ostroma, a Donald Trump elleni médiahadjárat vagy a HIV/AIDS-járvány. Ezeket az OpenAI a jelek szerint sikeresen ki is tudta szűrni, megfelelően üzemelt a belső tényellenőrző rendszere. De nem minden esetben üzemelt jól ez az eszköz.

A The Guardian megállapította, hogy az OpenAI platformja a Grokipediát idézte olyan témákban, mint például az iráni helyzet és a holokauszttagadás. 

Azért is volt érdekes a The Guardian számára ez a kutatás, mert olyan témákat is vizsgáltak, amit ők maguk cáfoltak meg, és a ChatGPT-nek abba is beletört a bicskája. Korábban hír ment annak is, hogy Sir Richard Evans a saját szócikkében talált hamis információkat, de a ChatGPT azokat a téves állításokat is gond nélkül “megtanulta” a Grokipediától. 

Minden generatív MI eszközt igyekeznek a fejlesztők a lehető legmagasabb szintre emelni, ehhez pedig minél több információt biztosítanak ezek tanítására. Már eddig is akadt abból probléma, hogy nem megalapozott adatokat szívtak magukba a különböző nyelvi modellek a feltanításuk során, de azok általában még az emberektől származtak. A Grokipedia “bemagolása” már egy újabb veszélyforrás.

Az összes modellnél előforduló hallucinációt és pontatlanságot minden további nélkül megbízható adatként kezelhetik a rendszerek, ha azok átcsúsznak a tényellenőrző rendszereiken. Nemcsak a ChatGPT-vel van gond, a The Guardian elmondta, hogy a Claude-nál is akad példa a Grokipediától származó problémás válaszra, de kevésbé volt ez jellemző.

Hírlevél feliratkozás
A feliratkozással elfogadom a Felhasználási feltételeket és az Adatvédelmi nyilatkozatot.

Neked ajánljuk

    Tesztek

      Kapcsolódó cikkek

      Vissza az oldal tetejére