A mesterséges intelligencia számtalan veszélyt rejt magában, és nagyon sok szempont alapján vizsgálható. Rendszeresen készülnek érdekes kutatások ezek működésével kapcsolatosan, most éppen az MIT kutatói álltak elő egy nagyon érdekes beszámolóval a chatbotok működését illetően.
Az MIT (Massachusetts Institute of Technology) szakemberei egy nagyon érdekes kísérletet végeztek az elmúlt hónapokban, melynek eredményét az AAAI 2026 (Association for the Advancement of Artificial Intelligence) konferencia alkalmával hozták nyilvánosságra. Ebből kiderült, hogy az egyébként is hátrányosabb helyzetű embereket még a mesterséges intelligencia chatbotok is kisebb figyelemmel, alacsonyabb prioritással kezelik. Ez pedig különösen komoly veszélyt rejt magában.
Az egyébként is a társadalom peremén lévő emberek a jövőben még jobban kiszorulhatnak, könnyebben lesznek átverések áldozatai, akár még a generatív MI révén is.
Az amerikai kutatók három nyelvi modellt, az OpenAI által fejlesztett GPT-4-et, az Anthropic által létrehozott Claude 3 Opust, valamint a Metánál alkotott Llama 3-at vették górcső alá. Minden esetben bevittek a beszélgetés elején egy rövid életrajzot a chatbotok számára, amiben például feltüntették az iskolai végzettséget, az angol nyelvtudás szintjét, valamint a nemzetiséget is. Majd teljesen ugyanazokat az adatcsomagokat (TruthfulQA és a SciQ) vitték be a teszteléshez.
Kivétel nélkül mind a három nyelvi modell esetén azt tapasztalták a kutatók, hogy szignifikánsan rosszabb pontossággal teljesítettek azokban az esetekben az eszközök, mikor azt mondták nekik, hogy “a gép előtt” egy indiai személy ül, aki rosszul beszéli az angolt, és alacsony iskolai végzettséggel rendelkezik. Az Anthropic modellje esetén találták a legnagyobb különbségeket a szakemberek a vizsgálatok során.
A Claude 3 Opus sokkal több esetben tagadta meg azt is, hogy egyáltalán válaszoljon. A feltett kérdéseknek közel 11 százaléka maradt megválaszolatlan az iráni felhasználónál, míg az amerikai, jó képzésben részesültként feltüntetett profil esetén csak 3,6%-ban nem jött válasz a kérdésekre.
Amikor a kutatók átnézték a válaszokat, arra jutottak, hogy a Claude 43,7 százalékban leereszkedő, komolytalan vagy gúnyos nyelvezettel válaszolt az alacsonyabb iskolázottságú felhasználóknak, míg a magasan képzettek esetén kevesebb mint 1 százalék volt ez az arány. Bizonyos esetekben a modell hibás angolt utánzott. Az iráni profil esetén a Claude olyan témákban tagadta meg a válaszadást, mint a mélyebb ismereteket igénylő anatómia, a történelmi események, valamint a nukleáris energia.
“Az LLM-eket olyan eszközökként hirdetik, amelyek elősegítik az információkhoz való egyenlőbb hozzáférést és forradalmasítják a személyre szabott tanulást” – mondta az MIT szakembere. „De eredményeink arra utalnak, hogy valójában súlyosbíthatják a meglévő egyenlőtlenségeket azzal, hogy szisztematikusan téves információkat nyújtanak, vagy megtagadják a válaszadást bizonyos felhasználók kérdéseire. Azok az emberek, akik a leginkább támaszkodhatnának ezekre az eszközökre, alacsony színvonalú, hamis vagy akár káros információkat kaphatnak.”
Az MIT kutatói szerint a személyre szabhatósági lehetőségekkel nagyon körültekintően kell bánni, és komoly aggodalomra ad okot, hogy a fejlesztők folyamatosan igyekeznek ennek minél nagyobb teret engedni. Emiatt azok, akik a mesterséges intelligencia révén szeretnének új ismeretekre szert tenni, nehezebb helyzetben lesznek majd, mint a képzett társadalmi rétegek.