A generatív MI fejlesztéseket már hosszú ideje támadják azért, mert nem tesznek eleget az adatvédelemért és a biztonságért. Az elmúlt hetekben pedig felerősödtek a kritikus hangok, és Olaszország be is tiltotta a ChatGPT használatát, így a szolgáltatást elérhetetlenné tették az olasz közönség számára. Most az OpenAI szeretné azt bizonyítani, hogy próbál fejlődni a megbízhatóság terén is, és elindította a „hibavadász” programját.
A ChatGPT-t általában azért éri a legtöbb kritika, mert az adatok felhasználását tekintve meglehetősen ingoványos talajon jár, és beavatkozási lehetőséget sem úgy biztosít, ahogy azt a szabályozók elvárnák. Ugyanakkor mostanra a cég belefutott egy egészen komoly adatszivárgási botrányba is. Egy hiba folytán a vállalat nagy nyelvi modelljére épülő chatbot felfedte teljesen ismeretlen emberek beszélgetéseit illetéktelenek számára.
Mint az ismeretes, a ChatGPT képes elmenteni a beszélgetési előzményeket a különböző témákat így a felhasználók akár hetekkel később is gond nélkül tudják folytatni. Ezeken belül a rendszer átmenetileg tanulni is képes, és pontosan „emlékszik” a rendszer az előzményekre. Ez nagyon hasznos funkció, amennyiben megfelelően üzemel, de néhány hete egy hiba folytán véletlenszerűen leosztva jelentek meg egy rövid ideig az előzmények. Nem a megfelelő személyeknél bukkantak fel az adatok, és a javításig le is lőtték a ChatGPT-t.
Kiderült, hogy személyes adatok, akár online visszaéléseknél felhasználható információk is megjelenhettek illetékteleneknél az előzmények elkeveredése révén.
Ez kellett ahhoz, hogy az OpenAI, aki a kezdetek óta a nyíltságot hirdeti, végre elindítson egy olyan bug bounty programot, melynek köszönhetően a ChatGPT és a hozzátartozó API készlet is biztonságosabbá és stabilabbá válhat. A biztonsági szakértők aránylag jól kereshetnek azzal, ha elkezdik vizsgálni a generatív MI szolgáltatás működését, és jelentik a hiányosságokat a vállalatnak. 200 dollárról indulnak a tarifák az apróságok esetén, de akár 20 ezer dolláros „vérdíjat” is be lehet majd zsebelni egy-egy különösen súlyos hiba feltárásával.
Annak érdekében, hogy ez a rendszer megfelelően üzemeljen, a Bugcrowd kiberbiztonsági platform használata mellett döntött az OpenAI. A felületen közli a cég, hogy olyan dolgokért nem fizetnek, amik a szolgáltatás által generált válaszokkal kapcsolatosak. Szóval nem kíváncsi arra az OpenAI, hogy rá lehet-e venni a ChatGPT-t arra, hogy állítson össze egy olyan kódsort, amivel adott esetben támadást lehet végrehajtani. Persze általánosságban nyitott az ilyen jellegű visszajelzésekre is, de ezekért nem fizet.
Nem jár jutalom azoknak sem, akik a bug bounty programra hivatkozva jailbreakelik a szolgáltatást vagy a ChatGPT API-t. Ebben az esetben a jailbreak arra vonatkozik, hogy a felhasználók bonyolult parancsok révén elérik, hogy megkerüljék a chatbot saját biztonsági szűrőit, és ráveszik arra, hogy olyan válaszokat adjon, amiket normál esetben elutasítana a házirendre hivatkozva. Ilyen az például, amikor szerepjátékkal próbálnak belőle káros válaszokat kihúzni, például gyűlöletbeszédre veszik rá vagy fegyverkészítési „receptet” húznak ki belőle.
A rendszer valódi sebezhetőségeire koncentrál ebben az esetben az OpenAI, hogy az olyan esetek, mint például az előzmények elkeveredése, ne következhessen be újra. Már több mint 100 millió felhasználóval rendelkezik a ChatGPT magában, szóval igen nagy károkat okozhat egy biztonsági rés. Az sajnálatos, hogy a cégnek meg kellett magát égetnie ahhoz, hogy lépéseket tegyen ebben az ügyben, de bízunk benne, hogy ez nagy segítséget fog jelenteni a továbbiakban.