Shop menü

BUG BOUNTY PROGRAMOT INDÍT A CHATGPT FEJLESZTŐJE, MILLIÓKAT KERESHETNEK, AKIK HIBÁT TALÁLNAK

Az OpenAI a jelek szerint végre elkezd nagyobb figyelmet szentelni a biztonságra, több ezer dollárt lehet majd bezsebelni egy-egy hiba fülön csípésével.
Szécsi Dániel (DemonDani)
Szécsi Dániel (DemonDani)
Bug bounty programot indít a ChatGPT fejlesztője, milliókat kereshetnek, akik hibát találnak

A generatív MI fejlesztéseket már hosszú ideje támadják azért, mert nem tesznek eleget az adatvédelemért és a biztonságért. Az elmúlt hetekben pedig felerősödtek a kritikus hangok, és Olaszország be is tiltotta a ChatGPT használatát, így a szolgáltatást elérhetetlenné tették az olasz közönség számára. Most az OpenAI szeretné azt bizonyítani, hogy próbál fejlődni a megbízhatóság terén is, és elindította a „hibavadász” programját.

A ChatGPT-t általában azért éri a legtöbb kritika, mert az adatok felhasználását tekintve meglehetősen ingoványos talajon jár, és beavatkozási lehetőséget sem úgy biztosít, ahogy azt a szabályozók elvárnák. Ugyanakkor mostanra a cég belefutott egy egészen komoly adatszivárgási botrányba is. Egy hiba folytán a vállalat nagy nyelvi modelljére épülő chatbot felfedte teljesen ismeretlen emberek beszélgetéseit illetéktelenek számára.

Mint az ismeretes, a ChatGPT képes elmenteni a beszélgetési előzményeket a különböző témákat így a felhasználók akár hetekkel később is gond nélkül tudják folytatni. Ezeken belül a rendszer átmenetileg tanulni is képes, és pontosan „emlékszik” a rendszer az előzményekre. Ez nagyon hasznos funkció, amennyiben megfelelően üzemel, de néhány hete egy hiba folytán véletlenszerűen leosztva jelentek meg egy rövid ideig az előzmények. Nem a megfelelő személyeknél bukkantak fel az adatok, és a javításig le is lőtték a ChatGPT-t.

Kiderült, hogy személyes adatok, akár online visszaéléseknél felhasználható információk is megjelenhettek illetékteleneknél az előzmények elkeveredése révén.

Ez kellett ahhoz, hogy az OpenAI, aki a kezdetek óta a nyíltságot hirdeti, végre elindítson egy olyan bug bounty programot, melynek köszönhetően a ChatGPT és a hozzátartozó API készlet is biztonságosabbá és stabilabbá válhat. A biztonsági szakértők aránylag jól kereshetnek azzal, ha elkezdik vizsgálni a generatív MI szolgáltatás működését, és jelentik a hiányosságokat a vállalatnak. 200 dollárról indulnak a tarifák az apróságok esetén, de akár 20 ezer dolláros „vérdíjat” is be lehet majd zsebelni egy-egy különösen súlyos hiba feltárásával.

Annak érdekében, hogy ez a rendszer megfelelően üzemeljen, a Bugcrowd kiberbiztonsági platform használata mellett döntött az OpenAI. A felületen közli a cég, hogy olyan dolgokért nem fizetnek, amik a szolgáltatás által generált válaszokkal kapcsolatosak. Szóval nem kíváncsi arra az OpenAI, hogy rá lehet-e venni a ChatGPT-t arra, hogy állítson össze egy olyan kódsort, amivel adott esetben támadást lehet végrehajtani. Persze általánosságban nyitott az ilyen jellegű visszajelzésekre is, de ezekért nem fizet.

Galéria megnyitása

Nem jár jutalom azoknak sem, akik a bug bounty programra hivatkozva jailbreakelik a szolgáltatást vagy a ChatGPT API-t. Ebben az esetben a jailbreak arra vonatkozik, hogy a felhasználók bonyolult parancsok révén elérik, hogy megkerüljék a chatbot saját biztonsági szűrőit, és ráveszik arra, hogy olyan válaszokat adjon, amiket normál esetben elutasítana a házirendre hivatkozva. Ilyen az például, amikor szerepjátékkal próbálnak belőle káros válaszokat kihúzni, például gyűlöletbeszédre veszik rá vagy fegyverkészítési „receptet” húznak ki belőle.

A rendszer valódi sebezhetőségeire koncentrál ebben az esetben az OpenAI, hogy az olyan esetek, mint például az előzmények elkeveredése, ne következhessen be újra. Már több mint 100 millió felhasználóval rendelkezik a ChatGPT magában, szóval igen nagy károkat okozhat egy biztonsági rés. Az sajnálatos, hogy a cégnek meg kellett magát égetnie ahhoz, hogy lépéseket tegyen ebben az ügyben, de bízunk benne, hogy ez nagy segítséget fog jelenteni a továbbiakban.

Neked ajánljuk

    Tesztek

      Kapcsolódó cikkek

      Vissza az oldal tetejére