Shop menü

A SAMSUNG MÉRNÖKEI RENDKÍVÜL BIZALMAS ADATOKAT SZIVÁROGTATTAK KI A CHATGPT-N KERESZTÜL

Egyes munkavállalók gyenge láncszemnek bizonyultak, már ami a vállalati biztonságot, és a bizalmas adatok védelmét illeti.
Víg Ferenc (J.o.k.e.r)
Víg Ferenc (J.o.k.e.r)
A Samsung mérnökei rendkívül bizalmas adatokat szivárogtattak ki a ChatGPT-n keresztül

A Samsung vezetése néhány hete engedélyezte a gyári dolgozók számára, hogy használják az egyre népszerűbb ChatGPT-t annak érdekében, hogy eredményesebb legyen a munka. A mesterséges intelligencián alapuló chatbotot számos kényes feladattal bízták meg, ami azért is aggályos, mert a megadott bizalmas információk, kódrészletek, illetve egyéb tartalmak külsős cégek szervereire is felkerültek, ahonnan ezeket nem igazán lehet visszavonni.

A beszámoló alapján három kirívó eset biztosan történt a ChatGPT használata során, amelyek mindenképpen biztonsági kockázatot jelenthetnek. Az asszisztensként használt chatbottal nagyjából 20 nap leforgása alatt több kényes tartalmat is megosztottak a felelőtlen gyári munkások, ami végül azt eredményezte, hogy a Samsung vezetése újragondolta az engedélyt.

Az egyik esetben a félvezetőgyártó részleg munkatársa egy szabadalmaztatott program forráskódjának egyes részeit másolta be a ChatGPT szövegmezőjébe annak érdekében, hogy az AI segítsen a hibák javításában. Ez azért is gond, mert egy szigorúan titkos alkalmazás forráskódját egy külsős vállalat által működtetett szolgáltatással osztotta meg az alkalmazott.

A második esetben ennél is nagyobb probléma történt, ugyanis az egyik munkavállaló a hibás chipekhez használt tesztmintákat osztotta meg a ChatGPT-vel, mivel azt szerette volna, hogy a mesterséges intelligenciára támaszkodó algoritmus optimalizálja a kódot. Ez kifejezetten bizalmas adat, aminek semmi keresnivalója illetéktelen „kezekben”, még ha azok virtuálisak is. A kód optimalizálása egyébként kiemelten fontos, ugyanis segíthet a tesztelés felgyorsításában, ami a szilíciumlapkák vizsgálatát is felgyorsíthatja, ez pedig segíthet a hatékonyság növelésében és a kiadások csökkentésében is.

Galéria megnyitása

Egy másik alkalmazott egy bizalmas megbeszélés anyagát alakította át a Naver Clova alkalmazással, hogy az dokumentum formájában is rendelkezésre álljon, majd ezt a tartalmat bízta a ChatGPT-re, hogy készítsen belőle bemutatót.

A fenti példák remekül mutatják, mennyire komoly veszélyt jelent, ha az alkalmazottaknak egy olyan szolgáltatás használatát engedélyezik, ami számos problémát okozhat, amennyiben nem körültekintően járnak el. A Samsung alkalmazottai által megadott adatok külsős szerverekre kerültek és ott is maradtak, ahonnan igazából nem lehet őket „visszaszerezni”, illetve arra sincs ráhatása a vállalatnak, hogy eltávolíttassák a kényes tartalmakat. Noha a ChatGPT-ben óriási potenciál rejlik, mivel a szolgáltatás külsős cégekkel is megoszthat érzékeny is bizalmas információkat, az algoritmus sok problémát okozhat, ha bizalmas adatokat osztanak meg vele, főleg a félvezetőiparban, ahol rendkívül kiélezett verseny zajlik az egyes szereplők között.

A negatív tapasztalatok alapján a Samsung vezetése most óvintézkedések bevezetésén dolgozik annak érdekében, hogy hasonló esetek e forduljanak elő a jövőben. Ha ezek az óvintézkedések nem váltják be a hozzájuk fűzött reményeket, akár az is megtörténhet, hogy a ChatGPT elérését letiltják a vállalati hálózat esetében. Ezzel egy időben azt tervezik, hogy saját AI szolgáltatást fejlesztenek, ami a ChatGPT funkcionalitására hasonlít, ám ezt csak belső célokra lehet majd bevetni, biztonságosan. Addig is korlátozták a ChatGPT szolgáltatáson keresztül megosztható kérdések hosszát, 1024 bájtnál több tartalom nem kerülhet ki egyszerre. Valószínűleg azt is korlátozzák, milyen jellegű kérdésekhez és témákhoz használható az AI, így bizalmas adatok remélhetőleg nem kerülnek ki többé.

Neked ajánljuk

    Tesztek

      Kapcsolódó cikkek

      Vissza az oldal tetejére