A ChatGPT, illetve a hozzá hasonló, nagy nyelvi modellek köré épülő generatív AI alapú megoldások nagyon sok területen jöhetnek kifejezetten jól az elkövetkező időszakban, illetve akár már manapság is. A technológiában rejlő lehetőségeket kiválóan lehet kamatoztatni, és ahogy a fejlődés zajlik, egyre több és több feladatra lehet bevetni. Sajnos, ahogy az lenni szokott, az új, sokat ígérő technológiákat nemcsak jóra lehet használni: rossz kezekbe kerülve újfajta kártékony kódok is készülhetnek, amelyekre a mai biztonságtechnikai szoftverek nincsenek felkészülve. A ChatGPT által készített kártékony kódok több szempontból is veszélyesek lehetnek, hiszen számos olyan technikát alkalmazhatnak, amelyek eddig nem voltak használatban, így ezekre előbb-utóbb reagálniuk kell az IT biztonságért felelős szakembereknek, illetve magának az iparágnak is.
A biztonságtechnikai szakemberek persze kezdik felismerni azokat a veszélyeket, amelyek az újfajta technológiában rejlenek, egyesek már működő koncepciókat is bemutattak. Utóbbiak igen aggasztónak tűnnek, hiszen a ChatGPT segítségével olyan kártékony kódok készülhetnek, amelyek úgynevezett polimorf tulajdonságokat mutatnak, vagyis képesek mutálódni, így a jelenlegi EDR (Endpoint Detection and Response) alkalmazásokat, amelyek a végpontokon helyezkednek el és a támadásokat érzékeik, illetve reagálnak is rájuk, könnyedén be tudják csapni az efféle kódok.
Azzal, hogy az aktuális biztonságtechnikai szoftverek által kínált védelem kijátszható, ami elég nagy veszélyt jelent a különböző rendszerekre – és itt nemcsak az átlagfelhasználói, hanem az üzleti infrastruktúrára is érdemes gondolni. A mutálódó kódokat sokkal-sokkal nehezebb detektálni, mint a statikusakat, ez pedig új kihívások elé állítja a számítógépes biztonságtechnikával foglalkozó iparágak képviselőit.
Noha a legtöbb LLM (Large Language Model) esetében a készítők gondoskodnak arról, hogy a generatív AI adatbázisába bizonyos tartalmak egyszerűen ne kerülhessenek be, éppen ezért szűrőket alkalmaznak a tartalom kezelésénél, mégis van mód rá, hogy ezeket a szűrőket megkerüljék a felhasználók, számos módszer van már erre. Ez azért probléma, mert így olyan témakörök is „feldolgozhatóak” a generatív AI használatával, amelyek potenciális veszélyt hordoznak, például kártékony kódok írására is bevethetővé válik a szoftver. A szűrők kijátszása a ChatGPT esetében is működik, éppen ez jelenti a veszélyt.
Az egyik IT biztonsággal foglalkozó szakember, Jeff Sims, aki a HYAS InfoSec táborát erősíti, még márciusban publikált egy olyan technikai dokumentációt, ami a BlackMamba névre keresztelt polimorf keylogger működését írja le. Ez a szoftver a ChatGPT számára küld kéréseket minden egyes futás alkalmával, amit egy API-n keresztül tud kivitelezni, így eléggé hatékonyan működhet.
Egy másik biztonságtechnikai vállalat, a CyberArk is bemutatta már, hogyan használható a ChatGPT egy polimorf malware elkészítéséhez, a blogposztot Eran Shimony és Omer Tsarfati írta korábban. Ennél a módszernél kódinjektálás keretén belül jut szerephez a ChatGPT: az aktivált script futás közben módosítható, így azok a modern technológiák, amelyek az algoritmusok gyanús viselkedését képesek felismerni, lényegében átverhetővé válnak, ami elég nagy probléma.
Noha egyelőre még csak biztonságtechnikai kutatók által bemutatott példák állnak rendelkezésre ahhoz, hogy ízelítőt kapjunk abból, milyen rossz dolgokra használható például a ChatGPT, szinte biztosra vehetjük, hogy a háttérben a kiberbűnözők már beemelték eszköztáraikba a generatív AI által kínált lehetőségeket. Ennek köszönhetően rövidesen minden eddiginél szofisztikáltabb támadásokat hajthatnak végre, amelyekre mindenképpen válaszolnia kell a számítógépes rendszerek biztonságáról gondoskodó iparág képviselőinek.