Shop menü

ADATHALÁSZATRA ÉS MALWARE-EK KÉSZÍTÉSÉRE HASZNÁLJÁK A KÍNAI ÉS AZ IRÁNI HACKEREK A CHATGPT-T ÉS A NAGY NYELVI MODELLEKET

Egyre több az olyan kibertámadás, amelynek kivitelezésénél szerepet kapott a generatív AI.
Víg Ferenc (J.o.k.e.r)
Víg Ferenc (J.o.k.e.r)
Adathalászatra és malware-ek készítésére használják a kínai és az iráni hackerek a ChatGPT-t és a nagy nyelvi modelleket

A mesterséges intelligenciában és a nagy nyelvi modellekben rejlő lehetőségeket sajnos nemcsak jó célokra lehet fordítani, ha ezek rossz kezekbe kerülnek, könnyedén lehet velük speciális adathalász szoftvereket fejleszteni, illetve akár kifinomultabb támadásformák kifejlesztésében is segíthetnek, hiszen könnyebben rá lehet bukkanni a potenciálisan kiaknázható sebezhetőségekre is. Az OpenAI friss, 2024 októberi jelentése alapján úgy tűnik, az elmúlt időszakban 20-nál is több olyan kibertámadás történt, amelyek során a kiberbűnzők a ChatGPT szolgálatait is igénybe vették annak érdekében, hogy céljaikat hatékonyabban elérjék, vagyis hatékonyabban megszerezzék a hőn áhított adatokat.

A Cisco Talos munkatársai már két kibertámadással kapcsolatban is megerősítették, azok valóban a ChatGPT segítségével készültek. Az egyiket egy kínai csapat vetette be különböző ázsiai országok kormányzati infrastruktúrája ellen. Ez a támadás egy úgynevezett lándzsás adathalászat volt (Spear Phishing), amelynek során speciális szervezeteket vagy személyeket vettek célba az értékes adatok megszerzésének érdekében. A kivitelezés kifinomult volt: egy ZIP fájl érkezett, ami egy kártékony kódokat tartalmazó fájllal megtöltve várta, hogy megnyissák. Ha a fájlt letöltötték és megnyitották, elindult egy fertőzési lánc, amelynek célja az adatszerzés volt. A „SweetSpecter” névre keresztelt támadás az OpenAI szakemberei szerint a ChatGPT segítségével készült, méghozzá úgy, hogy a kiberbűnözők több felhasználói fiókot bevetve alkották meg a szükséges szkripteket, valamint A ChatGPT segítségével fedezték fel a támadáshoz használható sebezhetőségeket is.

Galéria megnyitása

A második kibertámadás mögött már nem kínai, hanem iráni csapat állt, a „CyberAv3ngers”, amelynek tagjai a ChatGPT segítségével kerestek sebezhetőségeket, valamint ezt a nagy nyelvi modellt használták ahhoz is, hogy a macOS alapú számítógépekről felhasználói hozzáférési adatokat lopjanak (felhasználónevet és jelszót). Említést érdemel egy másik kibertámadás is, ami egy másik iráni csapat munkája volt, akik „Storm-0817” néven ismertek, ők viszont már nem a PC-s környezetet, hanem az Android alapú eszközöket vették célba, ezekhez fejlesztettek malware-t a ChatGPT bevonásával. Ez a malware aztán ellopta a névjegyzéket, kinyerte a híváslistát, megszerezte a böngészési előzményeket, kinyerte az eszköz pontos földrajzi helyzetét, valamint különböző, az adott eszközön tárolt fájlokhoz fértek hozzá a támadók rajta keresztül.

Az összes támadás során a régi jól bevált módszereket használták fel, amelyeket malware-készítés, illetve kibertámadás-tervezés során eddig is bevetettek a kiberbűnözők, a ChatGPT azonban segített benne, hogy egyszerűbben, gyorsabban, illetve hatékonyabban készüljenek el a kártékony kódok, illetve a sebezhetőségeket is könnyebb volt általa feltérképezni. Ehhez persze az is kell, hogy az adott kiberbűnöző tudja a fortélyait a ChatGPT rossz célra történő használatának. Noha a biztonsági kutatók próbálnak segíteni abban, hogy a hasonló célú felhasználásnak gátat szabjanak a generatív AI fejlesztői, a kiberbűnözők így is megtalálják a kiskapukat, legalábbis egyelőre.

A biztonságosabb generatív AI használat érdekében a nagy szereplőknek mindenképpen olyan szabályokat és korlátokat kell alkotniuk, amelyekkel megakadályozható, hogy efféle célokra bevethetőek legyenek a nagy nyelvi modellek – vagy amikkel legalábbis megnehezíthetik a kiberbűnözők dolgát ezen a téren.

Neked ajánljuk

    Tesztek

      Kapcsolódó cikkek

      Vissza az oldal tetejére