Shop menü

AZ FBI SZERINT AZ AI MEGKÖNNYÍTI A HACKEREK DOLGÁT, KÖNNYEBBEN KIVITELEZIK A KÜLÖNBÖZŐ TÁMADÁSOKAT

Ez várható volt, az elmúlt hetek hírei alapján igazából meglepetés sincs benne, de nem is meglepetésnek, hanem figyelmeztetésnek szánják az információt az illetékesek.
Víg Ferenc (J.o.k.e.r)
Víg Ferenc (J.o.k.e.r)
Az FBI szerint az AI megkönnyíti a hackerek dolgát, könnyebben kivitelezik a különböző támadásokat

Az FBI, vagyis az Amerikai Egyesült Államok Szövetségi Nyomozó Irodája a napokban egy új veszélyre hívta fel a figyelmet, pontosabban inkább csak emlékeztettek rá, hiszen régóta nyílt titok, hogy az AI nemcsak hasznos lehet, hanem káros is, mint oly sok minden, ha rossz kezekbe kerül és ártó szándékkal használják. Az FBI illetékesei szerint vészjósló mértékben emelkedik azon emberek száma, akik az AI segítségével próbálnak kártékony cselekedeteket véghez vinni a virtuális világban, őket ugyanis nagyban segíti az AI ereje, ha adathalászathoz szükséges támadásokat akarnak megtervezni és kivitelezni, de akkor is jól jön az AI, ha szofisztikált malware írása a cél.

A nagy nyelvi modellek, illetve a generatív AI segítségével sok feladatot lehet megoldani, azaz rengeteg pozitív hatása van az efféle fejlesztéseknek. A megfelelően tréningezett neurális hálózatok például a gyógyászatban is óriási segítséget nyújthatnak, ahol a különböző betegségek és kórképek pontos diagnosztizálásában oroszlánrészt vállalhatnak a későbbiekben, de számos egyéb területen is élvezhető lesz a pozitív hatásuk. Idő kérdése volt, hogy a kiberbűnözők mikor figyelnek fel arra, milyen óriási lehetőségeket tartogat az AI, amennyiben kártékony célokra szeretnék befogni.

Sajnos erre már egy jó ideje rájöttek, ennek megfelelően számos nagy nyelvi modellt, mint például a ChatGPT-t is be lehet vetni egy csomó feladatra, például zsarolólevelek, adathalász támadások, illetve fejlett malware-ek készítésére, de a dark web is új lendületet kaphat az efféle „fejlesztésekkel”, ami mindenképpen probléma. Nemrégiben egy olyan „új” lehetőségről is beszámoltunk a WormGPT formájában, amelyen keresztül előfizetési díj ellenében igen komoly tűzerővel rendelkező AI modellhez lehet hozzáférni, amit aztán mindenféle online bűncselekmény kivitelezésére használhatnak az „érdeklődők”.

Galéria megnyitása

Ez valószínűleg még csak a kezdet, a háttérben alighanem komolyabb fegyverarzenál fejlesztése is zajlik, amivel még hatékonyabban lehet támadásokat kivitelezni, illetve abban is biztosak lehetünk, hogy ezek ellen már a védelem oldalán állók is dolgoznak, hasonlóan AI alapú megoldásokkal.

Az FBI szakemberei azt nem árulták el, jelenleg mely AI modelleket használják a kiberbűnözők, ugyanis nem szeretnék, ha még többen állnának be a sorba a „sötét oldalról”. Ugyanakkor a hatóságok is nyitnak az AI felé, amellyel számos bűntényt könnyebb felderíteni, hiszen az AI hamarabb feltétképezi az összefüggéseket, hatékonyan összerakja az apró kis nyomokat, így nagy lehetőségek állnak előtte.

Komoly probléma továbbá az is, hogy az AI segítségével úgynevezett deep fake tartalmak is készíthetőek, vagyis olyan eseményről hozhatóak létre videók vagy képek, amelyek vagy meg sem történtek, vagy nem azokkal a szereplőkkel, akik végül a videón láthatóak. Az OpenAI korábban készített egy AI Classifier Tool nevű kis eszközt, amivel a mesterségesen generált tartalmak leleplezésére nyílik lehetőség, ám ezt időközben le is kapcsolták, hiszen a sikerrátája mindössze 26%-os volt, ami abszolút nem nevezhető hatékonynak.

Hogy végül sikerül-e védekezni a kártékony célokra készített AI modellek támadásai ellen? Ez a jövő zenéje, de remélhetőleg erre is hamar megtalálják a megoldást az illetékes iparági képviselők. Addig is az adathalászat és a malware-ek ellen mi magunk is védekezhetünk: nem nyitunk meg gyanús levelekben vagy SMS-ekben lévő linkeket, gyanús e-mail csatolmányokat, illetve megbízhatatlan weboldalakról sem szerzünk be semmiféle állományt.

Neked ajánljuk

    Tesztek

      Kapcsolódó cikkek

      Vissza az oldal tetejére