Shop menü

EGY ÚJ LLM EGYRE HATÉKONYABBAN TUD OLYAN MALWARE-EKET ÍRNI, AMELYEK KI TUDJÁK CSELEZNI A WINDOWS DEFENDERT

Ilyesmire persze az eddigi nagy nyelvi modelleket is lehetett már használni, de hatásfokuk sokkal alacsonyabb volt, mint az új fejlesztésé, amit a tervek szerint az augusztusi Black Hat konferencián lepleznek le készítői.
Víg Ferenc (J.o.k.e.r)
Víg Ferenc (J.o.k.e.r)
Egy új LLM egyre hatékonyabban tud olyan malware-eket írni, amelyek ki tudják cselezni a Windows Defendert

A nagy nyelvi modellek (LLM – Large Language Model) folyamatosan fejlődnek, és egyre több szakértő hívja fel a figyelmet arra, hogy ezeknek köszönhetően a kiberbűnözők is új lehetőségekkel gazdagodhatnak, az újfajta támadási formák ellen pedig eléggé nehéz védekezni, így a védelmi szoftverek esetében is kulcsfontosságú az AI alapú funkciók bevezetése, illetve egyre ütőképesebbé tételük is. Az már nem újdonság, hogy manapság is elérhetőek olyan AI alapú eszközök, amelyekkel a kiberbűnözők hatékonyabban érhetik el céljaikat, de az eszköztár a nem is oly távoli jövőben tovább bővülhet, és akár a komplett malware-fejlesztést is rábízhatják majd a megfelelően tréningezett LLM-ekre, ami újfajta, eddig nem látott veszélyeket hozhat.

Ebből ad majd ízelítőt a Black Hat 2025 konferencia alkalmával egy csapat, amelynek tagjai már létre is hoztak egy ütőképes LLM-et. Ez a nagy nyelvi modell mindössze három hónapnyi tréningezés révén juthatott el oda, hogy az általa írt malware-ek már képesek kicselezni a Microsoft Defender for Endpoint védelmi mechanizmusait, ami óriási veszélyt jelenthet az üzleti felhasználók számára. Az Outflank nevű csapat vezetője, Kyle Avery a Dark Reading munkatársainak elmondta, nagyjából 1500 dollárt költött a szóban forgó LLM tréningezésére, amelynek alapját a nyílt forráskódú Qwen 2.5 LLM adja, és ami bíztató eredményeket hozott.

Galéria megnyitása

Noha az AI jóvoltából tényleg készülhetnek olyan malware-ek, amelyek képesek kicselezni a Windows Defender for Endpoint védelmét, ilyen kártékony kódok csak a próbálkozások nagyjából 8%-ában készülhetnek, a többi egyszerűen nem alkalmas a feladatra. Ez a 8%-os sikerráta nem tűnik eget verően magasnak, már-már megmosolyogtatónak is mondhatnánk, ám nem szabad elfelejteni, hogy az Anthropic AI segítségével 1% alatti, a DeepSeek segítségével pedig 0,5% alatti sikerráta érhető el, vagyis ennyi a sikeres malware-készítés aránya – ennél az Outflank LLM-je fényévekkel jobb. Ez a 8%-os sikerráta persze még nem elég ahhoz, hogy egy felkészületlen támadó kellően hatékony malware-t készíttessen az AI-jal, arra viszont már jó, hogy a felkészült kiberbűnözők munkáját könnyebbé tegye, azaz javítsa „produktivitásukat”.

A veszély tehát valós, nem szabad félvállról venni, érdemes időben felkészülni az efféle támadások ellen, ahogy a lehetőségek engedik – remélhetőleg egyebek mellett a Microsoft csapata is megteszi majd a biztonság növeléséhez szükséges lépéseket és új, a következő generációs malware-ek elleni küzdelemre is felkészített funkciókkal bővíti a Windows Defender repertoárját. Ennél persze talán egy fokkal komolyabb veszélyt jelent az emberi tényező, vagyis a nem kellően elővigyázatos alkalmazottak okozta károk, de az is potenciális problémát jelent, ha a kiberbiztonsági szakemberek által használt szoftverek, amelyekkel az egyes rendszerek védelmét tesztelik, rossz kezekbe kerülnek, azokat átalakítva ugyanis hatékonyabban dolgozhatnak a kiberbűnözők is.

Az Outflank a tervek szerint az augusztusban megrendezésre kerülő Black Hat 2025 konferencián mutatja be, mire képes az általuk fejlesztett LLM, ami addig alighanem még ütőképesebbé válhat, mint amilyen most.

Neked ajánljuk

    Tesztek

      Kapcsolódó cikkek

      Vissza az oldal tetejére