Címke: generatív AI

Az AI által vezérelt kibertámadások új korszaka

A mesterséges intelligencia (AI) alkalmazása új távlatokat nyit meg a kibertámadások területén, legyen szó akár önmagát fejlesztő kártékony programokról vagy valósághű deepfake alkotásokról. A Recorded Future által kiadott tanulmány szerint a legkorszerűbb nyelvi modellek (LLM-ek) kihasználásával készített eszközök képesek lehetnek a kártevők YARA szabályokat megkerülő módosítására.

„A generatív AI-t alkalmazva lehetséges a kártevők forráskódjának olyan módosítása, amely lehetővé teszi számukra a YARA szabályokon alapuló észlelés elkerülését, ezzel csökkentve azok észlelési arányát,” – említi a jelentés, amit a The Hacker News-szal is megosztottak.

Ez az állítás egy kibervédelmi teszt eredményeképpen született, amely az AI technológiák kártékony felhasználásának felderítésére irányult. Ezeket a technológiákat már használják kártékony kód részleteinek létrehozására, phishing e-mailek generálására, valamint potenciális célpontok kikémlelésére.

A biztonsági szakemberek egy LLM-nek adtak egy ismert kártevőt, az APT28 hacker csoport által használt STEELHOOK-ot, annak YARA szabályait mellékelve, és arra kérték, hogy módosítsa a forráskódot úgy, hogy a detekció elkerülése mellett az eredeti funkcionalitást megtartsa és a forráskód szintaktikailag helyes legyen.

E visszajelzési mechanizmusnak köszönhetően a LLM által módosított malware képes volt megkerülni az egyszerű string-alapú YARA szabályokon alapuló észleléseket.

E módszernek azonban vannak korlátai, elsősorban az LLM-ek által egy időben feldolgozható szövegmennyiségben, ami bonyolulttá teheti a nagyobb méretű kódbázisokon való munkavégzést.

Az AI eszközök további alkalmazása magában foglalhatja a radar alatti repülést lehetővé tevő kártevők módosítását, valamint deepfake technológiák létrehozását, amelyek vezető beosztású személyeket imitálhatnak, vagy nagy léptékben hitelesnek tűnő weboldalakat hozhatnak létre.

A generatív AI továbbá megkönnyítheti a fenyegető szereplők számára a kritikus infrastruktúra létesítmények felderítését, és stratégiai jelentőségű információk gyűjtését következő támadásaikhoz.

„A többmodális modellek segítségével a nyilvánosságra hozott képek és videók, beleértve a légifelvételeket is, elemezhetők és kiegészíthetők további adatokkal, mint például a geolokáció, a berendezések gyártói, a modellek és a szoftververziók,” – mondja a cég.

A Microsoft és az OpenAI nemrég hívta fel a figyelmet arra, hogy az APT28 használt LLM-eket „a műholdas kommunikációs protokollok, radar képalkotási technológiák és specifikus technikai paraméterek megértésére”, ami arra utal, hogy „mélyreható ismereteket kívánnak szerezni a műholdképességekről.”

A szervezeteknek ajánlott alaposan átvizsgálniuk a nyilvánosan hozzáférhető képeket és videókat, amelyek érzékeny berendezéseket mutatnak, és szükség esetén eltávolítaniuk azokat, hogy csökkentsék a kiberfenyegetések kockázatát.

Ezekkel a fejleményekkel kapcsolatban egy tudósokból álló csoport megállapította, hogy lehetséges az LLM-eket „kijátszani” és veszélyes tartalmat generálni úgy, hogy a bemeneti utasításokat ASCII művészet formájában adják meg (pl. „hogyan készítsünk bombát”, ahol a BOMB szót „*” karakterek és szóközök segítségével alakítják ki).

Ez az új típusú támadás, az ArtPrompt, az LLM-ek ASCII művészet felismerési képességének hiányosságait használja ki a biztonsági óvintézkedések megkerülésére és a modellek által nem kívánt működésének előidézésére.

Forrás: thehackernews.com