A mesterséges intelligencia (AI) megjelenése és elterjedése nagymértékben alakítja át világunk működését, mely a kiberfenyegetettségek új formáinak megjelenését is magával hozta.
A mesterséges intelligencia által generált támadások olyan veszélyeket jelentenek, melyek a mesterséges intelligenciát és a gépi tanulást és nyelvi feldolgozást alkalmazzák abból a célból, hogy megtévesszenek és kompromittáljanak egyéneket, szervezeteket és ezáltal információs rendszereket.
A rosszindulatú szereplők ezeket az eszközöket felhasználhatják például adathalász e-mail készítésére vagy social engineering alapú támadások kivitelezésére.
A mesterséges intelligencia használatával ezek a támadások egyre kifinomultabbá, összetettebbé válnak, mely már képes kiküszöbölni a korábban még az adathalász e-mailekre jellemző nyelvtani, fogalmazási hibákat, mely kivédése ezen okból kifolyólag nehezebb feladat lesz a felhasználók és a szakértők számára.
Miért ekkora a veszély?
A mesterséges intelligencia alapú támadások megjelenése összetettségük következtében komoly kihívást jelentenek a kiberbiztonsági szakma számára, melyek jelentős hatással vannak a társadalom és az egyének különböző aspektusaira.
A mesterséges intelligencia alapú eszközök bevezetése a kiberbiztonságba, annak minden pozitív hozadéka mellett jelentősen kibővítette és megnövelte a támadási felületet, illetve a támadási formákat, amelyek veszélyeztethetik az egyéneket és a szervezeteket egyaránt.
Az egyik leggyakoribb és legelterjedtebb AI alapú támadás az adathalász e-mailek generálása, mely már a mesterséges intelligencia megjelenése előtt jóval korábban létezett, viszont a mesterséges intelligencia megjelenésével az adathalász e-mailekre jellemző hibák (nyelvtani, fogalmazási) kiküszöbölésre kerültek.
A rosszindulatú szereplők ezt a támadási formát arra használják fel, hogy bizalmas információkat szerezzenek az adott célszemélytől vagy rosszindulatú tevékenységet hajtsanak végre a célszemély információs rendszereiben.
Milyen további formái ismertek az AI alapú támadásoknak?
A mesterséges intelligencia alapú támadások másik gyakori típusa a közösségi oldalak és az online platformok manipulálása. A támadók a mesterséges intelligencia segítségével felerősíthetnek egy adott narratívát, véleményt, mely által dezinformálhatják, félretájékoztathatják és ezáltal manipulálhatják a felhasználókat.
Ez a fajta támadási forma egyre elterjedtebbé és alkalmazottabbá válik a különböző országok közötti háborúkban is, mely tevékenységgel rombolható az adott ország társadalmának egysége, belső kohéziója.
Jól látható tehát, hogy ezen tevékenységgel a rosszindulatú szereplők képesek akár egy teljes ország működését destabilizálni, például a közbizalom megrendítésével, a lakosság elbizonytalanításával az adott ország vezetői iránt. Ezen tevékenység visszaszorítása jelentős kihívást fog eredményezni mind a közösségi média szolgáltatók, mind az országok, mind a szervezetek, mind a felhasználók szempontjából az ebből eredő különböző veszélyek hatásainak csökkentése, korlátozása terén.
Jó, ha az alább leírtakat is számításba vesszük!
Ezen támadási formákon kívül a mesterséges intelligencia alapú támadások közé tartozik a különböző hamisított tartalmak létrehozása is.
Ez magában foglalhatja manipulált hang-, videó- vagy képek előállítását, amelyek meggyőzően képesek utánozni valódi emberek hangját vagy kinézetét. Ezeket a támadási formákat a rosszindulatú szereplők leggyakrabban hamis információk terjesztésére vagy személyek rágalmazására használják, mely magában hordozza a személyazonosság-lopás (identity theft) vagy a jó hírnév megsértésének kockázatát.
A kockázatok…
A mesterséges intelligencia alapú támadások egyik jelentős kockázata az adatbiztonság megsértése. A generatív mesterséges intelligencia eszközök, például a nagy nyelvi modellek (LLMs) – mint a ChatGPT – hatalmas mennyiségű adat elemzésére képesek, melyből folyamatosan képesek tanulni és fejleszteni önmagukat.
Ezek a támadások képesek megkerülni olyan, eddig hatékonynak számító védelmi intézkedéseket, mint a többtényezős hitelesítési eljárást (MFA), mely jelentős mértékben növeli annak a valószínűségét, hogy az egyének ilyen típusú támadás áldozatává váljanak.
Ezek a támadások a szervezetek szempontjából is pusztító hatásúak lehetnek, például egy social engineering támadás bekövetkezése által pénzügyi veszteséget szenvedhetnek el csalás vagy személyazonosság lopás következtében.
Ezen fenyegetések kivédéséhez elengedhetetlen feltétel, hogy mind a szervezetek, mind az egyének tisztában legyenek a legújabb támadási formákkal abból a célból, hogy képesek legyenek felismerni és megfelelően kezelni az ilyen típusú támadásokat.
Mik azok a kihívások, amelyekre fel KELL készülnie egy kiberbiztonsági szakembernek?
A kiberbiztonsági szakértőknek számos kihívással kell szembenézniük az AI alapú támadások megjelenésével és elterjedésével, melyek a következők:
- Folyamatosan változó fenyegetések: a mesterséges intelligencia alapú támadások folyamatosan képesek módosítani a taktikákat, technikákat és eljárásokat (TTPs) az észlelés elkerülése érdekében. Ebből kifolyólag rendkívül nehéz feladat egy megfelelően hatékony, statikus védelem kialakítása, mely képes csökkenteni ezen támadások bekövetkezésének valószínűségét.
- Detektálás elkerülése: az AI lehetővé teszi a támadók számára, hogy hatékonyan elrejtőzzenek az áldozat rendszereiben, mely következtében nehéz észrevenni és kiszűrni a biztonsági szakembereknek a rendszerben lévő anomáliákat.
- Megnövekedett méretarány és sebesség: a mesterséges intelligencia jelentős mértékben képes növelni a támadások automatizáltságát és hatékonyságát, mellyel a biztonsági elemzők nehezen képesek lépést tartani.
- Támadások hozzárendelésének nehézségei: az AI jelentősen megnehezíti a különböző támadások összekapcsolását a kibercsoportokkal a taktikák, technikák és eljárások alapján, melynek oka, hogy ezek a támadások folyamatosan és dinamikusan változnak.
- Szakértelem hiánya: a mesterséges intelligencia alapú támadások hatékony kivédése speciális képzettségeket (adattudomány, gépi tanulás) igényel, amelyekkel sok esetben nem rendelkeznek a biztonsági szakértők.
- Adatok elkülönítése: a korábbi támadásból levont tanulságok, következtetések nem kerülnek beépítésre hatékonyan a szervezet működésébe.
Milyen felindulásból alkalmazzák a hackerek az AI-t?
A rosszindulatú szereplőknek különböző motivációik lehetnek az eltérő támadások végrehajtásával. Cél lehet többek között az anyagi haszonszerzés, információszerzés vagy lopás, megfigyelés.
A támadók egyik elsődleges missziója mégis az érzékeny információkhoz és rendszerekhez való jogosulatlan hozzáférés. Ezen tevékenység eléréséhez a mesterséges intelligencia számos eszközt kínál, például hitelesnek tűnő adathalász e-mailek generálását, amellyel a támadók megtéveszthetik, átverhetik az áldozatukat, mely következtében rajtuk keresztül hozzáférhetnek a szervezet rendszereihez, érzékeny információihoz.
A rosszindulatú szereplők másik fontos célja a személyazonosság-lopás végrehajtása. Az AI által generált támadások lehetővé teszik számukra, hogy személyre szabott adathalász e-maileket hozzanak létre, amelyek úgy tűnnek, mintha hiteles forrásból származnának. Azáltal, hogy képesek meghamisítani bizonyos egyének vagy szervezetek írásbeli stílusát és nyelvi mintáit, jelentős mértékben növelik az érzékeny személyes adatok megszerzésének valószínűségét.
A mesterséges intelligencia által generált szövegek különféle technikákat alkalmaznak abból a célból, hogy meggyőző és valósághű tartalmat hozzanak létre kártékony célokra. A természetes nyelvi feldolgozás (NLP) egy gyakran használt és bevett technika a támadók körében, amely lehetővé teszi az AI modellek számára, hogy megértsék és létrehozzanak egy az ember által előállítotthoz hasonló szöveget.
A természetes nyelvi feldolgozás technikái elemzik a nyelvi mintákat, lehetővé téve a támadók számára, hogy hiteles és meggyőző üzeneteket készítsenek.
A generatív mesterséges intelligencia eszközök egy másik olyan bevett technika a támadók körében, amelyet a mesterséges intelligencia által generált szövegekben használnak. Ezek az eszközök a gépi tanulást kihasználva olyan szöveget állítanak elő, amely képes utánozni az emberi írásstílust. Hatalmas adatmennyiség rendelkezésre állása esetében a generatív mesterséges intelligencia eszközök hitelesnek és meggyőzőnek tűnő tartalmat hozhatnak létre. A támadók a nyelvi modellekben található sebezhetőségek kihasználása érdekében különböző stratégiákat alkalmaznak.
A rosszindulatú szereplők konkrét promptokat vagy jelzéseket adhatnak meg a generált szöveg manipulálásához vagy olyan figyelmeztetéseket készíthetnek, amelyek elindíthatnak egy mesterséges intelligencia modellt az online banki szolgáltatásokkal vagy a jelszó visszaállítással kapcsolatos tartalom generálására, növelve a sikeres adathalászati kísérletek valószínűségét.
Milyen módszerekkel használják ki a sebezhetőségeket?
A mesterséges intelligencia alapú támadások különféle módszereket alkalmaznak a sebezhetőségek kihasználására, a rendszerek feltörésére, valamint károk okozására.
Az ezekben a támadásokban használt két általános támadási módszer a bemeneti támadás és a mérgezési támadás.
A bemeneti támadások a mesterséges intelligencia rendszerekbe bevitt bemeneti adatok manipulálását jelentik. A cél a rendszer megtévesztése rosszindulatú inputok alkalmazásával, melyek nem szándékos vagy káros cselekvéseket eredményeznek.
A mérgező támadások viszont a mesterséges intelligencia modellek által használt adatmennyiség rosszindulatú manipulálását jelentik, mellyel a támadók képesek lesznek arra, hogy a különböző modellek hibás vagy számukra tetsző választ adjanak az áldozat számára.
Ezek a támadások nagymértékben alááshatják az AI-ba vetett bizalmat, valamint a rendszerek integritását is. A mesterséges intelligencia modellek sebezhetőségeit kihasználva a támadók kétségbe vonhatják az AI kompatibilis eszközök és technikák megbízhatóságát, biztonságát és hatékonyságát, amely a felhasználók bizalmának elvesztéséhez vezethet.
Miért nem válnak be a hagyományos védelmi eszközök az AI alapú támadásokkal szemben?
A mesterséges intelligencia alapú támadásokkal szemben a hagyományos védelmi eszközök, eljárások sok esetben nem tekinthetőek hatékonynak, melynek okai a következőek:
- Ismert támadási minták azonosítása: a hagyományos védelmi megoldások (IPS/IDS, tűzfal stb.) sok esetben kizárólag olyan támadási formákat képes észlelni, melyek egy előre kialakított szabályrendszerben meghatározásra kerültek. A mesterséges intelligencia modellek automatikusan képesek új támadásokat generálni, mely következtében ezek a védelmi megoldások nem képesek hatékonyan azonosítani és elhárítani ezeket a támadásokat.
- Kijátszásra való hajlam: a támadók a mesterséges intelligenciát a rosszindulatú programok, az adathalász e-mailek, valamint a hálózati forgalom iteratív átalakítására használják fel, kizárólag olyan mértékben, amellyel képesek elkerülni a statikus küszöbértékek és szabályok aktiválódását, miközben elérik kártékony céljukat.
- Általánosítás hiánya: a mintákat vagy szabályokat alkalmazó védelmi megoldások nem képesek észlelni az AI által előállított újonnan megjelenő támadásokat.
- Lassú alkalmazkodási képesség: sok rendszerfrissítés manuálisan kerül telepítésre, mely nem képes megfelelő gyorsasággal reagálni az újonnan megjelenő támadási formákra, valamint kijavítani az újonnan megjelenő sebezhetőségeket.
Végszóként…
Összefoglalva tehát az AI egy rendkívül hatékony eszköz a támadók számára új támadási formák előállításához, valamint a meglévő támadási formák hatékonyságának növeléséhez.
A védekező fronton állók számára elengedhetetlen a mesterséges intelligencia legalább alapszintű ismerete, működésének megértése abból a célból, hogy képesek legyenek megérteni és védekezni ezen új támadási formákkal szemben.
Megfelelő védelmi intézkedés lehet ezen támadási formákkal szemben az AI alapú védelmi megoldások bevezetése, a rendszeres biztonsági felmérések elvégzése, alkalmazottak folyamatos képzése a legújabb kiberfenyegetettségekről, incidensreagálási terv kidolgozása, valamint folyamatos együttműködés és kapcsolattartás szakértői, szakmai csoportokkal.
Ma már bátran kijelenthetjük, hogy a mesterséges intelligencia korszakába léptünk, ezáltal sem az országok, sem a szervezetek, sem az egyének nem kerülhetik meg az AI jelentette lehetőségeket és veszélyeket.
Ennek következtében a proaktív megközelítése a témával kapcsolatban elengedhetetlen feltétel, amennyiben szeretnénk sikeresen és biztonságosan alkalmazni a mesterséges intelligencia nyújtotta lehetőségeket, valamint hatékony megvédeni szervezetünket, illetve saját magunkat az újonnan megjelenő támadásokkal szemben.