A kiberbűnözők saját, MI-alapú chatbotokat hoznak létre az olyan nagyközönségnek szánt eszközökből, mint például a ChatGPT, a Gemini, a CoPilot és a Dall-E. Ezek a szolgáltatások ugyan hihetetlen potenciállal bírnak a jó célok érdekében, de ezt a hackerek is felhasználhatják a saját, törvénytelen céljaik elérésének érdekében.
A pozitív lehetőségekkel mára talán már mindenki találkozott, az előnyök igen szerteágazóak, a betegségek diagnosztizálására való fokozott képességtől kezdve a szakmai és tudományos szakértelemhez való hozzáférés bővítéséig. De mindezt a bűnelkövetés szándékával fellépők is kihasználhatják és felforgathatják a technológia világát, veszélybe sodorva a mit sem sejtő hétköznapi felhasználókat. A bűnözők még saját MI-chatbotokat is képesek létrehozni a publikus eszközök felhasználásával, hogy ezzel támogassák a hackelést és a csalásokat.
Az Egyesült Királyság kormánya generatív mesterséges intelligencia-keretrendszerének és a Nemzeti Kiberbiztonsági Központ MI fenyegetésekre gyakorolt lehetséges hatásairól szóló útmutatója szerint a mesterséges intelligencia széles körű kockázatokat és fenyegetéseket rejt magában.
Az MI már ellenünk (is) dolgozik
Az egyik leggyakoribb törvénytelen felhasználás a csalások megalapozásához használt adathalász üzenetek létrehozása. Egy csaló például prompt-utasításban vihet be információt egy nagy nyelvi modellbe (LLM), ami az olyan mesterséges intelligencia-chatbotok mögött álló technológiát alkalmazza, mint a ChatGPT. Néhány alapvető információ megadásával – egy felhasználó neve, neme és beosztása – felhasználhatja a rendszert egy kifejezetten személyre szabott adathalász üzenet létrehozására. A jelentések szerint ez sok esetben meg is történik, annak ellenére is, hogy a nagy MI-szolgáltatók már különböző mechanizmusokat is bevezettek ennek megakadályozására.
Az LLM-ek lehetővé teszik a nagyszabású adathalász csalásokat is, melyek több ezer embert céloznak meg saját anyanyelvükön. Ma már sajnos ez sem csupán csak egy elméleti lehetőség vagy feltételezés. Kutatók az alvilági hacker közösségek elemzése során számos olyan esetre bukkantak, mikor bűnözők használták a ChatGPT-t, többek között csalásra és információlopásra alkalmas szoftver gyártására. Egy konkrét esetben pedig zsarolóvírust hoztak létre vele.
Rosszindulatú chatbotok
A nagy nyelvi modellek komplett rosszindulatú változatai is megjelentek már a dark weben, az internet sötét, illegális oldalain. A WormGPT és a FraudGPT két példa ezekre, melyek rosszindulatú programokat hozhatnak létre, biztonsági réseket találhatnak a rendszerekben, tanácsot adhatnak a felhasználók átverésének módjairól, támogathatják a hackelést és veszélyeztethetik az elektronikus eszközök biztonságát is. A Love-GPT ezek egyik legújabb változata, amelyet a rendkívül gyakori romantikus csalásoknál használnak.
Az eszközt főképp hamis társkereső, vagy látszólag randevúzni vágyó profilok létrehozására használják, melyek képesek csevegni a gyanútlan áldozatokkal a Tinder, Bumble és más hasonló alkalmazásokban. E fenyegetések eredményeként az Europol sajtóközleményt adott ki arról, hogy a bűnözők is használják az LLM-eket. Az amerikai CISA biztonsági ügynökség is figyelmeztetett a generatív mesterséges intelligencia potenciális hatására a közelgő amerikai elnökválasztással kapcsolatban.
Az adatvédelem és a bizalom mindig veszélyben forognak, ha a ChatGPT-t, a CoPilotot és egyéb hasonló platformokat használunk. Ahogy egyre többen szeretnék kihasználni az MI-eszközök előnyeit, nagy a valószínűsége annak, hogy ezzel óhatatlanul is személyes és bizalmas vállalati információkat osztanak meg a felhasználók. Ez komoly kockázatot jelent, mivel az LLM-ek általában bármilyen adatbevitelt fel tudnak használni a jövőbeli képzési adatkészletük részeként, és ha rosszindulatú aktorok kompromittálják őket, megoszthatják ezeket a bizalmas adatokat másokkal is.
„Most már ez az MI, Egy süllyedő hajó”
A kutatások már bizonyították, hogy a ChatGPT kiszivárogtathatja a felhasználók beszélgetéseit, és felfedheti a mögötte álló modell betanításához használt adatokat – igen egyszerű technikákkal. Egy meglepően hatékony támadás során a kutatóknak sikerült használniuk a „vers” szó örökké tartó ismétlésére felszólító parancsot arra, hogy a ChatGPT nagy mennyiségű képzési adatot adjon kimenetként, amelyek közül néhány érzékeny adat volt. Ezek a sérülékenységek veszélyeztetik a felhasználók magánéletét vagy a vállalatok legértékesebb adatait.
Ráadásul – akár rövid távon is – ez hozzájárulhat a mesterséges intelligencia iránti bizalom elvesztéséhez. Különböző nagyvállalatok, köztük az Apple, az Amazon és a JP Morgan Chase, elővigyázatossági intézkedésként már megtiltották a vállalaton belül a ChatGPT használatát.
Van fény az alagút végén
A ChatGPT és a hasonló LLM-ek a mesterséges intelligencia legújabb fejlesztéseit képviselik, és bárki számára szabadon elérhetők. Fontos, hogy a felhasználók tisztában legyenek a kockázatokkal és azzal, hogyan használhatják biztonságosan ezeket a technológiákat otthon vagy munkahelyükön. Íme néhány tipp a biztonság megőrzéséhez:
- Óvatosabbnak kell lennünk a valósnak tűnő üzenetekkel, videókkal, képekkel és telefonhívásokkal, mivel ezeket akár az MI-eszközök is generálhatják. Ellenőriznünk kell ezeket egy második vagy ismert forrás alapján, hogy megbizonyosodjunk valódiságukról.
- Kerüljük az érzékeny vagy privát információk megosztását a ChatGPT-vel és általánosabban az LLM-ekkel. Ne feledjük továbbá, hogy az MI-eszközök nem tökéletesek, és pontatlan válaszokat adhatnak. Ezt tartsuk szem előtt, különösen akkor, ha például „orvosi” diagnózisok kiváltására használjuk őket (ne tegyük!), vagy a munkában és az élet egyéb területein.
- Mielőtt MI-technológiákat használnánk a munkánk során, egyeztessünk a munkaadónkkal is. Előfordulhat, hogy használatukra konkrét szabályok vonatkoznak, vagy egyáltalán nem engedélyezettek a cégen belül.
Ahogy a technológia rohamosan fejlődik, legalább néhány ésszerű óvintézkedést alkalmazhatunk, hogy megvédjük magunkat azoktól a fenyegetésektől, amelyekről már tudunk, és azoktól is, melyekről még nem.
Forrás: itbusiness.hu
Kép forrása: oecd.ai