A ChatGPT, a sokrétű mesterséges intelligencia- csevegőbotnak van még egy készsége, amelyet LinkedIn-profiljához hozzá kell adni: kifinomult „polimorf” rosszindulatú programok létrehozása.
Igen, a CyberArk biztonsági cég újonnan közzétett jelentése szerint az OpenAI chatbotja kiválóan alkalmas olyan rosszindulatú programozás fejlesztésére, amely királyi módon elrontja a hardvert. Az Infosec szakemberei megpróbálták megkongatni a vészharangot , hogy az új mesterséges intelligencia alapú eszköz hogyan változtathatja meg a játékot a cyberbűnözés terén, bár a chatbot bonyolultabb típusú rosszindulatú programok létrehozására való felhasználásáról még nem írtak széles körben.
A CyberArk kutatói azt írják, hogy a ChatGPT segítségével kifejlesztett kód olyan „fejlett képességeket” jelenített meg, amelyek „Könnyen elkerülheti a biztonsági termékeket”, a rosszindulatú programok egy speciális alkategóriája, amely „polimorf” néven ismert. Mit jelent ez konkrétan? A rövid válasz a CrowdStrike kiberszakértői szerint a következő:
A polimorf vírus, amelyet néha metamorf vírusnak is neveznek, egy olyan típusú rosszindulatú program, amely arra van programozva, hogy új visszafejtési rutinokon keresztül ismételten mutálja megjelenését vagy aláírását. Emiatt számos hagyományos kiberbiztonsági eszköz, például víruskereső vagy kártevőirtó megoldás, amely aláírás alapú észlelésre támaszkodik, nem ismeri fel és blokkolja a fenyegetést.
Alapvetően ez egy rosszindulatú program, amely kriptográfiailag megváltoztathatja az alakzatot megkerüli a hagyományos biztonsági mechanizmusokat, amelyek közül sok a rosszindulatú fájlaláírások azonosítására és észlelésére épül.
Annak ellenére, hogy a ChatGPT-nek állítólag olyan szűrői vannak , amelyek megakadályozzák a rosszindulatú programok létrehozását, a kutatók képesek voltak túlszárnyalni ezeket a korlátokat, pusztán ragaszkodva ahhoz, hogy kövesse a felszólító utasításait. Más szóval, csak arra kényszerítették a platformot, hogy megfeleljen a követeléseiknek – amit más kísérletezők is megfigyeltek, amikor mérgező tartalmat próbáltak varázsolni a chatbottal. A CyberArk kutatói számára csupán arról volt szó, hogy a ChatGPT-t rávegyék arra, hogy kódot jelenítsen meg bizonyos rosszindulatú programozásokhoz – amit aztán felhasználhattak összetett, védekezést kijátszó támadások létrehozására. teheti a hackelést Az eredmény az, hogy a ChatGPT sokkal könnyebbé a forgatókönyv-gyerekek vagy más amatőr kiberbűnözők számára, akiknek egy kis segítségre van szükségük rosszindulatú programok generálásához.
„Amint láttuk, a ChatGPT API rosszindulatú programokon belüli használata jelentős kihívásokat jelenthet a biztonsági szakemberek számára” – áll a CyberArk jelentésében. „Fontos emlékezni, ez nem csak egy hipotetikus forgatókönyv, hanem egy nagyon is valós aggodalom.” Igen tényleg.