-
Kis mennyiségű mérgezett adat már képes backdoor sebezhetőséget létrehozni nagyméretű nyelvi modellekben
Az elmúlt években a nagy nyelvi modellek (LLM-ek) robbanásszerű fejlődése számos területen forradalmasította a mesterséges intelligencia alkalmazását. Ugyanakkor a biztonság és a megbízhatóság kérdése egyre inkább előtérbe kerül, különösen akkor, ha rosszindulatú támadók képesek befolyásolni a modellek működését. Egy friss, az UK AI Security Institute, az Alan Turing Institute és az Anthropic kutatóinak közös tanulmánya rávilágít arra, hogy mindössze néhány száz mérgezett dokumentum elegendő ahhoz, hogy bármilyen méretű nyelvi modellben „hátsóajtó” sebezhetőség alakuljon ki. Kis számú mérgezett dokumentum is veszélyes lehet A kutatás során a szakemberek különböző méretű modelleket vizsgáltak, 600 milliótól egészen 13 milliárd paraméterig terjedő skálán. Meglepő eredmény, hogy a támadások sikeressége nem függ a modell méretétől vagy…