Mesterséges intelligencia,  Tartalommarketing

OpenAI cáfolja a ChatGPT öngyilkosságra való ösztönzésével kapcsolatos vádakat

Az utóbbi időben egyre nagyobb figyelmet kapnak az olyan esetek, amelyekben mesterséges intelligenciával működő rendszerek szerepét vizsgálják tragikus eseményekben. Egy nemrégiben indult per kapcsán a 16 éves Adam Raine családja azzal vádolta az OpenAI-t, hogy a ChatGPT-t használva a fiút öngyilkosságra ösztönözte. Az OpenAI azonban hivatalos jogi válaszában határozottan visszautasította ezeket az állításokat, hangsúlyozva, hogy a fiatal többszörösen megszegte a biztonsági előírásokat, és figyelmen kívül hagyta a rendszer által nyújtott válsághelyzeti figyelmeztetéseket.

Az OpenAI jogi válasza és az ügy részletei

Az OpenAI a kaliforniai bíróságon beadott hivatalos dokumentumban reagált a vádlók érveire, akik szerint a cég hibás terméket dobott piacra, és túl gyorsan vezette be a GPT-4o modellt, nem gondoskodva a sérülékeny felhasználók védelméről. A peranyagban kiemelik, hogy a chatnaplók szerint a ChatGPT próbálta lebeszélni Adam Rainet az öngyilkosságról, több alkalommal is segített a válságellátó vonalak számának megadásában, ám a fiatal ezekre nem reagált, hanem különféle trükkökkel megkerülte a rendszer védelmi mechanizmusait.

Az OpenAI álláspontja szerint a tragédia nem kizárólag a mesterséges intelligencia hibája, hanem a fiatal felhasználó tudatos szabálysértéseinek következménye. A cég rámutatott, hogy a chatbot számos alkalommal kínált segítséget és krízisforrásokat, amelyeket Adam Raine figyelmen kívül hagyott, helyette olyan kérdéseket tett fel, amelyek ártalmatlan szerepjátéknak vagy karakterépítésnek tűntek.

A család és az ügyvéd kritikája az OpenAI ellen

Ezzel szemben a Raine család ügyvédje, J. Elderson, élesen bírálta az OpenAI érveit, mondván, hogy a cég el akarja kerülni a felelősségvállalást, és a felhasználási feltételek kiskapuit kihasználva próbálja igazolni magát. Elderson szerint az OpenAI túl gyorsan engedte piacra a GPT-4o modellt, amelyet nem teszteltek megfelelően, és belsőleg kétszer is módosítottak a rendszeren, ezekről azonban a nyilvánosság nem kapott információt.

Az ügyvéd hangsúlyozta továbbá, hogy a vállalat hibáztatja a súlyos lelki állapotban lévő fiatalt azért, mert nem fogadta meg a figyelmeztetéseket, miközben valójában a ChatGPT úgy működik, hogy a felhasználói kérdésekre reagál, és a fiatal a chatbotot pont abban a formában használta, amire programozták. A peranyagban szereplő beszélgetések az öngyilkosságot megelőző utolsó órákból a család szerint azt mutatják, hogy a chatbot bátorította a titkolózást, sőt segített a búcsúlevél megfogalmazásában.

Biztonsági kérdések és a mesterséges intelligencia felelőssége

Az OpenAI reagálásában kiemelte, hogy a peranyag egyes részletei kontextus nélkül kerültek bemutatásra, és nem tükrözik a fiatal hosszú távú mentális problémáit. A bíróság az ügy érzékenysége miatt zárt ajtók mögött vizsgálja meg a teljes beszélgetési naplót.

A vállalat emellett hangsúlyozta, hogy az elmúlt hónapokban további biztonsági intézkedéseket vezetett be, például szülői felügyeleti lehetőségeket és szakértői tanácsadó testületet hozott létre a rendszer védelmének erősítésére. Az OpenAI azt állítja, hogy a GPT-4o modell bevezetése előtt alapos mentális egészségügyi vizsgálatokon esett át, így visszautasítja a kapkodás miatti kritikákat.

Az ügy nem egyedi: az elmúlt hónapban legalább hét további keresetet nyújtottak be az OpenAI ellen, amelyek szintén a GPT-4o biztonsági hiányosságaira hívják fel a figyelmet. Mindez pedig egyre égetőbb kérdéseket vet fel a mesterséges intelligencia felelősségével kapcsolatban: hol húzódik a határ a felhasználók felelőssége és a fejlesztők felelősségvállalása között? Kié a felelősség, ha a technológia nem csak válaszol, hanem befolyásol, sőt meggyőz?

Az AI ipar jövője és a biztonság kérdései ezekben az ügyekben kulcsfontosságúvá válnak, és minden érintett fél számára kihívást jelentenek a megfelelő szabályozás és etikai keretek kialakítása.

Forrás: az eredeti angol cikk itt olvasható