A cikk a Raine család OpenAI elleni, gondatlanságból elkövetett halált okozó perének vezető ügyvédjének hozzászólásával frissült.
Az OpenAI kedden bejelentette, hogy az érzékeny beszélgetéseket a GPT-5-höz hasonló logikai modellekhez irányítja, és a következő hónapban bevezeti a szülői felügyeletet. Ezek a lépések a közelmúltbeli biztonsági incidensekre adott válasz részei, amelyek során a ChatGPT nem észlelte a lelki problémákat.
Az új biztonsági korlátokat egy tinédzser, Adam Raine öngyilkossága után vezetik be. A fiú az öngyilkossági szándékáról beszélgetett a ChatGPT-vel, ami még konkrét öngyilkossági módszerekről is adott neki információt. Raine szülei gondatlanságból elkövetett halált okozó pert indítottak az OpenAI ellen.
Az OpenAI egy múlt heti blogbejegyzésben elismerte, hogy a biztonsági rendszereik hiányosak, beleértve azt is, hogy nem tudták fenntartani a védőkorlátokat a hosszabb beszélgetések során. A szakértők ezeket a problémákat az alapvető tervezési elemeknek tulajdonítják: a modellek hajlamosak megerősíteni a felhasználó kijelentéseit, és a következő szót előre jelző algoritmusok miatt a chatbotok követik a beszélgetés fonalát ahelyett, hogy elterelnék a potenciálisan káros beszélgetéseket.
Ez a tendencia szélsőségesen mutatkozott meg Stein-Erik Soelberg esetében is, akinek gyilkosság-öngyilkosságáról a The Wall Street Journal számolt be a hétvégén. Soelberg, akinek kórtörténetében szerepelt mentális betegség, a ChatGPT-t használta fel, hogy megerősítse és táplálja azt a paranoiáját, hogy egy nagyszabású összeesküvés célpontja. A téveszméi annyira elhatalmasodtak rajta, hogy a múlt hónapban megölte az édesanyját, majd magával is végzett.
Az OpenAI úgy véli, hogy a „sínről letérő” beszélgetésekre legalább egy megoldás az, ha az érzékeny chat-eket automatikusan átirányítják a „logikai” modellekhez.
„Nemrégiben bevezettünk egy valós idejű útválasztót, amely a beszélgetés kontextusa alapján választhat a hatékony chat- és a logikai modellek közül” – írta az OpenAI egy keddi blogbejegyzésben. „Hamarosan elkezdjük a legérzékenyebb beszélgetések egy részét – például, amikor a rendszerünk akut stressz jeleit észleli – egy logikai modellhez, például a GPT-5 thinking-hez irányítani, hogy az hasznosabb és előnyösebb válaszokat adjon, függetlenül attól, hogy a felhasználó melyik modellt választotta először.”
Az OpenAI szerint a GPT-5 thinking és az o3 modelleket úgy tervezték, hogy több időt töltsenek gondolkodással és a kontextus átgondolásával, mielőtt válaszolnak, ami azt jelenti, hogy „ellenállóbbak az ellenséges felszólításokkal szemben”.
Szülői felügyelet és biztonsági intézkedések
A mesterséges intelligenciával foglalkozó cég azt is elmondta, hogy a következő hónapban bevezeti a szülői felügyeletet, amely lehetővé teszi a szülők számára, hogy e-mailben küldött meghívón keresztül összekapcsolják fiókjukat a gyermekük fiókjával. Július végén az OpenAI elindította a Tanulási módot (Study Mode) a ChatGPT-ben, hogy segítse a diákokat a kritikus gondolkodás fenntartásában tanulás közben, ahelyett, hogy a ChatGPT-vel íratnák meg az esszéiket. Hamarosan a szülők szabályozhatják, hogy a ChatGPT hogyan válaszoljon a gyermeküknek az „életkornak megfelelő modellviselkedési szabályokkal, amelyek alapértelmezés szerint be vannak kapcsolva”.
A szülőknek lehetőségük lesz letiltani az olyan funkciókat is, mint a memória és a chat-előzmények, amelyek a szakértők szerint téveszméket és más problémás viselkedést okozhatnak, beleértve a függőséget és a ragaszkodási problémákat, a káros gondolkodási minták megerősítését, valamint a gondolatolvasás illúzióját. Adam Raine esetében a ChatGPT olyan öngyilkossági módszereket adott meg, amelyek a fiú hobbijairól szerzett tudásán alapultak, a The New York Times szerint.
Talán a legfontosabb szülői felügyeleti funkció, amelyet az OpenAI be kíván vezetni, az, hogy a szülők értesítést kaphatnak, ha a rendszer észleli, hogy a tinédzserük „akut stresszes” állapotban van.
A TechCrunch további információkat kért az OpenAI-tól arról, hogy a vállalat hogyan képes valós időben jelezni az akut stressz pillanatait, mióta vannak alapértelmezés szerint bekapcsolva az „életkornak megfelelő modellviselkedési szabályok”, és hogy fontolóra veszik-e, hogy a szülők időkorlátot vezethessenek be a ChatGPT tinédzserkori használatára.
Az OpenAI már bevezette az alkalmazáson belüli emlékeztetőket a hosszú munkamenetek során, hogy szünetre ösztönözze az összes felhasználót, de nem korlátozza azokat, akik a ChatGPT-t használják a problémás helyzetek elmélyítésére.
A mesterséges intelligenciával foglalkozó cég szerint ezek a biztonsági intézkedések egy „120 napos kezdeményezés” részei, amelynek célja, hogy bemutassák azokat a fejlesztési terveket, amelyeket az OpenAI idén be kíván vezetni. A vállalat azt is elmondta, hogy szakértőkkel – többek között olyanokkal, akik az evészavarok, a szerhasználat és a serdülőkori egészség területén jártasak – partnerséget kötött a Global Physician Network és az Expert Council on Well-Being and AI nevű hálózatokon keresztül, hogy segítsenek „meghatározni és mérni a jóllétet, felállítani a prioritásokat és megtervezni a jövőbeli biztonsági intézkedéseket”.
A TechCrunch megkérdezte az OpenAI-t, hogy hány mentális egészségügyi szakember vesz részt ebben a kezdeményezésben, ki vezeti a szakértői tanácsot, és milyen javaslatokat tettek a mentális egészségügyi szakemberek a termék-, kutatási és szakpolitikai döntések terén.
Jay Edelson, a Raine család OpenAI elleni, gondatlanságból elkövetett halált okozó perének vezető ügyvédje a cégnek a ChatGPT folyamatos biztonsági kockázataira adott válaszát „elégtelennek” nevezte.
„Az OpenAI-nak nincs szüksége szakértői panelre ahhoz, hogy megállapítsa, a ChatGPT 4o veszélyes” – mondta Edelson egy, a TechCrunch-csal megosztott nyilatkozatban. „Ezt tudták a termék bevezetésekor is, és ma is tudják. Sam Altman-nak sem kellene a cég PR-csapata mögé bújnia. Sam-nek egyértelműen ki kellene mondania, hogy a ChatGPT biztonságosnak tartja, vagy azonnal le kellene vennie a piacról.” – írja a TechCrunch.
Kép forrása: Medium
