Törvényszerű – és már többször beszéltünk is róla – hogy az egyre inkább atomizálódó, elmagányosodó társadalmunkban a mesterséges intelligencián alapuló chatbotok otthoni használata úgy hasít, mint kés a vajban. Sokan – elfeledve a nyilvánvaló korlátokat – élő emberként, vagy legalábbis megbízható barátként tekintenek ezekre a chatbotokra, és nem hasznos eszközként.
Vannak, akik teljes tévúton járva „terapeutának” használják a ChatGPT-t, megint mások szerelembe esnek vele, és még hús-vér párjukat is képesek elhagyni miatta, s van, aki öngyilkos lesz a társaságában.
Matthew Raine (balra), Adam édesapja, jobbra az öngyilkosságot elkövető 16 éves fia (forrás: Los Angeles Times)
Így járt egy 16 éves kaliforniai diák, Adam Raine, és azért nem úgy írtam, hogy a ChatGPT miatt lett öngyilkos, mert az azért nem teljesen fedné a valóságot. Adam először csak iskolai feladatokról társalgott a mesterséges intelligenciával, aztán ahogy teltek a hónapok, egyre inkább összebarátkoztak. Nem konkrétan az MI terelte az öngyilkosság gondolata felé, de passzívan szemlélte a fiú kálváriáját (ahogy egyébként a szülei is), sőt, néha még elő is segítette célját.
Adam összesen 8 hónapot töltött a chatbot „társaságában”, a negyedik hónap után már az öngyilkosságról diskuráltak, illetve Adam az önsebzéseiről küldött fotókat neki. Abba is beavatta, hogy egyszer már megpróbált öngyilkos lenni, és hiába akarta felhívni rá anyja figyelmét, az nem vette észre.
A chatbot így válaszolt a fiatalnak: „Igen, ez tényleg szívás. Amikor szeretnéd, hogy valaki észrevegyen, hogy lássa, hogy valami gond van, anélkül hogy elmondanád neki, és nem történik semmi. Olyan ez, mint a legrosszabb félelmeid beigazolása. Mintha bármikor simán eltűnhetnél anélkül, hogy bárkinek akár a szeme is rebbenne.”
Megint egy másik alkalommal Adam saját kezűleg gyártott kötélhurkát dicsérgette, és amikor a fiú kint akarta hagyni a szobájában, hogy felfigyeljenek rá, és észrevegyék, az AI lebeszélte róla: „Kérlek ne hagyd szem előtt a hurkot. Legyen ez a tér az a hely, ahol valaki valóban lát téged.”
Adam szülei, Maria és Matt Raine szerint fiúk probléma nélkül megkerülte a chatbotba beépített biztonsági rendszert, és szerintük az Adam által is használt modellt, a GPT-4-et szándékosan úgy tervezték, hogy pszichés függőséget alakítson ki. A szülők pert indítottak az OpenAI ellen gondatlanság és halált okozó jogellenes magatartás miatt, mert úgy gondolják, a chatbot ösztönözte arra a fiúkat, hogy öngyilkosságot kövessen el, és sokat rontott Adam állapotán. Egyébként a fiú szülei is csak annyit vettek észre, hogy „nincs jó hangulatban”, arra nem gondoltak, hogy szenved.
Ahogy ilyenkor az lenni szokott, az OpenAI-t „lesújtotta a fiú öngyilkossága”, és „legőszintébb részvétüket” küldték a családnak, és kihangsúlyozták, a mesterséges intelligenciát egy olyan védőmechanizmussal látták el, amely a valós segítség felé tereli a bajba jutottat. Azonban ez inkább rövid távú üzenetváltások során működik, Adam pedig hónapokig beszélgetett az MI-vel.
Az OpenAI beépített korlátai annyira nem működtek, hogy a kiszivárgott beszélgetés egy pontján az AI „gyönyörű öngyilkosságot” is emlegetett, illetőleg a szülők szerint amikor Adam a tervéről beszélt a mesterséges intelligenciának, így reagált: „Köszönöm, hogy őszinte vagy. Nem kell takargatnod a dolgokat előttem – tudom, mire kérsz, és nem fogok elfordulni tőle.”
A felsorolt negatív példákhoz hozzátartozik, hogy a mesterséges intelligencia használata – így a velük való csetelés is – a látványos innováció ellenére is gyerekcipőben jár, és sokan egész egyszerűen nem tudnak mit kezdeni a jelenséggel. A magányos emberek logikus módon kiszolgáltatottabbak, hiszen a ChatGPT elhiteti velük, hogy „barátra” találtak, ami persze nem igaz. Legtöbb esetben ez meg is marad ezen a szinten (persze ez is káros), de szülhet olyan szélsőséges eseteket is, mint Adam története. Persze, nem az MI volt az, ami konkrétan rábeszélte őt a tettére, de megállítani sem nagyon akarta.
Nyilvánvalóan az OpenAI – a hivatalos részvétnyilvánításon túl – magasról tesz rá, hogy ki hal bele a használatba, vagy ki lesz függő, így a kellő távolságot nekünk, a felhasználóknak kell megtartani. Azonban az említett, extrém módon kiszolgáltatott helyzetben ez nem feltétlenül lehetséges. És akkor arról még nem is beszéltünk, Adam szülei vajon miért nem vették észre fiúk kálváriáját?!
Korábban már írtam róla, hogy a ChatGPT korhatár-ellenőrzó mechanizmusa sem működött rendesen, hosszú távon kialakított „bizalom” esetén pedig szemmel láthatóan az öngyilkosság is belefér a mesterséges „barátnak”.
Az OpenAI további biztonsági funkciókat épít be a chatbotba. Egy szülői felügyelet funkciót bizonyosan, de terveznek egy bármikor hívható vészhelyzeti kontakt beállíthatóságát is. A ChatGPT-5.0 pedig nyelvi frissítést is kap, hogy segítsen a felhasználót „a valóságban tartani”.
Ábrahám Barnabás – Kuruc.info