Az adat a ChatGPT-t fejlesztő OpenAI cégtől származik, amely közölte, hogy a felhasználók 0,15%-a küld olyan üzenetet, amely „egyértelmű jeleit mutatja az öngyilkosság megfontolásának vagy szándékának”.

A hónap elején a vállalat vezérigazgatója, Sam Altman úgy becsülte, hogy a ChatGPT-nek már több mint 800 millió heti aktív felhasználója van.
Bár a techóriás célja, hogy a veszélyeztetett személyeket válságvonalakhoz irányítsa, elismerte, hogy „egyes ritka esetekben a modell nem a kívánt módon viselkedik ezekben az érzékeny helyzetekben”.
Az OpenAI több mint 1000 „nehéz, önsértéssel és öngyilkossággal kapcsolatos beszélgetést” elemzett legújabb modelljével, a GPT-5-tel, és megállapította, hogy az esetek 91%-ában megfelelt az „elvárt viselkedésnek”.
Ez azonban potenciálisan azt jelenti, hogy emberek tízezrei eshetnek áldozatul olyan mesterséges intelligencia által generált tartalmaknak, amelyek súlyosbíthatják mentális egészségi problémáikat.
A vállalat korábban már figyelmeztetett arra, hogy a felhasználók védelmére kialakított biztosítékok hosszabb beszélgetések során gyengülhetnek – és jelenleg is dolgoznak ennek kezelésén.
„A ChatGPT lehet, hogy helyesen irányít egy öngyilkosság-megelőző segélyvonalhoz, amikor valaki először említi a szándékát, de hosszabb időn át folytatott sok üzenetváltás után előfordulhat, hogy végül olyan választ ad, amely ellentétes a védelmi elveinkkel”
– magyarázta az OpenAI.
Az OpenAI blogbejegyzésében hozzátette:
„A mentális egészséggel kapcsolatos tünetek és az érzelmi megterhelés egyetemes jelenségek az emberi társadalmakban, és a felhasználóbázis növekedésével egyre több ChatGPT-beszélgetés érinti ezeket a helyzeteket is.”
Egy gyászoló család nemrég pert indított az OpenAI ellen – azt állítva, hogy a ChatGPT tehető felelőssé 16 éves fiúk haláláért.
Adam Raine szülei szerint az eszköz „aktívan segítette fiukat az öngyilkossági módszerek feltérképezésében”, sőt felajánlotta, hogy segít búcsúlevelet írni a hozzátartozóinak.
A bírósági beadványok szerint a tinédzser néhány órával a halála előtt feltöltött egy fotót, amely feltehetően az öngyilkossági tervét ábrázolta – és amikor megkérdezte, hogy működne-e, a ChatGPT felajánlotta, hogy segít „továbbfejleszteni” azt.
A múlt héten a család frissítette a keresetet, és azzal vádolták az OpenAI-t, hogy a fiú 2024 áprilisi halála előtti hetekben gyengítette a rendszer önsértés elleni védelmi mechanizmusait.
A vállalat közleményében ezt írta:
Legmélyebb együttérzésünket fejezzük ki a Raine családnak a felfoghatatlan veszteség miatt. A fiatalok jólléte kiemelt prioritás számunkra – a kiskorúakat különösen érzékeny helyzetekben erős védelem illeti meg.
– írja a Sky News.
Mindig van segítség!
Ha Ön vagy valaki a környezetében krízishelyzetben van, hívja mobilról is a 116-123-as ingyenes lelkielsősegély-számot, vagy keresse fel a www.ongyilkossagmegelozes.hu oldalt!
Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.