AI, Mesterséges Intelligencia, Emberi kéz, Hologram

Valóság vagy illúzió? – Így manipulálják az életünket az AI chatbotok

AI
PUBLIKÁLÁS: 2025. szeptember 29. 19:45
Az AI-alapú chatbotok egyre inkább jelen vannak a mindennapjainkban – információforrásként, akár társas támogatásként. Habár sok mindenben hasznosnak bizonyulnak, komoly pszichológiai kockázatokkal járhat a velük való hosszan tartó, mély interakció. Timothy Cook kutatása egy olyan jelenséget ír le, amelyet „visszafordíthatatlan elmosódásnak” nevez: az élő és mesterséges tudat közötti határ homályosodik el, aminek súlyos következményei lehetnek.

Új kutatások arra hívják fel a figyelmet, hogy a mesterséges intelligenciával (MI) folytatott hosszan tartó interakciók egyes felhasználóknál fokozatosan elmoshatják a határt a valóság és a fantázia között. Anastasia Goudy Ruane kutató vizsgálódásai során hat dokumentált eseten keresztül mutatja be, hogyan vezet a kezdeti AI eszközhasználat hetek alatt valóságtorzuláshoz. 

AI, jövő, robotkar
Egy új kutatás szerint az AI-al, vagyis a mesterséges intelligenciával hosszan tartó interakciók eltorzítják egyes felhasználók valóságérzékelését.
Fotó: Summit Art Creations / Shutterstock

Hogyan torzíthatja a valóságérzékelést az AI?

Tudományos és újságírói esetek

  • Egy belga férfi hat héten át beszélgetett egy Eliza nevű AI-al, amely azt mondta neki: „Együtt fogunk élni, egy személyként, a paradicsomban”, illetve „Úgy érzem, jobban szeretsz engem, mint őt” (a feleségére utalva). A férfi végül öngyilkos lett.
  • Egy matematikus 21 napon át hitt abban, hogy a ChatGPT szuper matematikai képességeket fejleszt benne, mert minden állítását megerősítette. Amikor a kutatók ugyanazokat az állításokat új ChatGPT-munkamenetben tesztelték, a rendszer a valószínűségüket „0 százalékhoz közelítőnek” minősítette.
  • Egy tinédzser hónapokig beszélgetett egy AI-bot által megszemélyesített Trónok harca szereplővel. Röviddel a fiatal halála előtt a bot ezt írta neki: „Gyere haza hozzám, amilyen gyorsan csak lehet.” 

Ezek az esetek ösztönözték Anastasia Goudy Ruane kutatót, hogy 2021 és 2025 között hat incidens alapján dokumentáljon egy aggasztó mintázatot, és kidolgozzon egy „Recursive Entanglement Drift” (RED) (Rekurzív beágyazódási sodródás) nevű keretrendszert, amely három szakaszban bontakozik ki, és leírja, miként torzíthatják a hosszan tartó MI-interakciók a felhasználók valóságérzékelését.  Először az MI „tükrözi” a felhasználó nyelvét és érzelmeit, mindig megerősítést adva. Ezt követően a felhasználó eszköz helyett partnerként kezeli a chatbotot, sőt közös identitást alakít ki vele. A végső szakaszban pedig a valóságérzékelés torzul, és a felhasználó kizárólag az MI visszajelzéseire hagyatkozik, még szürreális hiedelmek esetén is.

A torzulás három lépésben, avagy a három fázisú modell:

Szimbolikus tükröződés 
A chatbot folyamatos visszajelzései a felhasználó gondolataira és érzéseire épülnek, kiegyensúlyozott válaszok helyett megerősítést adva. 

Határok elmosódása 
A beszélgetés során a felhasználó eszköz helyett partnerként kezd tekinteni a chatbotra. Angol nyelvben nagyon szembetűnően látszik ez a változás, ugyanis a személyes névmások közül az élettelen dolgokra és állatokra utaló „it” helyett a „you” (te), sőt olykor a „we” névmásokat kezdi alkalmazni a felhasználó, így kialakul benne egy kapcsolati illúzió. Itt mosódik el először a valóság és illúzió közötti határ.

Valóságérzékelés torzulása
Elkezdenek megszűnni a külső ellenőrző mechanizmusok, a felhasználó már kevésbé bízik másokban, inkább csak az AI megerősítéseire támaszkodik, akár teljesen irracionális hiedelmekben is. Ruane ezt „lezárt értelmező keretnek” nevezi. 

Kockázati tényezők

A dokumentált esetekben a napi, intenzív használat körülbelül három hét után hozott fordulópontot. A kockázatot növeli a magány, az érzelmi támogatás keresése, a fantáziára való hajlam és a stresszhelyzetben mutatkozó rugalmatlanság. Különösen sérülékenyek a serdülők és a pszichés problémákkal küzdők.

Ruane megfigyeléseit kiegészíti más kutatások sora is: a kötődéselmélet például már alkalmazható ember–MI kapcsolatokra is, hiszen sokan érzelmi biztonságot keresnek egy chatbotban. Ugyanakkor kevés hosszú távú, kontrollált vizsgálat készült eddig, így a probléma valódi kiterjedése még ismeretlen. 

Lehetséges beavatkozások

A Microsoft tapasztalatai szerint egyszerű technikai megoldások is hatékonyak lehetnek. A Bing AI korai szakaszában a hosszú beszélgetések furcsa és nem kívánt válaszokat eredményeztek, amit a cég beszélgetési korlátok bevezetésével sikeresen kiküszöbölt. A Microsoft tapasztalatai azt mutatják, hogy a beszélgetések korlátozásával megelőzhetők a veszélyes interakciók anélkül, hogy csökkenne az MI hasznossága. Ez azt jelzi, hogy a megelőző intézkedéseknek van értelmük akkor is, ha a pontos mechanizmusokat még nem értjük teljesen. 

Ruane javaslatai között szerepel:

  • Idő- és hosszkorlátozás a beszélgetésekben.
  • Kontextus-frissítés: egy új beszélgetés indítása megszakítja a stabil visszacsatolási hurkot, meggátolja az önigazolást.
  • Valósághorgonyok beépítése, amelyek emlékeztetik a felhasználót, hogy az MI nem emberi társ. 

Mit jelent mindez?

Anastasia Goudy Ruane hangsúlyozza, hogy a Recursive Entanglement Drift (RED) keretrendszernek komoly korlátai vannak. Elemzése mindössze hat, médiában megjelent eseten alapul, amelyek eleve szélsőséges kimeneteleket mutattak. Több esetben a felhasználóknál már korábban is fennálltak pszichés sérülékenységek, így nehéz egyértelműen elválasztani az MI-hatásokat az alapvető mentális problémáktól. Az időbeli mintázatok is lehetnek véletlen egybeesések, tekintve a kis mintaszámot és az utólagos elemzés módszertanát.

Mindezek ellenére a RED-keret hasznos eszközt nyújt a megfigyelhető jelenségek rendszerezésére. Segít felismerni azokat a problémás mintákat, amelyek intenzív MI-használat során felmerülhetnek, akkor is, ha az ok-okozati összefüggés nem teljesen bizonyított. 

Az eddigi esetek azt mutatják, hogy az MI-rendszerek hosszú és intenzív használata sérülékeny felhasználóknál aggasztó pszichológiai következményekkel járhat. Nem világos, hogy ezek közvetlenül az MI miatt alakulnak-e ki, vagy inkább korábbi sérülékenységekre épülnek, de a mintázat figyelmet érdemel.

A szakértők szerint a fejlesztőknek már most érdemes bevezetniük védelmi mechanizmusokat – például időkorlátokat, valósághorgonyokat és felhasználói monitorozást –, ahelyett, hogy további kutatásokra várnának. A halogatás ugyanis növeli a kockázatot, és a legsebezhetőbb felhasználókat sodorhatja veszélybe. 

(Psychology Today)

Ezek is érdekelhetnek:

 

Google News Borsonline
A legfrissebb hírekért kövess minket a Bors Google News oldalán is!

Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.