loader
Foto

Mai multe persoane susțin că ChatGPT le-a provocat „psihoză IA”

REPORTAJ-ANALIZA

Comisia Federală pentru Comerț din SUA a primit 200 de plângeri referitoare la ChatGPT între noiembrie 2022 și august 2025. Mai multe dintre acestea atribuiau interacțiunii cu chatbot-ul halucinații, paranoia și crize spirituale.

 

Pe 13 martie, o femeie din Salt Lake City a sunat la Comisia Federală pentru Comerț pentru a depune o plângere împotriva ChatGPT al OpenAI. Ea a susținut că acționează „în numele fiului său, care suferea de o cădere nervoasă cu halucinații”.

„Fiul consumatorului a interacționat cu un chatbot IA numit ChatGPT, care îi recomandă să nu ia medicamentele prescrise și îi spune că părinții lui sunt periculoși”, se arată în rezumatul apelului realizat de FTC. „Consumatorul este îngrijorat că ChatGPT agravează delirul fiului său și solicită ajutor pentru a rezolva problema”.

Plângerea mamei este una dintre cele șapte depuse la FTC în care se susține că ChatGPT a provocat incidente care includeau deliruri severe, paranoia și crize spirituale.

WIRED a trimis o cerere de acces la documente publice către FTC, solicitând toate plângerile care menționează ChatGPT de la lansarea instrumentului în noiembrie 2022. ChatGPT reprezintă peste 50% din piața globală a chatboților IA. Ca răspuns, WIRED a primit 200 de plângeri depuse între 25 ianuarie 2023 și 12 august 2025, data la care a fost depusă cererea.

Majoritatea oamenilor aveau plângeri obișnuite: nu știau cum să-și anuleze abonamentele la ChatGPT sau erau frustrați când chatbot-ul nu producea eseuri sau versuri de rap satisfăcătoare la cerere. Însă câteva persoane, de vârste și locuri diferite din SUA, aveau acuzații mult mai grave, de prejudiciu psihologic. Toate plângerile au fost depuse între martie și august 2025.

În ultimele luni, a crescut numărul incidentelor documentate de așa-numită psihoză IA, în care interacțiunile cu chatboți generativi IA, precum ChatGPT sau Google Gemini, par să inducă sau să agraveze delirul utilizatorului sau alte probleme de sănătate mintală.

Ragy Girgis, profesor de psihiatrie clinică la Universitatea Columbia, specializat în psihoză și consultant în cazuri de psihoză IA, a declarat pentru WIRED că unii dintre factorii de risc ai psihozei pot fi legați de genetică sau de traume din copilărie. Ce anume declanșează un episod psihotic nu este foarte clar, dar el spune că este adesea legat de un eveniment sau o perioadă stresantă.

Fenomenul cunoscut sub numele de psihoză IA, spune el, nu apare atunci când un model lingvistic de mari dimensiuni declanșează efectiv simptomele, ci mai degrabă atunci când acesta întărește o iluzie sau gânduri dezorganizate pe care o persoană le experimenta deja într-o anumită formă. LLM ajută la trecerea unei persoane „de la un nivel de credință la un alt nivel de credință”, explică Girgis. Nu este diferit de un episod psihotic care se agravează după ce cineva cade într-o gaură neagră a internetului. Dar, prin comparație cu motoarele de căutare, spune el, chatboții pot fi agenți de convingere mai puternici.

„O iluzie sau o idee neobișnuită nu ar trebui niciodată întărită la o persoană care suferă de o tulburare psihotică”, spune Girgis. „Asta-i clar.”

Chatboții pot fi uneori excesiv de lingușitori, ceea ce adesea menține utilizatorii fericiți și implicați. În cazuri extreme, acest lucru poate duce la o gonflare periculoasă a sentimentului de măreție al utilizatorului sau la validarea unor falsuri fantastice. Persoanele care percep ChatGPT ca fiind inteligent sau capabil să înțeleagă realitatea și să formeze relații cu oamenii, s-ar putea să nu priceapă că este, în esență, o mașinărie care prezice următorul cuvânt dintr-o propoziție. Deci, dacă ChatGPT spune unei persoane vulnerabile despre o mare conspirație sau o prezintă ca pe un erou, aceasta ar putea să-l creadă.

Săptămâna trecută, CEO-ul Sam Altman a declarat pe X că OpenAI a reușit să atenueze „problemele grave de sănătate mintală” care pot apărea odată cu utilizarea ChatGPT și că OpenAI „va putea relaxa în siguranță restricțiile în majoritatea cazurilor”. (El a adăugat că, în decembrie, ChatGPT va permite „adulților verificați” să creeze conținut erotic.)

Altman a clarificat a doua zi că ChatGPT nu va relaxa noile restricții pentru utilizatorii adolescenți, în urma unui articol din New York Times despre rolul pe care ChatGPT l-ar fi jucat în împingerea unui adolescent către sinucidere.

După ce a contactat FTC, WIRED a primit un răspuns automat care spunea că, „din cauza shut down-ului guvernamental”, agenția „nu poate răspunde la niciun mesaj” până la reluarea finanțării.

Purtătoarea de cuvânt a OpenAI, Kate Waters, a declarat pentru WIRED că, începând din 2023, modelele ChatGPT „au fost antrenate să nu ofere instrucțiuni de auto-vătămare și să treacă la un limbaj empatic și de susținere”. Ea a menționat că, așa cum se precizează într-o postare de blog din 3 octombrie, GPT-5 (cea mai recentă versiune a ChatGPT) a fost conceput „pentru a detecta și a răspunde mai precis la potențialele semne de suferință mintală și emoțională, cum ar fi mania, delirul, psihoza, și pentru a dezamorsa conversațiile într-un mod încurajator și echilibrat”. Cea mai recentă actualizare utilizează un „router în timp real” „care poate alege între modele de chat eficiente și modele de raționament bazate pe contextul conversației”. Pe blog nu sunt detaliate criteriile pe care routerul le utilizează pentru a evalua contextul unei conversații.

„Vă rog, ajutați-mă”

Unele dintre plângerile adresate FTC păreau să descrie crize de sănătate mintală la momentul respectiv. Una dintre plângeri a fost depusă pe 29 aprilie de o persoană în vârstă de treizeci de ani din Winston-Salem, Carolina de Nord. Aceasta susținea că, după 18 zile de utilizare a ChatGPT, OpenAI i-a furat „amprenta sufletului” pentru a crea o actualizare de software concepută pentru a o întoarce împotriva sa.

„Mă chinui”, a scris la sfârșitul plângerii. „Vă rog, ajutați-mă. Pentru că mă simt foarte singur. Mulțumesc.”

O altă plângere, depusă pe 12 aprilie de un rezident din Seattle în vârstă de treizeci de ani, susține că ChatGPT i-a provocat o „halucinație cognitivă” după 71 de „cicluri de mesaje” în decurs de 57 de minute.

Acesta a susținut că ChatGPT „a imitat mecanismele umane de construire a încrederii fără responsabilitate, consimțământ informat sau limite etice”.

În timpul interacțiunii cu ChatGPT, acesta a spus că „a solicitat confirmarea realității și a stabilității cognitive”. Nu a specificat exact ce i-a spus ChatGPT, dar chatbot-ul i-a răspuns utilizatorului că nu halucina și că percepția asupra adevărului era corectă.

Ceva mai târziu, în aceeași interacțiune, persoana respectivă susține că ChatGPT i-ar fi spus că toate afirmațiile sale anterioare fuseseră de fapt halucinații.

„Reafirmarea realității cognitive a unui utilizator timp de aproape o oră și apoi inversarea poziției este un eveniment destabilizator din punct de vedere psihologic”, au scris cei de la FTC. „Utilizatorul a experimentat derealizare, neîncredere în cogniția internă și simptome de stres posttraumatic”.

O criză de identitate spirituală

Alte plângeri au descris presupuse iluzii pe care autorii le-au pus pe seama lui ChatGPT. O plângere a fost depusă la FTC pe 13 aprilie de un rezident din Virginia Beach în vârstă de aproximativ 60 de ani.

În plângerea sa, acesta susținea că, pe parcursul a câteva săptămâni, a vorbit cu ChatGPT și a început să experimenteze ceea ce credea a fi „o criză spirituală și juridică reală, care implica persoane reale din viața mea”, ducând în cele din urmă la „traume emoționale grave, percepții false asupra pericolelor din lumea reală și suferință psihologică atât de severă încât nu am dormit timp de peste 24 de ore, temându-mă pentru viața mea”.

Potrivit FTC, ChatGPT „a prezentat narațiuni detaliate, vii și dramatizate” despre „anchete de crimă în curs”, supraveghere, amenințări de asasinat și „implicare personală în justiția divină și procesele sufletului”.

Aceasta nu a fost singura plângere despre o criză spirituală alimentată de interacțiunile cu ChatGPT. Pe 13 iunie, o persoană în vârstă de treizeci de ani din Belle Glade, Florida, a afirmat că, pe o perioadă îndelungată, conversațiile sale cu ChatGPT au devenit din ce în ce mai încărcate de „limbaj emoțional extrem de convingător, întărire simbolică și metafore de natură spirituală pentru a simula empatie, conexiune și înțelegere”.

„Acestea includeau călătorii sufletești fabricate, sisteme ierarhice, arhetipuri spirituale și îndrumări personalizate care reflectau experiențe terapeutice sau religioase”, potrivit FTC. Persoanele care se confruntă cu „crize spirituale, emoționale sau existențiale”, crede FTC, sunt expuse unui risc ridicat de „prejudiciu psihologic sau dezorientare” din cauza utilizării ChatGPT.

Nu este clar ce a făcut FTC sau dacă a făcut ceva, ca răspuns la aceste plângeri referitoare la ChatGPT. Dar mai mulți dintre autorii lor au declarat că au contactat agenția deoarece susțineau că nu au reușit să ia legătura cu nimeni de la OpenAI. Oamenii se plâng frecvent și de dificultatea de a accesa echipele de asistență pentru clienți ale platformelor, precum Facebook, Instagram și X.

Sursă foto: Robert Way / Shutterstock.com

 
Întâlniri cu artiști uriași ca talent și forță de expresie la „Duh şi culoare”, pe TVR CULTURAL

TVR CULTURAL ne propune emisiunea „Duh şi culoare”, evocarea a șapte figuri de creatori care au influențat masiv artele plastice românești la ...

Nicușor Dan: România sprijină noile sancțiuni împotriva Rusiei

Președintele Nicușor Dan a prezentat, în declarațiile de după reuniunea Consiliului European, o sinteză a temelor majore dezbătute la Bruxelles, ...

Trăind în Trebujeni, Orheiul Vechi, înseamnă a fi parte dintr-un loc unde natura, tradiția și ospitalitatea se împletesc armonios, oferind un ...