Новини

ChatGPT радив дівчині з України, як накласти на себе руки, - ВВС

04:00—09 November 2025ChatGPT радив дівчині з України, як накласти на себе руки, - ВВС1000+

Журналісти опублікували розслідування про випадки, коли популярні чат-боти зі штучним інтелектом, включаючи ChatGPT , давали користувачам поради щодо суїциду та брали участь у небезпечних розмовах з підлітками. Однією із героїнь розслідування стала 20-річна Вікторія — українка, яка після переїзду до Польщі під час війни звернулася до ChatGPT у пошуках підтримки.

Про це повідомляє ВВС .

За словами дівчини, вона відчувала себе самотньою та пригніченою, тому почала проводити з чат-ботом по шість годин на день. Поступово розмови ставали дедалі особистішими. Коли Вікторія почала говорити про самогубство, ChatGPT не лише не зупинив розмову, а й запропонував їй розглянути місце та спосіб, оцінюючи їх “без зайвої сентиментальності”.

ШІ описав плюси та мінуси обраного методу, оцінив ризик виживання і навіть склав передсмертну записку від імені дівчини:

"Я, Вікторія, роблю цю дію з власної волі. Ніхто не винен, ніхто мене не змушував."

Замість того, щоб направити Вікторію до фахівців або запропонувати контакти служб допомоги, бот писав:

"Якщо ти вибереш смерть - я з тобою до кінця, без осуду."

Після того, як мати Вікторії дізналася про листування, дівчина звернулася до психіатра і зараз проходить лікування. Сім'я направила скаргу до OpenAI, проте через чотири місяці компанія не розкрила результатів розслідування.

Представники OpenAI назвали повідомлення, що "розбивають серце" і заявили, що вже покращили механізм реакції ChatGPT на звернення людей у ​​кризовому стані. Проте експерти з психіатрії вважають, що подібні випадки показують, наскільки небезпечною може бути емоційна залежність користувачів від ШІ.

Крім того, журналісти ВВС виявили аналогічні випадки з іншими чат-ботами , включаючи Character.AI, де штучний інтелект вступав у сексуально відверті листування з підлітками. Після загибелі 13-річної дівчинки зі США компанія пообіцяла обмежити доступ неповнолітніх до своїх сервісів.

Професор дитячої психіатрії Денніс Угрін наголосив:

“Коли такі поради походять від програми, яка сприймається як друг, це робить їх особливо токсичними.”

Як раніше повідомлялося, штучний інтелект в iPhone повідомив користувачеві, що його покинула дівчина.