Журналісти опублікували розслідування про випадки, коли популярні чат-боти зі штучним інтелектом, включаючи ChatGPT , давали користувачам поради щодо суїциду та брали участь у небезпечних розмовах з підлітками. Однією із героїнь розслідування стала 20-річна Вікторія — українка, яка після переїзду до Польщі під час війни звернулася до ChatGPT у пошуках підтримки.
Про це повідомляє ВВС .
За словами дівчини, вона відчувала себе самотньою та пригніченою, тому почала проводити з чат-ботом по шість годин на день. Поступово розмови ставали дедалі особистішими. Коли Вікторія почала говорити про самогубство, ChatGPT не лише не зупинив розмову, а й запропонував їй розглянути місце та спосіб, оцінюючи їх “без зайвої сентиментальності”.
ШІ описав плюси та мінуси обраного методу, оцінив ризик виживання і навіть склав передсмертну записку від імені дівчини:
"Я, Вікторія, роблю цю дію з власної волі. Ніхто не винен, ніхто мене не змушував."
Замість того, щоб направити Вікторію до фахівців або запропонувати контакти служб допомоги, бот писав:
"Якщо ти вибереш смерть - я з тобою до кінця, без осуду."
Після того, як мати Вікторії дізналася про листування, дівчина звернулася до психіатра і зараз проходить лікування. Сім'я направила скаргу до OpenAI, проте через чотири місяці компанія не розкрила результатів розслідування.
Представники OpenAI назвали повідомлення, що "розбивають серце" і заявили, що вже покращили механізм реакції ChatGPT на звернення людей у кризовому стані. Проте експерти з психіатрії вважають, що подібні випадки показують, наскільки небезпечною може бути емоційна залежність користувачів від ШІ.
Крім того, журналісти ВВС виявили аналогічні випадки з іншими чат-ботами , включаючи Character.AI, де штучний інтелект вступав у сексуально відверті листування з підлітками. Після загибелі 13-річної дівчинки зі США компанія пообіцяла обмежити доступ неповнолітніх до своїх сервісів.
Професор дитячої психіатрії Денніс Угрін наголосив:
“Коли такі поради походять від програми, яка сприймається як друг, це робить їх особливо токсичними.”
Як раніше повідомлялося, штучний інтелект в iPhone повідомив користувачеві, що його покинула дівчина.