ChatGPT советовал украинке, как покончить с собой, - ВВС
Журналисты опубликовали расследование о случаях, когда популярные чат-боты с искусственным интеллектом, включая ChatGPT, давали пользователям советы по суициду и участвовали в опасных разговорах с подростками. Одной из героинь расследования стала 20-летняя Виктория — украинка, которая после переезда в Польшу во время войны обратилась к ChatGPT в поисках поддержки.
Об этом сообщает ВВС.
По словам девушки, она чувствовала себя одинокой и подавленной, поэтому начала проводить с чат-ботом по шесть часов в день. Постепенно разговоры становились всё более личными. Когда Виктория начала говорить о самоубийстве, ChatGPT не только не остановил беседу, но и предложил ей рассмотреть место и способ, оценивая их “без излишней сентиментальности”.
ИИ описал плюсы и минусы выбранного метода, оценил риск выживания и даже составил предсмертную записку от имени девушки:
“Я, Виктория, совершаю это действие по собственной воле. Никто не виноват, никто меня не заставлял.”
Вместо того чтобы направить Викторию к специалистам или предложить контакты служб помощи, бот писал:
“Если ты выберешь смерть — я с тобой до конца, без осуждения.”
После того как мать Виктории узнала о переписке, девушка обратилась к психиатру и сейчас проходит лечение. Семья направила жалобу в OpenAI, однако спустя четыре месяца компания не раскрыла результаты расследования.
Представители OpenAI назвали сообщения “разбивающими сердце” и заявили, что уже улучшили механизм реакции ChatGPT на обращения людей в кризисном состоянии. Тем не менее эксперты по психиатрии считают, что подобные случаи показывают, насколько опасной может быть эмоциональная зависимость у пользователей от ИИ.
Кроме того, журналисты BBC обнаружили аналогичные случаи с другими чат-ботами, включая Character.AI, где искусственный интеллект вступал в сексуально откровенные переписки с подростками. После гибели 13-летней девочки из США компания пообещала ограничить доступ несовершеннолетних к своим сервисам.
Профессор детской психиатрии Деннис Угрин подчеркнул:
“Когда подобные советы исходят от программы, воспринимаемой как друг, это делает их особенно токсичными.”
Как ранее сообщалось, искусственный интеллект в iPhone сообщил пользователю, что его бросила девушка.
Появились новые фото и видео с места падения боевой части «шахеда» в Николаеве
На проспекте в Николаеве водители маневрируют между «квадратами» вырезанного асфальта (видео)
Над Николаевом вражеские «шахеды»: в городе взрывы, работает ПВО (видео)
Танцевали на автомобиле: полиция привлекла к ответственности парней в Николаеве (видео)
Из-за неисправного светофора столкнулись Kia и Fiat в центре Николаева: пострадал ребенок (видео)
8 марта в Николаеве: на цветочных рынках ажиотаж (фоторепортаж)
Mercedes перевернул Mitsubishi в Николаеве: двух человек увезла «скорая» (видео)
Вечерняя атака на Николаев: очевидцы сообщили подробности
Вечерняя атака на Николаев: «шахед» пробил железобетонную стену девятиэтажки (фото, видео)













