ШІ Google-пошуковика порадив намазати піцу клеєм

ШІ Google-пошуковика порадив намазати піцу клеєм

ШІ Google-пошуковика порадив намазати піцу клеєм

ШІ Google-пошуковика порадив намазати піцу клеєм. Головний колаж новини.
  • Функція Google «Огляди ШІ» може видавати користувачам некоректні відповіді.
  • В одному з випадків алгоритм запропонував додати в соус для піци клей, в іншому ― висмоктати отруту гримучої змії.
  • За словами представника Google, компанія використає ці приклади для поліпшення продукту.

Користувачі почали поширювати в соцмережах некоректні пропозиції нової функції «Огляди штучного інтелекту» в Google-пошуку.

В одному з випадків, що став вірусним, ШІ порадив користувачеві додати в соус для піци восьму частину склянки клею Elmer’s, щоб зробити сир більш липким. Ця рекомендація, ймовірно, ґрунтується на коментарі fucksmith 11-річної давності в гілці Reddit.

Функція «Огляди штучного інтелекту» сканує інтернет і видає відповідь, згенеровану ШІ. Вона активується не для кожного запиту і позначена відповідним ярликом.

В іншому випадку алгоритм заявив, що «біг із ножицями ― це кардіовправа, яка здатна збільшити частоту серцевих скорочень і вимагає концентрації та зосередженості». Він також «може поліпшити ваші пори і додати сил», сгенерував ШІ.

Більшість помилок Google відбуваються через нетрадиційні пошукові запити, покликані заплутати штучний інтелект.

Однак є більш серйозні ситуації, наприклад, видача неправильної інформації про дії в разі укусу гримучої змії. Згідно з постом журналістки Ерін Росс, алгоритм порекомендував накласти потерпілому джгут, розрізати рану і висмоктати отруту.

За даними Лісової служби США, це те, що не слід робити при укусі змії.

Це тільки частина з безлічі прикладів помилкових пропозицій функції «Оглядів ШІ», яку Google представив на конференції I/O 2024.

ШІ також стверджував, що другий президент США Джон Адамс закінчив Університет Вісконсину у Медісоні 21 раз, собака грала в НБА, а «Бетмен» ― поліцейський.

Згідно із заявою представника Google Меган Фарнсворт журналістам TechCrunch, помилки виникли через «дуже незвичні запити і не відображають досвід більшості людей».

Компанія вжила заходів проти порушень своєї політики і використовує ці «окремі приклади» для подальшого вдосконалення продукту, додала вона.

Нагадаємо, у серпні 2023 року з’ясувалося, що АІ-бот від мережі супермаркетів PAK’nSAVE у Новій Зеландії запропонував користувачам рецепт хлору.

Додати коментар
Коментарі доступні в наших Telegram и instagram.
Новини
Архів
Новости Отовсюду
Архів