ШІ Google-пошуковика порадив намазати піцу клеєм
ШІ Google-пошуковика порадив намазати піцу клеєм
- Функція Google «Огляди ШІ» може видавати користувачам некоректні відповіді.
- В одному з випадків алгоритм запропонував додати в соус для піци клей, в іншому ― висмоктати отруту гримучої змії.
- За словами представника Google, компанія використає ці приклади для поліпшення продукту.
Користувачі почали поширювати в соцмережах некоректні пропозиції нової функції «Огляди штучного інтелекту» в Google-пошуку.
В одному з випадків, що став вірусним, ШІ порадив користувачеві додати в соус для піци восьму частину склянки клею Elmer’s, щоб зробити сир більш липким. Ця рекомендація, ймовірно, ґрунтується на коментарі fucksmith 11-річної давності в гілці Reddit.
Функція «Огляди штучного інтелекту» сканує інтернет і видає відповідь, згенеровану ШІ. Вона активується не для кожного запиту і позначена відповідним ярликом.
В іншому випадку алгоритм заявив, що «біг із ножицями ― це кардіовправа, яка здатна збільшити частоту серцевих скорочень і вимагає концентрації та зосередженості». Він також «може поліпшити ваші пори і додати сил», сгенерував ШІ.
Більшість помилок Google відбуваються через нетрадиційні пошукові запити, покликані заплутати штучний інтелект.
Однак є більш серйозні ситуації, наприклад, видача неправильної інформації про дії в разі укусу гримучої змії. Згідно з постом журналістки Ерін Росс, алгоритм порекомендував накласти потерпілому джгут, розрізати рану і висмоктати отруту.
За даними Лісової служби США, це те, що не слід робити при укусі змії.
Це тільки частина з безлічі прикладів помилкових пропозицій функції «Оглядів ШІ», яку Google представив на конференції I/O 2024.
ШІ також стверджував, що другий президент США Джон Адамс закінчив Університет Вісконсину у Медісоні 21 раз, собака грала в НБА, а «Бетмен» ― поліцейський.
Згідно із заявою представника Google Меган Фарнсворт журналістам TechCrunch, помилки виникли через «дуже незвичні запити і не відображають досвід більшості людей».
Компанія вжила заходів проти порушень своєї політики і використовує ці «окремі приклади» для подальшого вдосконалення продукту, додала вона.
Нагадаємо, у серпні 2023 року з’ясувалося, що АІ-бот від мережі супермаркетів PAK’nSAVE у Новій Зеландії запропонував користувачам рецепт хлору.