Страхи перед повстанням машин, що живляться науковою фантастикою, виявилися перебільшеними, принаймні на даний момент. Нове дослідження, проведене вченими з Технічного університету Дармштадта та Університету Бата, показало, що сучасні великі мовні моделі (LLM), такі як ChatGPT, не здатні до самостійних дій та виходу з-під контролю.
Обмеження сучасного ШІ
Хоча ШІ може призводити до негативних наслідків, таких як поширення фейкових новин та цифрове забруднення, дослідження показало, що ці моделі занадто обмежені у своїх алгоритмах і не здатні навчатися без втручання людини.
“Наше дослідження демонструє, що страх перед небажаними та непередбачуваними діями моделей не обґрунтований”, – зазначив Харіш Тайяр Мадабуші, один з авторів дослідження.
Людський фактор – головна загроза
Дослідження підтвердило, що доки моделі діють у рамках заданого програмування, немає підстав для побоювань. Проте, вчені зазначають, що людський фактор може становити велику загрозу, враховуючи зростання використання ШІ та пов’язаних із цим проблем.
“Нам потрібно зосередитися на ризиках, які можуть виникнути через використання цих технологій, а не на їх потенційні загрози як самостійні системи”, – підкреслила Ірина Гуревич, керівник дослідження.