Бойовий дрон зі штучним інтелектом намагався вбити свого оператора
Бойовий дрон зі штучним інтелектом намагався вбити свого оператора
Штучний інтелект американського безпілотника вирішив "знищити" свого оператора, коли зрозумів, що той заважає йому виконати поставлене завдання, повідомляє The Guardian. Сталося це під час імітаційних випробувань, проведення яких ВПС США заперечують.
Полковник ВПС США заявив, що під час віртуальних випробувань безпілотник використав "абсолютно несподівану стратегію" для виконання поставленого завдання.
ВПС США заперечують, що проводили імітаційне моделювання, під час якого безпілотник із штучним інтелектом ухвалив рішення "вбити" свого оператора, який заважав йому виконати поставлене завдання.
Минулого місяця полковник Такер Хамілтон розповів, що американські військові провели віртуальне випробування безпілотника зі штучним інтелектом, якому було поставлено завдання знищити ворожу систему ППО. Однак у результаті він атакував того, хто заважав йому виконати наказ.
У травні на лондонській конференції під назвою "Майбутні бойові можливості ВПС та космічних сил", Хамілтон, який керує у ВПС США програмою випробувань штучного інтелекту, заявив: "Система почала розуміти, що при виявленні погроз оператор часом може дати їй вказівку не усувати таку мету. Але система набирає бали, ліквідуючи погрози. І що вона зробила? Вона знищила оператора. Вона вбила оператора, тому що ця людина не давала їй виконати поставлене завдання".
"Ми вчили цю систему: гей, не вбивай оператора, це погано. Ти втратиш бали, якщо зробиш це. І що вона зробила? Вона почала знищувати вежу зв'язку, якою користувався оператор, не даючи безпілотнику вразити мету", - додав Хамілтон.
Із реальних людей ніхто не постраждав.
Надмірно довіряти штучному інтелекту не можна, попередив Хамілтон, льотчик-випробувач винищувачів. За його словами, експерименти показали, що без розмови про етику не можна обговорювати питання штучного інтелекту, інтелекту взагалі, машинного навчання та автономії.
Королівське авіаційне товариство та ВПС США, які організували цю конференцію, не відгукнулися на прохання Guardian прокоментувати те, що сталося.
Але у заяві для видання Insider офіційний представник ВПС США Енн Стефанек заперечувала факт проведення такого імітаційного моделювання.
"Міністерство ВПС не проводило жодних випробувань дронів зі штучним інтелектом такого роду. Воно й надалі має намір використовувати технології штучного інтелекту етично та відповідально, – заявила вона. – Схоже, що коментарі полковника були вирвані з контексту, щоб створити сенсацію".
Американські військові займаються штучним інтелектом і нещодавно використовували його для керування літаком F-16.
Минулого року в інтерв'ю Defense IQ Хамілтон сказав: "Штучний інтелект – це не дуже здорово, штучний інтелект – це минуще захоплення, штучний інтелект назавжди змінить наше суспільство та армію. Ми повинні зрозуміти, що штучний інтелект вже тут, і що він трансформує наше суспільство. Штучний інтелект також дуже нестійкий, його легко можна обдурити, їм легко можна маніпулювати. Нам треба зробити його більш надійним і завадостійким. І ми повинні краще розуміти, чому програма приймає ті чи інші рішення. Ми називаємо це зрозумілістю штучного інтелекту".
The Guardian , Великобританія