Війна, яку неможливо зупинити: бойовий ШІ може запустити глобальний конфлікт за секунди

Сьогодні о 17:30
Війна, яку неможливо зупинити: бойовий ШІ може запустити глобальний конфлікт за секунди

Війна, яку неможливо зупинити: бойовий ШІ може запустити глобальний конфлікт за секунди

Наразі технології штучного інтелекту бурхливо розвиваються та активно змінюють світ. Особливе місце ШІ нині займає в оборонній галузі. Адже між великими державами, такими як США, Китай та Росія, розгортається змагання за першість у сфері військового штучного інтелекту. Однак, як попереджають експерти, ця технологія може зробити війну абсолютно неконтрольованою.

Про це повідомляє видання “Експерт” із посиланнями на публікації в il Giornale та The New York Times.

Ситуація довкола військового ШІ нагадує часи 1940-х років. Саме у цей період з’явилась ядерна зброя, а разом із нею й розпочалась масштабна ядерна гонка між США та Радянським Союзом. Проте, на думку аналітиків, нейромережі в оборонній сфері можуть виявитися ще небезпечнішими, ніж ядерне озброєння.

Справа в тому, що вже звичні людству види озброєння є відносно передбачуваними, чого не скажеш про штучний інтелект. Нейромережі є такою собі “чорною скринькою”: у них надходять певні дані, а після їхньої обробки з’являється результат. Однак як саме алгоритм обробляє інформацію та ухвалює ті чи інші рішення — достеменно невідомо. Отже, повністю виключати сценарій, за якого нейромережа вийде з-під контролю творців, неможливо.

Військовий штучний інтелект вже у певній мірі перевершує людські можливості. До прикладу, військова ШІ-система Maven від Palantir Technologies здатна виявляти цілі у 50 разів швидше за офіцерів розвідки. Водночас ШІ поступово набуває автономності. Під час військових парадів Китай демонстрував дрони, які діють самостійно без команд пілотів.

Отримав ШІ й можливість вивчати війну у реальному часі. Військові аналітичні системи навчаються на даних, які надходять з поля бою в Україні.

Та попри високу швидкість обробки даних алгоритми також помиляються. А у випадку військового ШІ такі помилки нерідко коштують життів цивільних людей. Трагічним прикладом слугує Іран, де через помилку штучного інтелекту було завдано удару по школі.

Однак подібні трагедії не зупиняють глобальних гравців. Зокрема, у Пентагоні ШІ-системи вже отримали статус стандартного озброєння. Водночас міністр оборони США Піт Гегсет наполягає на терміновому впровадженні ШІ у всіх підрозділах оборонного відомства.

На глобальному ж рівні розвиток та впровадження штучного інтелекту практично не регулюється, а технологічні експерти розділилися на два “табори”. Частина розробників вважає, що ШІ стане новою технологією стримування, через яку жодна зі сторін не наважуватиметься на ескалацію. Проте існує й протилежна думка: нейромережі обробляють інформацію та ухвалюють рішення значно швидше, ніж люди. А відтак вони можуть спровокувати надзвичайно швидку ескалацію, яку не контролюватиме жоден офіцер. Отже, світ майже миттєво може опинитися у стані глобального конфлікту.

Додати коментар
Коментарі доступні в наших Telegram и instagram.
Новини
Архів
Новини Звідусіль
Архів