Ризик «зникнення»: розробники та дослідники штучного інтелекту виступили із заявою

Ризик «зникнення»: розробники та дослідники штучного інтелекту виступили із заявою

Ризик «зникнення»: розробники та дослідники штучного інтелекту виступили із заявою

Сьогодні десятки лідерів індустрії штучного інтелекту (ІІ), вчених і навіть деяких знаменитостей закликали знизити ризик глобального знищення завдяки штучному інтелекту, стверджуючи в короткій заяві, що загроза зникнення штучного інтелекту має бути головним глобальним пріоритетом.

"Зменшення ризику зникнення через ІІ має бути глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна", - йдеться у заяві, опублікованій Центром безпеки ІІ.

Заява була підписана провідними представниками галузі, включаючи генерального директора OpenAI Сема Альтмана, так званий "хрещений батько" ІІ Джефрі Гінтон, топ-менеджери та дослідники Google DeepMind та Anthropic, Кевін Скотт, головний технічний директор Microsoft, Брюс Шнаєр, піонер безпеки в Інтернеті , захисник клімату Білл Маккіббен та музикант Граймс.

У заяві підкреслюється широке занепокоєння щодо кінцевої небезпеки неконтрольованого штучного інтелекту. Фахівці з ІІ кажуть, що суспільство ще далеке від розвитку спільного ІІ, яке є предметом наукової фантастики. Сучасні передові чат-боти в основному відтворюють шаблони на основі даних, які вони отримали, і не думають самостійно.

Проте, потік ажіотажу та інвестицій у індустрію штучного інтелекту призвели до закликів регулювання на початку епохи штучного інтелекту, як відбудуться серйозні невдачі.

Ця заява з'явилася після вірусного успіху OpenAI's ChatGPT, який допоміг посилити гонку озброєнь у технологічній індустрії ІІ. У відповідь на це все більше законодавців, правозахисних груп та технічних інсайдерів висловлюють тривогу щодо потенціалу нової серії чат-ботів на основі ІІ для поширення дезінформації та витіснення робочих місць.

Хінтон, чия новаторська робота допомогла сформувати сучасні системи штучного інтелекту, раніше сказав CNN, що вирішив залишити свою посаду в Google і проголосити у свисток про цю технологію після того, як усвідомив, що ці речі стають розумнішими за нас.

Ден Хендрікс, директор Центру безпеки штучного інтелекту, написав у Twitter у вівторок, що твердження, вперше запропоноване Девідом Кройгером, професором ІІ в Кембридському університеті, не перешкоджає суспільству звертатися до інших типів ризику ІІ, таких як упередженість алгоритмів або дезінформація.

“Суспільство може керувати кількома ризиками одночасно; це не "або/або", а "так/і", - твітнув Хендрікс. "З точки зору управління ризиками, так само як було б необачно визначати пріоритетність поточних збитків, було б також безрозсудно ігнорувати їх".

Додати коментар
Коментарі доступні в наших Telegram и instagram.
Новини
Архів
Новини Звідусіль
Архів