Риск «исчезновения»: Разработчики и исследователи искусственного интеллекта выступили с заявлением

Риск «исчезновения»: Разработчики и исследователи искусственного интеллекта выступили с заявлением

Риск «исчезновения»: Разработчики и исследователи искусственного интеллекта выступили с заявлением

Сегодня десятки лидеров индустрии искусственного интеллекта (ИИ), ученых и даже некоторых знаменитостей призвали снизить риск глобального уничтожения благодаря искусственному интеллекту, утверждая в кратком заявлении, что угроза исчезновения искусственного интеллекта должна быть главным глобальным приоритетом.

"Уменьшение риска исчезновения через ИИ должно быть глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война", - говорится в заявлении, опубликованном Центром безопасности ИИ.

Заявление было подписано ведущими представителями отрасли, включая генерального директора OpenAI Сэма Альтмана, так называемый "крестный отец" ИИ Джефри Гинтон, топ-менеджеры и исследователи Google DeepMind и Anthropic, Кевин Скотт, главный технический директор Microsoft, Брюс Шнаер, пионер безопасности в Интернете криптографии, защитник климата Билл Маккиббен и музыкант Граймс.

В заявлении подчеркивается широкая обеспокоенность по поводу конечной опасности неконтролируемого искусственного интеллекта. Специалисты по ИИ говорят, что общество еще далеко от развития общего ИИ, которое является предметом научной фантастики. Современные передовые чат-боты в основном воспроизводят шаблоны на основе обучаемых данных, которые они получили, и не думают самостоятельно.

Тем не менее, поток ажиотажа и инвестиций в индустрию искусственного интеллекта привели к призывам регулирования в начале эпохи искусственного интеллекта, прежде чем произойдут серьезные неудачи.

Это заявление появилось после вирусного успеха OpenAI's ChatGPT, который помог усилить гонку вооружений в технологической индустрии ИИ. В ответ на это все больше законодателей, правозащитных групп и технических инсайдеров выражают тревогу по поводу потенциала новой серии чат-ботов на основе ИИ для распространения дезинформации и вытеснения рабочих мест.

Хинтон, чья новаторская работа помогла сформировать современные системы искусственного интеллекта, ранее сказал CNN, что решил покинуть свой пост в Google и провозгласить в свисток об этой технологии после того, как осознал, что эти вещи становятся умнее нас.

Дэн Хендрикс, директор Центра безопасности искусственного интеллекта, написал в Twitter во вторник, что утверждение, впервые предложенное Дэвидом Кройгером, профессором ИИ в Кембридском университете, не препятствует обществу обращаться к другим типам риска ИИ, таким как предвзятость алгоритмов или дезинформация.

“Общество может управлять несколькими рисками одновременно; это не "или/или", а "да/и", - твитнул Хендрикс. "С точки зрения управления рисками, так же как было бы опрометчиво определять приоритетность текущего ущерба, было бы также безрассудно игнорировать их".

Добавить комментарий
Комментарии доступны в наших Telegram и instagram.
Новости
Архив
Новости Отовсюду
Архив