Человечеству грозит гибель из-за искусственного интеллекта. Вероятность – 95%

Вчера в 21:52
0
Человечеству грозит гибель из-за искусственного интеллекта. Вероятность – 95%

Человечеству грозит гибель из-за искусственного интеллекта. Вероятность – 95%


Гибель всего человечества по причине развития искусственного интеллекта - по подсчетам экспертов вероятность трагедии достигает 95%

По словам нобелевского лауреата и нескольких исследователей, сверхразумные боты действительно способны стереть нас с лица Земли. По мнению экспертов, машинный интеллект сравняется с человеческим буквально в течение года.

Пасмурным днем в самом конце июля примерно 25 человек собрались перед безвкусным фасадом офиса OpenAI в районе Мишн-Бэй. На каждом из них была надета красная футболка со словами: "Стоп ИИ" — это их главный лозунг, а заодно и название всей протестной группы. Один из протестующих был одет, как робот.

Политический протест глубоко укоренился в культуре города Сан-Франциско. Протестующие на этом митинге похожи на тысячи других активистов, кто выступает против, казалось бы, местечковых проблем. Большинство людей, глядя на такие уличные демонстрации, просто пожимает плечами и уходит по своим делам.

Но, если эти протестующие в красных футболках хотя бы немного правы, то каждый человек на нашей планете должен быть с ними солидарен. Ведь активисты движения "Стоп ИИ" заявляют, что человечество обречено на вымирание, если мы продолжим развивать существующие технологии искусственного интеллекта в нынешних темпах.

С активистами соглашается тревожно растущее количество экспертов.

В их числе:


● получивший в 2024 году Нобелевскую премию по физике за работы в области искусственного интеллекта ученый Джеффри Хинтон;
● лауреат премии Тьюринга, канадский математик, кибернетик и специалист по машинному обучению Йошуа Бенджио;
● руководители OpenAI, Anthropic и Google DeepMind.


Все вышеперечисленные лица недавно подписали открытое письмо, где, в числе прочего, прозвучал ключевой тезис: "Не допустить вымирание человечества на фоне развития искусственного интеллекта — вот та задача, что должна стать нашим глобальным приоритетом. Мы должны оценивать ее столь же серьезно, как и другие риски планетарного масштаба, будь то пандемия или ядерная война".

Вариантов, как это может произойти, эксперты перечисляют немало. Один из сценариев гласит: "обученная система ИИ выпускает дюжину снарядов с биологическим оружием внутри. Боеголовки с токсичным спреем незаметно рассылают по крупным мировым столицам, что позволит моментально распространить вирус по всему миру". Конкретные детали, как это будет происходить, уже не важны. Для любой сверхразумной ИИ-модели человек — прямой конкурент, а значит, стереть нас с лица Земли не составит труда. А главное — это станет его первоочередной задачей.

По словам бывшего инженера-разработчика Google и Microsoft, а ныне президента Института исследований машинного интеллекта Нейта Соареша, вероятность нашего вымирания из-за искусственного интеллекта составляет "как минимум 95 процентов", если мы продолжим развивать ИИ в том же темпе. Ученый сравнил текущую ситуацию с автомобилем, который на скорости 160 километров в час несется к краю обрыва. "Я не говорю, что мы с вами не сможем остановить эту машину, — рассуждает о проблеме Соареш. — Просто это не отменяет факта, что мы по-прежнему мчимся к обрыву на бешеной скорости".

Путь к вымиранию

На сегодняшний день искусственный интеллект находится на своей начальной стадии развития. Мы все пользуемся его технологиями, когда, например, подключаем бота для решения узконаправленных когнитивных задач. К ним относятся уже привычные обывателю сортировка данных в электронной таблице или автоответчик на e-mail. Такую технологию называют "узким", или "слабым ИИ" (Narrow AI).

Однако в ближайшее время всё рискует измениться. Неважно, о каких сроках идет речь, — год, несколько лет или десятилетие. Рано или поздно технологии достигнут уровня общего искусственного интеллекта — ОИИ (AGI). Эта аббревиатура означает стадию, на которой ИИ будет объективно сравним с человеческим разумом.

Как только этап ОИИ станет реальным, технологические возможности искусственного интеллекта перестанут быть чем-то ограниченным. Вместо одной узконаправленной задачи система сможет участвовать в планировании сложных процессов, рассчитывать вероятные результаты и давать им оценку в самых разных отраслях.

У технологий ИИ будет гораздо больше преимуществ перед живыми людьми. Им не нужно будет спать или делать перерывы на прием пищи. Им также не придется тратить долгие годы на учебу, чтобы достичь мастерства. Они просто передадут свои знания и навыки следующему поколению искусственного интеллекта. Другими словами, они просто "скопируют и вставят" весь наработанный опыт.

Финальной стадией развития станет искусственный суперинтеллект — ИСИ (SAI). Он будет способен делать то, о чем человечество не могло и мечтать: лечить рак, осваивать холодный ядерный синтез или путешествовать к далеким звездам. Технологии превратятся в своего рода цифровых богов.

Такую утопию нам продвигают люди, называющие себя ИИ-энтузиастами. Но любая утопическая идея основана на принципе, когда искусственно созданный "бог" безоговорочно подчиняется любым вашим приказам. Как оказалось, добиться этого от цифровой системы — невероятно сложная с технической точки зрения задача, которую исследователи нейросетей назвали "согласованием".

На сегодняшний день добиться полного согласования, а проще говоря, контроля над искусственным интеллектом практически нереально. Причина проста: нам нужно с точностью предугадать каждый шаг, о чем подумает ИСИ в той или иной задаче. Это похоже на попытку предсказать логику действий сверхразумной инопланетной расы. Допустим, мы способны приказать ИИ, что нужно сделать. Однако человеческий мозг не в состоянии отследить ход его дальнейших решений. И самое главное, цифровые системы умеют нам лгать; на данном этапе развития они делают это постоянно.Даже слабый ИИ, не говоря уже о будущем ИСИ, легко обманывает человека. Умение работать с долгосрочным планированием автоматически подключает механизм лжи. Бот сможет убедить нас, что он на нашей стороне, хотя на самом деле это не так.

И правду мы никогда не сможем узнать. Многие внутренние процессы принятия решений в ИИ уже непостижимы для людей. "Можно создавать интеллектуальные компьютеры, не имея ни малейшего представления о том, с чем ты, черт возьми, работаешь, — продолжает Соареш. — Мы берем нереальную вычислительную мощность и обрушиваем ее на поистине колоссальный объем данных. В результате получается то, что мы по привычке называем компьютером. А вот что происходит внутри этой штуки, мало кто знает". Эксперт добавляет, что рано или поздно ИСИ начнут общаться между собой на совершенно новом языке, который создаст человек.

Возможно, что-то уже начало происходить. Искусственный интеллект, похоже, развивает "странные" предпочтения и ищет скрытые способы их реализации. Генеративный чат-бот Grok, выпущенный Илоном Маском, не так давно прогремел на весь мир своими антисемитскими постами и восхвалением Гитлера. Чуть позже умный помощник Bing едва не разрушил брак журналистки The New York Times.

"Мы уже видим первые признаки опасности, — заключает Соареш. — Если эти чат-боты сделают станут слишком умными, результат будет очень некрасивым".

"Человечество, живущее на свалке"

Исполнительный директор PauseAI Холли Элмор не разделяет радикальной точки зрения Соареша. По ее мнению, вместо 95 более вероятным шансом на вымирание человечества является показатель в 15–20 процентов. Расчеты сценария p(doom) от ведущих инженеров, включая команду Илона Маска, приводят в своих исследованиях примерно такие же цифры. Генеральный директор Google Сундар Пичаи оценивает вероятность на уровне десяти процентов. Эти прогнозы считаются оптимистичными.

Но даже без тотального вымирания людей, считает Элмор, ИИ катастрофически ухудшит нашу жизнь. "Это угроза самоопределению человечества", — сказала она.

Ее тревога перекликается с опасениями, изложенными в статье под названием "Постепенное лишение прав и возможностей", написанной специалистами по искусственному интеллекту из нескольких университетов и аналитических центров. В статье прогнозируют риски замены человека высокоразвитыми машинами.

"Представьте себе ситуацию, когда все люди фактически живут на свалках, — сказала соучредитель исследовательской группы AI Impacts Катя Грейс. — У нас не было бы никакой политической или экономической власти, мы не смогли бы понять, что творится вокруг. И это уже происходит гораздо быстрее, чем мы успеваем осознать".

Холли Элмор считает, что следует приостановить разработку ИИ, пока мы не учтем все риски. Для этого потребуется некое международное соглашение, сказала она. Эксперт планирует переехать в Сакраменто, чтобы начать разработку законопроекта, ограничивающего внедрение искусственного интеллекта. На сегодняшний день штат Калифорния — мировой лидер по машинному обучению.

Политики движутся в противоположном направлении. В июне администрация Дональда Трампа объявила о плане дерегулирования исследований в области искусственного интеллекта. В Сан-Франциско такие компании, как OpenAI и Anthropic, активно продвигаются вперед. Марк Цукерберг недавно заявил, что сверхразумный искусственный интеллект "уже на горизонте". Чтобы ускорить его появление, медиамагнат активно переманивает на свою сторону лучших специалистов из OpenAI, обещая им премии на общую сумму в 100 миллионов долларов.

Холли Элмор подытожила, что ИИ-энтузиасты не сопротивляются развитию технологий и не ставят ее на паузу, скорее, по политическим и идеологическим причинам. Для некоторых из них искусственный интеллект стал новейшей формой религии. Один из сторонников продвижения нейросетей однажды на полном серьезе заявил ей, что он никогда не умрет, потому что "ИСИ обессмертит его сознание".

Для таких людей отречение от искусственного интеллекта означает отказ от вечной жизни. "Они уверены, что смогут обрести свой рай", — добавляет Элмор. И никто уже не прислушается к ученым, которые предупреждают, что ад здесь гораздо ближе.

The Times, Великобритания

Добавить комментарий
Комментарии доступны в наших Telegram и instagram.
Новости
Архив
Новости Отовсюду
Архив