Маск та дослідники попередили про небезпеку гонки у сфері штучного інтелекту

29.03.2023 в 19:51
Маск та дослідники попередили про небезпеку гонки у сфері штучного інтелекту

Маск та дослідники попередили про небезпеку гонки у сфері штучного інтелекту

Ряд відомих дослідників штучного інтелекту та мільярдер Ілон Маск підписали відкритий лист із закликом до дослідницьких лабораторій по всьому світу призупинити розробку великомасштабних систем у цій сфері через "глибинні ризики для суспільства і всього людства".

У листі, опублікованому некомерційною організацією "Інститут майбутнього життя" наголошується, що сьогодні лабораторії штучного інтелекту (ШІ) втягнулися в "некеровану гонку" з розробки та впровадження систем машинного навчання, які є "незрозумілими, непередбачуваними та непідконтрольними навіть їхнім творцям".

"Ми закликаємо всі лабораторії негайно згорнути навчання систем ШІ потужніше GPT-4 як мінімум на півроку, - йдеться в листі. - Ця перерва має бути публічною, достовірною і стосуватиметься всіх ключових учасників. Якщо домовитися про це в найкоротші терміни не вдасться, уряди повинні втрутитися та запровадити мораторій".

Крім інших, лист підписали: письменник Юваль Ноа Харарі, співзасновник Apple Стів Возняк, співзасновник Skype Яан Таллінн, політик Ендрю Янг і ряд відомих дослідників і керівників компаній у сфері ШІ, зокрема Стюарт Рассел, Йошуа Бенжіо, Гері Маркус і Емад Мостак. Однак до нових імен у списку слід ставитися з обережністю, оскільки є відомості, що декого занесли туди заради жарту (зокрема, генерального директора OpenAI Сема Альтмана, який багато в чому визначає хід гонки у сфері ШІ).

Навряд чи лист вплине на сформований клімат у дослідженнях ШІ, оскільки технологічні гіганти на кшталт Google і Microsoft поспішають із запуском нових продуктів, часом зовсім не зважаючи на минулі побоювання щодо безпеки та етики. І все-таки це говорить про те, що опір підходу "відправ зараз, а виправ пізніше" міцніє. Згодом це неприйняття може перекинутися у політику та стати предметом розгляду законодавців.

Як зазначається у листі, сама компанія OpenAI визнала потенційну необхідність "незалежної перевірки" майбутніх систем ШІ щодо відповідності стандартам безпеки. Автори листа вважають, що момент для цього вже настав.

"Лабораторії ШІ та незалежні експерти повинні скористатися цією перервою для спільної розробки та впровадження спільних протоколів безпеки при проєктуванні та розробці просунутих систем ШІ, які ретельно перевірятимуться і контролюватимуться незалежними сторонніми експертами, — пишуть вони. — Ці протоколи повинні гарантувати однозначну безпеку".

Зупиніть масштабні експерименти зі штучним інтелектом — відкритий лист

Ми закликаємо всі лабораторії ШІ негайно згорнути навчання систем ШІ потужніше за GPT-4 як мінімум на півроку.

Системи штучного інтелекту, які потенційно змагаються з людиною, можуть становити глибинну небезпеку для суспільства та людства. Це показали великі дослідження та визнано провідними лабораторіями ШІ. Як зазначено в загальновизнаних Асиломарських принципах, просунутий ШІ може тягнути за собою корінну зміну в житті на Землі, тому його слід планувати та керувати ним з належною ретельністю та відповідними ресурсами. На жаль, належного рівня планування та управління ми не спостерігаємо — навпаки, за останні місяці лабораторії штучного інтелекту втягнулися у некеровану гонку з розробки та впровадження систем машинного навчання, які незрозумілі, непередбачувані та непідконтрольні нікому, навіть їхнім творцям.

Сучасні системи штучного інтелекту поступово стають конкурентоспроможними у вирішенні спільних завдань, і ми повинні запитати себе: чи можемо ми дозволити, щоб машини заполонили наші інформаційні канали пропагандою та неправдою? Чи потрібно автоматизувати всі поспіль робочі місця, навіть ті, що приносять задоволення? Чи треба розвивати нелюдський розум, який зрештою перевершить нас числом, перехитрить і замінить як безнадійно застарілих?

Чи можемо ми ризикувати втратою контролю над усією нашою цивілізацією? Такі рішення не можна віддавати на відкуп технологічним лідерам, яких ніхто не обирав. Потужні системи штучного інтелекту слід розробляти лише в тому випадку, якщо ми повністю впевнені, що вони самі принесуть користь, а супутні ризики виявляться керованими. Ця впевненість має бути виправдана і зміцнюватися зі зростанням потенційних наслідків. У нещодавній заяві про розвиток ШІ компанія OpenAI визнала: "У якийсь момент перед навчанням майбутніх систем може знадобитися незалежна оцінка, а перед розробкою найпередовіших з них обмеження швидкості зростання обчислень". Ми згодні. І цей момент настав.

Тому ми закликаємо всі лабораторії негайно згорнути навчання систем ШІ потужніше за GPT-4 як мінімум на півроку. Ця перерва має бути публічною та достовірною та дотримуватися всіма ключовими учасниками. Якщо домовитися про це в найкоротший термін не вдасться, уряди мають втрутитися та запровадити мораторій.

Лабораторії ШІ та незалежні експерти повинні скористатися цією перервою для спільної розробки та впровадження загальних протоколів безпеки при проєктуванні та розробці просунутих систем ШІ, які ретельно перевірятимуться та контролюватимуться незалежними сторонніми експертами. Ці протоколи повинні гарантувати однозначну безпеку систем, що підтримують їх. Це означає не паузу у розвитку ШІ як такого, а лише призупинення небезпечної погоні за все більшими та непередбачуваними моделями чорної скриньки, чиї можливості ще тільки виявляються.

Дослідження та розробки в області ШІ повинні бути переорієнтовані, щоб зробити сучасні потужні системи більш точними, безпечними, прозорими, надійними, узгодженими, безвідмовними та вірними.

Паралельно розробники мають у співпраці з політиками значно прискорити розробку надійних систем управління ШІ. У них мають увійти щонайменше такі елементи: нові, дієздатні регулюючі органи з питань ШІ; нагляд та відстеження високопродуктивних систем ШІ та великих масивів обчислювальних потужностей; системи походження та водяних знаків, що допомагають відрізнити оригінал від синтезованого продукту та відстежувати витоки моделей; надійна екосистема аудиту та сертифікації; відповідальність за шкоду, заподіяну ШІ; надійне державне фінансування технічних досліджень безпеки ШІ; та, нарешті, забезпечені ресурсами інститути для подолання серйозних економічних та політичних потрясінь у результаті діяльності ШІ (особливо для демократій).

У майбутньому завдяки ШІ людство зможе домогтися процвітання. Якщо ми досягнемо успіху в створенні потужних систем, на нас чекає "літо ШІ", коли ми пожинатимемо плоди, розробивши ці системи заради загального блага і давши суспільству можливість адаптуватися. Суспільство вже зупиняло застосування інших технологій із потенційно катастрофічними для себе наслідками. Ми можемо повторити це тут. Давайте разом радіти "літу ШІ", а не кидатися стрімголов в осінь.

Йошуа Бенжіо, лауреат премії Т'юрінга за розвиток глибокого навчання, голова Монреальського інституту алгоритмів навчання.

Стюарт Рассел, професор комп'ютерних наук Університету Берклі, директор Центру інтелектуальних систем та співавтор підручника "Штучний інтелект: сучасний підхід".

Ілон Маск, генеральний директор SpaceX, Tesla та Twitter.

Стів Возняк, співзасновник Apple.

Юваль Ной Харарі, письменник та професор Єврейського університету в Єрусалимі.

Ендрю Янг, співголова партії "Вперед", кандидат у президенти 2020 року, президентський посол у галузі глобального підприємництва.

Коннор Ліхи, генеральний директор Conjecture.

Яан Таллінн, співзасновник Skype, Центр вивчення екзистенційного ризику, Інститут майбутнього життя.

The Verge, США

Додати коментар
Коментарі доступні в наших Telegram и instagram.
Новини
Архів
Новини Звідусіль
Архів