Никто не учил: в поведении ИИ обнаружили неожиданную черту, присущую людям

Сегодня в 06:00
0
Никто не учил: в поведении ИИ обнаружили неожиданную черту, присущую людям

Никто не учил: в поведении ИИ обнаружили неожиданную черту, присущую людям

Ученые из Китайской академии наук и Южно-китайского технологического университета в Гуанчжоу доказали, что большие языковые модели (LLM), такие как ChatGPT или Gemini, могут спонтанно распознавать и классифицировать вещи подобно тому, как это делают люди.

Целью ученых было выяснить, могут ли LLM определять вещи на основе функции, эмоций, окружающей среды и т.д. Результаты исследования позволяют предположить, что ИИ способен отражать ключевые аспекты мышления людей без явного обучения этому, пишет газета South China Morning Post (SCMP).

"Понимание того, как люди концептуализируют и классифицируют природные объекты, дает критически важное представление о восприятии и познании", - говорится в научной статье.

В ходе исследования ученые давали ИИ "нестандартные" задачи, используя либо текст (для ChatGPT-3.5), либо изображение (для Gemini Pro Vision). Для этого они собрали 4,7 миллиона ответов на 1 854 природных объекта (собаки, стулья, яблоки и автомобили).

Они обнаружили, что LLM создали 66 параметров, чтобы упорядочить объекты так же, как это делают люди. Эти параметры выходят за рамки базовых категорий (например "пища") и охватывают сложные характеристики, например текстура, эмоциональная значимость и пригодность для детей.

Исследователи также обнаружили, что "мышление" мультимодальных моделей (сочетающих текст и изображение) еще больше напоминает человеческое мышление, поскольку ИИ обрабатывает визуальные и семантические характеристики одновременно.

Кроме того, команда обнаружила, что данные сканирования мозга (нейровизуализации) показали совпадение между тем, как ИИ и человеческий мозг реагируют на объекты.

 

internetua.com

Добавить комментарий
Комментарии доступны в наших Telegram и instagram.
Новости
Архив
Новости Отовсюду
Архив