Никто не учил: в поведении ИИ обнаружили неожиданную черту, присущую людям

Никто не учил: в поведении ИИ обнаружили неожиданную черту, присущую людям
Ученые из Китайской академии наук и Южно-китайского технологического университета в Гуанчжоу доказали, что большие языковые модели (LLM), такие как ChatGPT или Gemini, могут спонтанно распознавать и классифицировать вещи подобно тому, как это делают люди.
Целью ученых было выяснить, могут ли LLM определять вещи на основе функции, эмоций, окружающей среды и т.д. Результаты исследования позволяют предположить, что ИИ способен отражать ключевые аспекты мышления людей без явного обучения этому, пишет газета South China Morning Post (SCMP).
"Понимание того, как люди концептуализируют и классифицируют природные объекты, дает критически важное представление о восприятии и познании", - говорится в научной статье.
В ходе исследования ученые давали ИИ "нестандартные" задачи, используя либо текст (для ChatGPT-3.5), либо изображение (для Gemini Pro Vision). Для этого они собрали 4,7 миллиона ответов на 1 854 природных объекта (собаки, стулья, яблоки и автомобили).
Они обнаружили, что LLM создали 66 параметров, чтобы упорядочить объекты так же, как это делают люди. Эти параметры выходят за рамки базовых категорий (например "пища") и охватывают сложные характеристики, например текстура, эмоциональная значимость и пригодность для детей.
Исследователи также обнаружили, что "мышление" мультимодальных моделей (сочетающих текст и изображение) еще больше напоминает человеческое мышление, поскольку ИИ обрабатывает визуальные и семантические характеристики одновременно.
Кроме того, команда обнаружила, что данные сканирования мозга (нейровизуализации) показали совпадение между тем, как ИИ и человеческий мозг реагируют на объекты.








