Ученые нашли доказательства того, что ИИ может думать, как человек
Способность людей концептуализировать объекты окружающей среды, такие как «собака», «машина» или «яблоко», включает не только их визуальные характеристики (цвет, форма, размер), но и понимание их функций, эмоциональной ценности и культурного контекста. Эти многогранные представления формируют основу нашего познания. В последние годы, на фоне стремительного прогресса в области больших языковых моделей (БЯМ), возник вопрос: могут ли эти системы формировать представления о концептах, сходные с человеческими, опираясь исключительно на языковые и мультимодальные данные?
Большинство исследований в сфере искусственного интеллекта сосредоточено на точности распознавания объектов, но редко затрагивает вопрос о том, действительно ли модели «понимают» значение этих объектов. Хотя современный ИИ способен различать изображения кошек и собак, остается неясным, чем такое «распознавание» отличается от человеческого «понимания».
Команда исследователей провела серию поведенческих экспериментов и нейровизуализаций, чтобы выяснить, как большие языковые модели представляют объекты и насколько эти представления схожи с человеческим мышлением. В ходе работы была собрана 4,7 миллиона оценок триплетов (сравнение групп по три объекта) от традиционных и мультимодальных языковых моделей, на основе которых были сформированы компактные 66-мерные векторы, отражающие сходство между 1854 естественными объектами.
Полученные векторы продемонстрировали устойчивость и точно отразили взаимосвязи между объектами, формируя семантические группы, которые удивительным образом совпадают с теми, что возникают в человеческом мышлении. Эти базовые измерения можно интерпретировать, что указывает на то, что большие языковые модели развивают концептуальные представления, аналогичные человеческим.
Далее команда сравнила, насколько последовательно действуют большие языковые модели по сравнению с людьми. Выяснилось, что БЯМ демонстрируют большую последовательность. В то же время исследование выявило важное различие: люди, принимая решения, склонны объединять визуальные характеристики с их смысловым значением, в то время как БЯМ больше ориентируются на абстрактные понятия и семантические метки.
Таким образом, большие языковые модели не являются простыми «попугаями», которые просто воспроизводят речь. Они обладают внутренним пониманием концепций реального мира, близким к человеческому. Главный вывод заключается в том, что, несмотря на то, что «мыслительные процессы» приводят ИИ и человека к подобным когнитивным результатам, пути достижения этих результатов различаются.
Обсудим?
Смотрите также: