Понимают ли большие нейронные языковые модели (LMs) смыслы? 👾
В мире, где ИИ всё больше проникает в нашу жизнь, особенно в сферу социальных исследований, возникает вопрос: способны ли большие нейронные языковые модели (LMs) понимать смыслы?
Что такое большие нейронные языковые модели (LMs)?
LMs - это алгоритмы машинного обучения, которые обучаются предсказывать следующий элемент последовательности, будь то символ, слово или предложение. Благодаря огромному количеству данных, на которых они обучаются, LMs демонстрируют впечатляющие результаты в различных задачах, включая перевод, создание текста и ответов на вопросы.
Но понимают ли они смыслы?
Чтобы ответить на этот вопрос, нужно определиться, что мы подразумеваем под "смыслом". Эмили М. Бендер и Александр Коллер предлагают рассматривать
смысл как связь между языковой формой и коммуникативным намерением. Проще говоря, смысл - это то, что мы хотим выразить с помощью слов, а также то, что другой человек понимает из нашего высказывания.
Авторы статьи "Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data" аргументируют, что LMs, обучаясь только на языковой форме, не могут в принципе понимать смыслы. Они приводят следующие аргументы:
🖇
Отсутствие коммуникативного намерения: LMs обучаются на текстах, которые не связаны с конкретным контекстом или намерением говорящего. Они не знают, что хотел сказать автор текста, и не могут понять, что хочет выразить человек, используя эти слова.
🖇
Проблема основания: LMs не имеют доступа к реальному миру и не могут связать слова с конкретными объектами или явлениями. Например, LM может знать, что "собака" - это животное, но она не сможет узнать, что это за собака, если ей не показать фотографию.
🖇
Активное участие слушателя: Понимание смысла требует не только знания слов, но и активного участия слушателя. Слушатель должен учитывать контекст, тон голоса говорящего, его невербальные сигналы и многое другое. LMs не способны к такому активному участию.
Пример "Испытание осьминогом"
Чтобы иллюстрировать свою точку зрения, авторы представляют мысленный эксперимент с "осьминогом". Представьте, что два человека, говорящих на одном языке, оказались на отдельных островах и могут общаться только с помощью телеграфа. "Осьминог", который не может видеть эти острова и не знает их язык, подключается к телеграфу и начинает анализировать их переписку.
"Осьминог" может научиться предсказывать ответы одного человека на слова другого, но он не сможет понять смысл их общения. Если один из людей начнет говорить о чем-то конкретном, например, о строительстве ловушки для рыбы, "осьминог" не сможет понять инструкции и дать осмысленный ответ. Он может только повторять слова, которые он уже слышал в похожих контекстах.
Так что же мы можем сказать о LMs и понимании смыслов?
LMs способны выполнять многие задачи, которые требуют обработки языка, но они не понимают смыслы в том же смысле, что и люди. Они могут использовать слова в соответствии с установленными правилами, но они не могут понять их истинное значение и не могут связать их с реальным миром.
Bender, Emily M., и Alexander Koller. 2020. «Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data». Сс. 5185–98 в Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. Online: Association for Computational Linguistics.