Поддерживает ли последний инструмент перевода Google гипотезу языка мысли Джерри Фодора?

Google недавно обновил свой инструмент перевода, так что теперь он может переводить между языковыми парами, которых он раньше не видел, что они называют «переводом с нулевым выстрелом». Полный текст статьи см. здесь , а краткое содержание — здесь .

Например, они могут обучить нейронную сеть переводить с японского на английский и с английского на корейский. Затем они просят его выполнить перевод с японского на корейский, и он выполняет «достаточно» хорошие результаты, хотя его никогда не обучали переводить эту конкретную языковую пару.

Что меня поразило, так это следующий вывод из статьи:

5.1 Доказательства интерлингва:

Несколько обученных сетей действительно демонстрируют четкое визуальное свидетельство общего представления . Например, рисунок 2 ниже был создан на основе модели «многие ко многим», обученной английскому↔японскому и английскому↔корейскому языкам. Чтобы визуализировать модель в действии, мы начали с небольшого корпуса из 74 троек семантически идентичных межъязыковых фраз. То есть каждая тройка содержала фразы на английском, японском и корейском языках с одним и тем же основным значением.[...] Изучение этих групп показывает, что каждая цепочка представляет собой отдельное предложение, а группы цепочек обычно представляют собой набор переводов одно и то же основное предложение , но с разными исходным и целевым языками.

Другими словами, Google смог сгруппировать предложения в базовую геометрическую структуру, которая соответствует метаязыку или, как говорят авторы, интерлингва. Некоторые из популярных статей, которые я читал об этом, заходят так далеко, что говорят, что нейронная сеть Google «изобрела свой собственный язык», но я чувствую, что они просто делают сенсации.

Мой вопрос: поддерживает ли это свидетельство метаязыка или общего представления, лежащего в основе всех языков, такие теории, как гипотеза Джерри Фодора о языке мысли (т. е. ментализ) или заявление Хомского о существовании универсальной грамматики ?

Конечно, ее можно использовать в качестве поддержки, однако уже доказано, что универсальная грамматика Хомского неверна. См. « Нет языкового инстинкта » Сэмпсона, а также критические замечания, особенно в отношении пираха.
Разве это не поддерживает как раз обратное? «Интерлингва» — это интерпретация исследователями-людьми глобальных состояний нейросети, сама же сеть, с другой стороны, не основана на примитивах и не комбинирует их композиционно, как хотелось бы LOT и UG. Мало того, что сеть Google только эмулирует интерлингву, она разработала эту эмуляцию, которая идет вразрез со всеми спекуляциями о «зашитом языке». То, что объединение разных языков оптимизирует перевод, не более удивительно, чем существование эсперанто , но не поддерживает эсперанто в мозгу.
Как это соотносится с двумя разными людьми, переводящими J->E, а затем E->K?
Никогда не будет истинного языка мысли, пока вы не сможете полностью отказаться от словесного представления . Пока вы просто представляете что-то, вам всегда не хватает того, что должно быть представлено. Это просто еще один код, который требует, чтобы люди расшифровывали его, потому что нет предсказуемого способа освободить машины от кода.
@Conifold одно из предположений о распознавании образов (нейронные сети, SVM и т. д.) заключается в том, что существует шаблон, который необходимо обнаружить, если алгоритм PR не может найти естественный шаблон и «принуждает» его к существующим данным. , это приводит к переоснащению, когда алгоритм хорошо работает на тренировочном наборе, но с треском терпит неудачу при попытке обобщить новые шаблоны. В данном случае это означает, что NNet от Google сможет очень хорошо переводить существующие языковые пары, но не сможет обобщить на новые языковые пары — тот факт, что он смог так эффективно разделить пространство, замечателен.
Учитывая, что японский и корейский языки имеют большое задокументированное сходство , этот пример больше похож на случай, когда менталист повышает свои шансы на красивый результат, чем на что-либо еще. В этом отношении этот вопрос может подойти для Skeptics.SO.
Лингвистам хорошо известно, что основные языки, с которыми в основном имеет дело Google, имеют много общего (они становятся редкостью за пределами этой группы, что и погубило первоначальный UG, и, вероятно, отражают типичное использование, а не ментальный язык). Перевод их в интерполирующий язык был сделан, например, на эсперанто. Что примечательно для меня, так это то, что интерлингва была создана нейросетью, а не человеком, и что это подтверждает для меня, так это «пластичность нейросетей», их способность эмулировать различные структуры без предварительного составления примитивов, включая неязыковое мышление в мозгу.
На самом деле я не читаю по-испански или по-французски, но я нахожу, что если я смотрю на предложения из этих языков, они кажутся удивительно знакомыми; неудивительно, что языковые инструменты Google способны найти много общего.
@bright-star как человек, изучавший японский и корейский (а также говорящий по-китайски), я бы сказал, что из-за схожести грамматики между двумя языками и того факта, что я даже выполнял перевод между языками, которых я не знаю. иметь высокий уровень мастерства, используя Google Translate, чтобы делать то же самое, нет достаточных доказательств того, что он делает что-то сложное. Учитывая, что более сложные предложения (даже если вы предоставляете достаточно контекста) довольно плохо проходят тест на обратный перевод, я хотел бы увидеть больше доказательств, прежде чем делать это заявление.

Ответы (2)

Тезис, стоящий за менталезом, является алгоритмическим и репрезентативным. Это также постулируется на основе теории языка. Google переводчик — это искусственный интеллект, основанный на нейронных сетях, а нейронные сети не используют представление, а Google на самом деле не использует язык. Следовательно, Google Translate не может ни подтвердить, ни обнаружить репрезентативный ментальный язык, ни универсальный язык.

Это интерлингва?

Из бумаги :

Мы предлагаем простое и элегантное решение для использования одной модели нейронного машинного перевода (NMT) для перевода между несколькими языками. Наше решение не требует изменений в архитектуре модели по сравнению с нашей базовой системой, но вместо этого вводит искусственный токен в начале входного предложения, чтобы указать требуемый целевой язык.

Из Википедии :

Нейронный машинный перевод (NMT) — это подход к машинному переводу, который использует искусственную нейронную сеть для прогнозирования вероятности последовательности слов, обычно моделируя целые предложения в единой интегрированной модели.

Моделирование последовательности слов сначала обычно выполнялось с использованием рекуррентной нейронной сети (RNN). Двунаправленная рекуррентная нейронная сеть, известная как кодировщик, используется нейронной сетью для кодирования исходного предложения для второй RNN, известной как декодер, которая используется для предсказания слов на целевом языке. Рекуррентные нейронные сети сталкиваются с трудностями при кодировании длинных входных данных в один вектор. Это можно компенсировать с помощью механизма внимания, который позволяет декодеру сосредоточиться на разных частях ввода при генерации каждого слова вывода.

Так что, может быть .

Система, описанная в этой статье, переводит предложения в векторы (строка чисел фиксированной длины; это стандартный метод ), а затем переводит эти числа обратно в предложения. Эта система использует одну и ту же модель для перевода нескольких разных языков, рассматривая все языки как один и тот же язык с более сложной грамматикой. Предыдущие системы использовали отдельную модель для каждой пары языков.

Представление Apfel в одной модели может быть отображено на представление pomme в другой, потому что оба относятся к яблокам! Яблоки обычно описываются как красные или зеленые, независимо от того, какой язык вы используете, поэтому структура вокруг них одинакова. (Особенно, если вы используете корпус, состоящий из одного и того же документа, переведенного на множество языков — но я ожидал бы этого, даже если бы вы этого не делали.)

Так что в какой-то степени это внутреннее представление является промежуточным языком. Однако, вероятно, правильнее было бы описать это как корреляцию . См. раздел 5.2 статьи (выделено мной):

Например, на рисунке 3a показана проекция векторов внимания t-SNE из модели, которая была обучена португальскому → английскому (синий) и английскому → испанскому (желтый) и выполняла нулевой перевод с португальского → испанский (красный). Эта проекция показывает 153 семантически идентичных триплета, переведенных, как описано выше, что в сумме дает 459 переводов. Большая красная область слева в основном содержит нулевой перевод с португальского на испанский. Другими словами, для значительного числа предложений нулевой перевод имеет другое вложение, чем два обученных направления перевода. С другой стороны, некоторые векторы перевода с нулевым выстрелом, похоже, действительно близки к вложениям, найденным в других языках, как в большой области справа.

Естественно задаться вопросом, имеет ли какое-либо значение большой кластер «разделенных» нулевых переводов. Окончательный ответ требует дальнейшего изучения, но в этом случае нулевые переводы в отделенной области, как правило, имеют более низкие оценки BLEU.

Кроме того, этот «интерлингва» (вектор), вероятно, не имеет грамматики. Снисходительно, вы могли бы описать его как импрессионистское произведение искусства частей предложения, или числовое представление сложных понятий, или протокол, но я не думаю, что это действительно язык . Это лучше описывается статистикой, чем лингвистикой. 1 Если это язык, то чужой.

Поддерживает ли это гипотезу языка мысли?

Из Википедии :

Гипотеза языка мысли (LOTH), иногда известная как упорядоченное мысленное выражение (TOME), представляет собой точку зрения в лингвистике, философии разума и когнитивной науке, выдвинутую американским философом Джерри Фодором. Он описывает природу мысли как обладающую «языковой» или композиционной структурой (иногда известной как ментальная). С этой точки зрения, простые понятия систематически комбинируются (подобно правилам грамматики в языке), чтобы строить мысли. В своей самой основной форме теория утверждает, что мысль, как и язык, имеет синтаксис.

Поскольку этот инструмент перевода не проявляет поведения, явно похожего на мышление, я не вижу, как он вообще поддерживает эту гипотезу. LOTH говорит о том, что человеческая мысль подобна языку, а не о том, что человеческий язык в некотором роде универсален. (Это даже не предполагает, что « mentalese » является универсальным.)

Поддерживает ли это существование универсальной грамматики?

Из Википедии :

Универсальная грамматика (UG) в современной лингвистике - это теория генетического компонента языковой способности, обычно приписываемая Ноаму Хомскому. Основной постулат UG состоит в том, что существуют врожденные ограничения на то, какой может быть грамматика возможного человеческого языка. Когда в процессе овладения языком получают лингвистические стимулы, дети усваивают определенные синтаксические правила, соответствующие УГ.

UG — это утверждение о человеческой психологии; эта технология машинного перевода не ограничивается естественным языком и будет демонстрировать такое же поведение на языках, которые находятся за пределами гипотетической UG (при условии, что они имеют достаточную локальность, чтобы быть понятными). Внутреннее векторное представление больше связано со смыслом , чем с грамматикой . Я не думаю, что это что-то говорит об УГ.

За исключением той степени, в которой мы можем смоделировать обработку человеческого языка так же, как эта модель машинного перевода. Но к тому времени, когда мы будем достаточно знать о человеческой психологии, чтобы понять, работает ли наша языковая обработка таким образом, UG уже будет урегулирован.


1 : На самом деле, это формат, в который мы конвертируем письменный язык, чтобы применить к нему статистику. Вы можете вести статистику письменной речи напрямую, но обычно она весьма ограничена , если только вы не очень умны . (Не сказать, что цепи Маркова в каком-то смысле являются пределом того, что вы можете сделать, если вы очень хорошо разбираетесь в статистическом анализе языка.)