Я довольно часто видел, как ИИ отвечает на аргумент Джона Сирла о китайской комнате, принимая ответ системы: хотя человек в комнате не понимает китайский язык, комната (система) в целом может — или, по крайней мере, аргумент китайской комнаты не делает вывод, что это не могло быть.
Тем не менее, ответ системы, похоже, не решает основную проблему, которую CRA ставит перед ИИ. Одна из предпосылок Серла гласит, что символы семантически пусты, внутренне бессмысленны, что сами по себе они не указывают на то, что они означают или к чему относятся. И все, что получает компьютер, — это символ (т. е. токенизированная форма).
Учитывая, что компьютеры обрабатывают символы, сенсорные символы, полученные от цифровых датчиков, не будут указывать на то, что было воспринято. Как же тогда компьютер может познать и понять мир?
Давайте посмотрим на «Китайскую комнату». Слова проходят через зрительный нерв как сложный нервный паттерн, не имеющий семантического значения. Как только они попадают в мозг, мозг может придавать значение буквам, словам и фразам. Если бы они попали в мозг человека, владеющего только китайским языком, то выглядели бы бессмысленными символами.
Таким образом, комната и мозг одинаково воспринимают бессмысленную информацию и присваивают ей значение. Процессы в комнате придают смысл символам, в которых Сирл не видит смысла.
Важно помнить контекст Китайской комнаты, теста Тьюринга . При этом человек общается с двумя текстовыми интерфейсами (телетайпы в оригинале), один с человеком, а другой с компьютером, и пытается определить, кто из них человек, а кто компьютер. Многие считают это испытанием искусственного интеллекта. (Тьюринг этого не утверждал; он неточно предсказал, что компьютеры будут достаточно успешными в 2000 году.) Таким образом, сравнение проводится между китайской комнатой, получающей китайский текст, и китайским носителем, получающим китайский текст.
Я предполагаю, что многое здесь зависит от определения «знаний» и «понимания» — сегодня беспилотные автомобили уже изучают окружающую их среду. (Я подумывал о заключении слова «обучение» в кавычки, но в данном контексте это общепринятая практика.) Таким образом, для слабого чувства знания и понимания, когда нам требуется только (скажем) наличие в системе информации, которая коррелирует с мира и используется для совершения желаемых действий в мире, сегодняшние системы уже приобретают его. Конечно, кого-то может заинтересовать более сильное чувство знания и понимания, возможно, включающее некоторое сознательное осознание. Это то, о чем аргумент Серла, и мы не собираемся здесь улаживать эту дискуссию...
Алгоритмически вычисляемые ответы должны быть частью неполных по Гёделю систем с истинными, но недоказуемыми утверждениями. Но странная петлевая система может образовывать запутанную иерархию, сеть подкреплений и сомнений, подобно используемому языку, где предварительное использование символов используется, затем уточняется, а значение создается в отношениях и посредством взаимодействия и взаимодействия.
Когда наш мозг перестает получать информацию от зрительного нерва, он не закрывает часть мозга. Он (в конце концов) захватывает и загружает область, чтобы продолжать попытки создать модель мира, как можно более изоморфную ей — как показано итеративно, с помощью паттернов взаимодействия, перекрестных ссылок и т. д. — т. е. путем использования.
Ваша предпосылка о том, что символы семантически пусты, несостоятельна с точки зрения восприятия языка на практике — они пропитаны им при использовании. Математические системы выявляют последствия уже сделанных утверждений, то есть они не генерируют смысл, а распаковывают его. Однако творческое математическое мышление работает вперед к следствиям и обратно к аксиомам, а затем снова, во взаимодействии с миром, творчески.
Как же тогда компьютер может познать и понять мир?
Путем взаимодействия, проб и ошибок, исследования, эвристики. Так же как мы. Какими бы средствами оно ни должно было взаимодействовать, это будут чувства, включая ментальные модели и симуляции, которые мы используем, например, для прогнозирования движения в играх.
Китайская комната умна только как колода карт или счеты, скажем. Истинный общий искусственный интеллект должен находиться в странной петле, а не в такой плоской иерархии с четко определенными правилами.
Я имею в виду, что один из возможных способов атаки на это состоял бы в том, чтобы указать, что только потому, что вы не осведомлены о семантической информации, не означает, что у субъекта нет семантической информации, присущей субъекту.
Таким образом, вы можете попытаться найти паттерны в шуме и связи между паттернами. Так что вы можете создавать облака слов, не зная, что означают слова. Например, если предложение работает со всеми одинаковыми символами, кроме одного, вы можете сделать вывод, что между этими двумя словами есть в каком-то смысле равенство. Вы можете сделать вывод о важных идеях по количеству связей или слов-заполнителей по комбинации частого использования, но способности быть исключенным из предложения и при этом быть действительным в соответствии с синтаксисом.
Теперь наблюдатель-человек способен сделать довольно много выводов из того простого факта, что этот человек — человек, как и люди, которые изобрели язык, так что есть определенные причуды человеческого состояния, которые, как вы можете сделать, настолько универсальны, что вы могли бы начать пробовать. чтобы отобразить их.
Но даже если бы этот язык был не китайским, а совершенно чуждым любому человеку, вы все равно могли бы попытаться найти закономерности, сделать прогнозы для вывода, проверить, совпадают ли прогнозы и фактические ответы, и уточнить свои прогнозы благодаря этому, т.е. заняться наукой.
И в какой-то степени это уже происходит с машинным обучением. Вы даете программе ввод, они буквально угадывают (генерируют случайное число) и выводят это. Затем пользователь сообщает им реальный результат, и они сравнивают предположение и реальное значение и меняют свое предположение. Так что не знаю, если они должны угадать результат сложения, например 2 + 2, тогда они могут угадать 3, получить 4 в качестве ответа, вычислить 4-1 = 1, что положительно, поэтому они меняют свои параметры, чтобы создать большее число, скажем, 5, где снова они вычисляют 4 -6 = -2, что является отрицательным, поэтому они корректируют параметры, чтобы получить меньшее число, но большее, чем 3, и так до тех пор, пока не получат 4.
Теперь они технически еще не знают, как складывать, они просто знают, что 2 на одном входе и 2 на другом входе равно 4 на выходе. Но из того факта, что замена входных данных приводит к тому же результату, вам уже необходима внутренняя симметрия. Теперь вы можете ошибаться, полагая, что это числа, но на самом деле это слова, но вы все равно придали бы им какое-то семантическое значение, даже если бы это было неправильно.
Итак, если вы предполагаете, что это не односторонняя связь, а компьютер использует свои выходные данные, чтобы делать выводы об окружающей среде, тогда он также может постепенно улучшать свои предположения и придавать значение вещам, которые являются произвольными и бессмысленными.
пользователь20253
пользователь6559
wizzwizz4