Существуют ли какие-либо физикалистские аргументы против сильного ИИ?

Дэйв

Существуют ли какие-либо физикалистские аргументы против сильного ИИ?

Есть ли аргументы против сильного ИИ в принципе , учитывая физикализм?

Существуют ли какие-либо аргументы против сильного ИИ на практике , учитывая физикализм?

По сути, я хочу знать о любых потенциальных возражениях против утверждения, что если физикализм верен, то возможен сильный ИИ. Лично я не вижу, насколько это утверждение ложно, но философы изобретательны, так что может быть кто-то пытался примирить идею физикализма с запретом сильного ИИ.

Джозеф Вайсман

Не могли бы вы немного подробнее изучить квалификацию «данный материализм»? Немного больше о контексте и мотивах вопроса также может помочь - может быть, вы могли бы рассказать нам что-то о том, что вы читали или изучали, что сделало этот вопрос интересным или важным для вас?

ярость

Просто для ясности, под «материализмом» вы подразумеваете «физикализм»?

Нельсон Александр

Я не уверен, что является текущим испытанием «сильного ИИ», но есть много потенциальных барьеров, признанных «физикой», если вы это имеете в виду. Энтропия, скорость света и — как это ни странно, хотя и важно — гендерная дифференциация. Если под «сильным ИИ» мы подразумеваем прохождение теста Тьюринга, проводимого с полной прозрачностью ученым ИИ, тогда может быть необходимо, чтобы ИИ прошел через биологический и даже «гендерный» производственный процесс.

Дэйв

@NelsonAlexander, учитывая физикализм, мы знаем, что по крайней мере один тип физической системы (мозг) участвует в интеллекте, несмотря на ограничения, основанные на физике. Ваш комментарий прояснил кое-что в моей голове: любой такой аргумент был бы аргументом «уникальности», что естественный интеллект является уникальным естественным явлением, которое затем имеет витгенштейновский тип проблемы «семейного сходства».

Нельсон Александр

Достаточно верно. Я нахожу искусственный интеллект и машинное обучение увлекательными. Но мне нравится раздражать людей, указывая, что правильный ИИ должен не просто играть в шахматы и игры на свиданиях, он должен уметь решать большие проблемы СИ... например, воспроизводить себя. Предпочтительно через «гендерную» раздвоенность, которая может устранить баги, вирусы и программистов. Как бы то ни было, вся схема изобилует парадоксами самореференции.

аланф

В принципе, может быть так, что, хотя материализм верен, существует некоторый класс физических систем, которые нельзя смоделировать на компьютерах, и в их число входит человеческий мозг. В принципе, может случиться так, что человеческий мозг можно смоделировать на компьютере, но никто не сможет понять соответствующий алгоритм и, следовательно, невозможно настроить симуляцию.

На практике первая возможность исключается наилучшей существующей теорией вычислений, которая утверждает, что любая физическая система может быть смоделирована универсальным компьютером, работающим с конечными средствами:

http://www.daviddeutsch.org.uk/wp-content/ItFromQubit.pdf .

Второй вариант кажется маловероятным. Должно быть так, что какой бы алгоритм ни запускал наш мозг, он был создан путем вариаций и отбора, так что на каждом этапе он производил что-то, что позволяло копировать гены. Таким образом, должна быть некоторая последовательность проблем, которые мы могли бы решить, что привело бы к чему-то, что можно было бы протестировать на каждом этапе и создать ИИ в конце. Почему мы не сможем этого сделать? Это не может быть просто вопросом памяти, скорости или надежности вычислений, поскольку компьютеры могут сделать это за нас. Поэтому я не вижу, что может помешать нам создать ИИ.

пандита

Что касается второй возможности: эволюция не решает проблем. Эволюция также не имеет цели, и то, что эволюционирует, не должно быть полезным. Единственное, что они должны делать, это распространяться быстрее, распространяться шире, чем другие.

аланф

Ты прав. Ген не обязательно должен иметь полезный фенотипический эффект, пока он распространяется. Я изменил аргумент, чтобы учесть это.

Джеймс Кингсбери

Аланф прав, указывая на тот факт, что Теория вычислений утверждает, что любая физическая система может быть смоделирована универсальным компьютером. Эти теоремы не учитывают стоимость, связанную с этими симуляциями . Таким образом, на практике может случиться так, что количество времени, необходимое для полной имитации человеческого мозга, или какой-то другой элемент стоимости симуляции делает это непозволительно в обозримом будущем.

Ниэль де Бодрап

«количество времени, необходимое для полной имитации человеческого мозга, или какой-либо другой элемент стоимости симуляции делает это непомерно» — но для каких систем? Потому что очевидно, что наш мозг не может сделать это сам.

Мозибур Улла

Ваше предположение означает, что сильный ИИ возможен; поскольку он определяет, что мы являемся некой формой органического компьютера; нам просто нужно перепроектировать «биотехнологию»; возможно ли это или нет, сейчас или в будущем, не имеет значения; ваше предположение означает, что это возможно в принципе.

Если бы мы сказали не физикализм, а натурализм (вспомним, что ранние современные ученые были известны как натурфилософы — философы природы, по сути), это оставило бы открытой возможность того, что это может быть невозможно даже в принципе.

пандита

В целом я бы сказал, что ни одно из них естественно не следует за другим:

Может быть система, существующая внутри другой системы, которая не может полностью выполнять те же функции, что и родительская/сестра.

Т.е. предположение, что вы можете вычислить что-либо в физической системе, что может быть вычислено только потому, что вы находитесь в физической системе, просто не гарантируется.

Следовательно, даже если физикализм верен, вы не можете сделать вывод, что Сильный ИИ возможен. Это если вы не знаете, что физикализм истинен в очень конкретном смысле.