С точки зрения функционализма: когда алгоритм — это ИИ, а когда — просто программное обеспечение?

Недавно The Atlantic опубликовала статью, в которой утверждалось, что «Google научила ИИ, который сортирует фотографии кошек, анализировать ДНК» . Если вы посмотрите на исходную статью, опубликованную командой Google, то на самом деле они взяли модель нейронной сети, обычно используемую для классификации изображений, и вместо этого применили ее к классификации данных ДНК (см. также разоблачение статьи The Atlantic ). С одной точки зрения вы можете утверждать, что они использовали «ИИ» для анализа данных ДНК, с другой — они просто применили более совершенную математическую модель, чем те, которые использовались ранее (универсальные аппроксиматоры против параметрических моделей).

Возникает вопрос: если предположить, что вычислительная теория разума и функционализм верны, есть ли способ отличить алгоритмы, являющиеся просто программным обеспечением и математическими моделями, от алгоритмов, квалифицируемых как ИИ?

Один прямой ответ на это очевиден: это ИИ, если он проходит тест Тьюринга (или какой-то современный, более продвинутый его вариант), в противном случае это просто программное обеспечение.

Но помимо теста Тьюринга в статье The Atlantic, кажется, есть еще одна проблема: сказать, что «ИИ» сделал то или иное, подразумевает, что используемая ими нейронная сеть обладала определенным уровнем свободы действий или автономии, хотя на самом деле это была совершенно инертная система. программа, которая запускается и останавливается на основе набора предопределенных параметров и инструкций.

То же самое относится к Amazon Alexa: он не отвечает ни на какие сообщения, если кто-то не предваряет свое предложение словом «Alexa». Он никогда не начинает общаться сам по себе и спонтанно не вмешивается в разговор.

Мои вопросы:

  1. Действительно ли этот аспект автономии/действия в программе позволяет отличить интеллектуальный ИИ от «просто программного обеспечения»?
  2. Изучался ли вопрос о деятельности в философии сознания и философии искусственного интеллекта?
  3. Как деятельность (как описано выше) связана с интенциональностью и с интенциональной позицией Дэниела Деннета?

Деннет говорит в «Намеренной позиции», что: « Сначала вы решаете рассматривать объект, поведение которого должно быть предсказано, как рационального агента; затем вы выясняете, какие убеждения должны быть у этого агента, учитывая его место в мире и его цель. . », но можем ли мы целенаправленно обращаться с объектом как с агентом, если он не обладает той автономией, которую я описал выше?

  1. Точно так же, как это связано с понятием Чалмерса о философском зомби? Почему можно предположить, что такая автономия может служить для различения философских зомби и людей, поскольку зомби действуют так, как будто они автономны, но не управляются автономным агентом «внутри» (см. мой предыдущий пост о «зомби со свободной волей» ) ?

Ответы (5)

Позиция функционалистов в отношении ИИ аналогична позиции компатибилистов в отношении свободы воли в двух важных аспектах. Во-первых, они дистанцируются от картезианской идеи о том, что существует какая-то дополнительная особая «субстанция» или «сущность», и отделяют то, что настолько объединено в эффекты, которые можно смоделировать по частям каузально и/или вычислительно. Во-вторых, как следствие первого, для них нет яркой грани между разумностью и неразумностью, как нет яркой грани между свободой и несвободой, есть только континуум с крайностями и прагматически расставленными порогами. Грубо говоря, чем более полезными для описания и прогнозирования поведения системы являются агентские разговоры и другая преднамеренная лексика, тем более вероятно, что ее можно будет классифицировать как ИИ. Тест Тьюринга, в своей классической форме, опирающейся только на беседы, недостаточна, ее необходимо распространить на всю совокупность поведения, включая невербальные действия и реакции, демонстрирующие определенные уровни чувствительности к изменениям в окружающей среде и сложность приспособления к ним, обучения у опыт как бы.

В принципе, это ничем не отличается от вывода о деятельности и интенциональности других людей. Функционализм официально агностичен в отношении того, как реализуется функция, в этом смысле Кант был функционалистом в отношении ментального. Хотя вычислительная теория разума настоятельно предполагает некоторую форму материальной реализации и может даже идти рука об руку с элиминативным физикализмом, технически она не связана ни с тем, ни с другим. Но каковы бы ни были убеждения относительно лежащей в основе агентности основы, на практике мы руководствуемся наблюдаемыми моделями поведения и используем интенциональный язык, когда он работает. Это стоит за молчаливым согласием покойного Куайна на «менталистский язык» в « Погоне за Истиной » :

Тем не менее менталистические предикаты, при всей их неопределенности, уже давно взаимодействуют друг с другом, порождая вековые стратегии предсказания и объяснения человеческих действий. Они несоизмеримо дополняют естествознание и необходимы как для социальных наук, так и для наших повседневные дела. Читайте Деннета и Дэвидсона » .

Дэвидсон, конечно же, неэлиминативный материалист, верящий в нередуцируемые ментальные описания, а Деннетт — поборник так называемой интенциональности. Что касается остальных вопросов ОП, глава «ИИ в контексте» из книги Элисон Адам «Искусственное знание» обращается к ним напрямую:

« Интенциональная позиция Деннета предлагает оговорку о выходе, способ действовать так, как если бы определенные объекты обладали интенциональностью, не беспокоясь о том, действительно ли они ею обладают. Позиция Деннета согласуется как с идеями Коллинза, так и с недавними исследованиями в области теории сетей акторов .. Я удивлен, обнаружив, что ни в одной из работ Деннета не упоминается, хотя он, кажется, оказывает такую ​​очевидную поддержку. С этой точки зрения нам больше не нужно беспокоиться о том, может ли машина или другой объект действительно мыслить; вместо этого мы беспокоимся о том, уместно ли называть ее интенциональной системой, или, говоря языком АСТ, мы беспокоимся о том, чтобы предоставить ей свободу действий. Задача, которую ставит перед собой ANT, состоит в том, чтобы предоставить избирательные права миру объектов, хотя процесс делегирования осуществляется людьми, чтобы увидеть, что знание и общительность являются свойствами не только людей, но и людей, сопровождаемых теми объектами, которые делегированы человечеству.

[...] Здесь есть несколько интересных моментов контраста, как если бы социальные науки и ИИ по отдельности открыли идею агентности примерно в одно и то же время. Как в популярной подобласти распределенного ИИ (DAI), где знания распространяются через несколько баз знаний, или где интеллектуальные агенты действуют сообща для решения проблемы, так и в робототехнике, любопытно увидеть, что язык агентства и интенциональности изобилует, возможно, гораздо больше, чем в других областях символического ИИ. Почему это должно быть так? По-видимому, это проистекает не столько из стремления отдать предпочтение объектам, как это делают некоторые континентальные социологи, сколько из стремления внедрить социологические модели в структуру своих систем.

Оставляя в стороне вопрос о том, будут ли используемые социологические модели восприниматься искушенными в социологии чрезмерно упрощенными до наивности, я утверждаю, что использование языка действия позволяет использовать интенциональный язык почти ловкостью рук. Если вы называете что-то «агентом», вы можете использовать намеренные термины, не исследуя их, не оправдывая их и даже не обосновывая их. Такие термины можно использовать чисто операционально, и тогда можно позволить метафоре их функционализма соскользнуть в реальность. Теперь это может не быть проблемой для социологов ANT, но другие, такие как Форсайт, в ее критике позитивистской позиции по отношению к знанию, принятой инженерами по знаниям в ее исследовании, обнаружили бы здесь ту же ошибку. И, конечно же, Серл, архиинтенционалист, у него не было бы грузовика с такой ловкостью рук. Он не допустил бы этого во все поющем, все танцующем роботе, так что я сомневаюсь, что он впустил бы его сюда через черный ход».

«Позиция функционалистов по ИИ аналогична позиции компатибилистов по свободе воли [...] для них нет яркой грани между разумом и не-разумом, как нет яркой грани между свободой и несвободой, там есть только континуум с крайностями и прагматически расставленными порогами». В яблочко! философам может сойти с рук отсутствие ярких линий, но не обществу. И точно так же, как существуют произвольные четкие границы для моральной ответственности, очень скоро потребуются четкие границы, в отношении которых системы могут считаться имеющими влияние, а какие нет.
Я думаю, что линии предназначены не для моральной, а для юридической ответственности, и закон явно опирается на социальные приоритеты, затраты на исполнение и т. д., в дополнение к морали, чтобы провести их. Более того, они не построены на этическом принципе, «составы преступления» в основном характеризуют явные действия. Без сомнения, некоторые такие внешние спецификации для ИИ также могут быть разработаны, скажем, на основе сложности, отзывчивости, адаптируемости к новым ситуациям и т. д. Я немного добавил в пост, чтобы решить эту проблему.

Об агентстве, автономии и ИИ

Хороший вопрос. Я считаю, что на него нет ответа, поскольку это вопрос определения. . Те, кто надеется на ИИ, обычно используют это слово для описания сложного программного обеспечения, и если они немного суетливы, они ограничивают этот термин программами, которые могут «обучаться», а не то, что компьютер когда-либо знает, что он чему-то научился.

  1. Действительно ли этот аспект автономии/действия в программе позволяет отличить интеллектуальный ИИ от «просто программного обеспечения»?

Я думаю, что если бы какое-то программное обеспечение демонстрировало свободу действий и автономию, у меня возникло бы искушение наградить его ИИ. Но это глубокая проблема. Многие философы задаются вопросом, являются ли люди агентами, и это включает в себя все в вечной традиции. С этой точки зрения свобода действий иллюзорна.

  1. Изучался ли вопрос о деятельности в философии сознания и философии искусственного интеллекта?

На самом деле, не слишком эффектно. Большинство западных философов просто предполагают свободу действий, и они редко настолько глубоко погружаются в сознание, чтобы начать подвергать сомнению всю идею. Но будет много работы, о которой я не знаю.

  1. Как деятельность (как описано выше) связана с интенциональностью и с интенциональной позицией Дэниела Деннета?

Мне кажется, что деятельность была бы невозможна без интенциональности.

  1. Деннет говорит в «Намеренной позиции», что: «Сначала вы решаете рассматривать объект, поведение которого должно быть предсказано, как рационального агента; затем вы выясняете, какие убеждения должны быть у этого агента, учитывая его место в мире и его цель. ." но можем ли мы целенаправленно обращаться с объектом как с агентом, если он не обладает описанной выше автономией?

Это может быть ваш выбор. Деннет, по-видимому, выступает за то, чтобы делать предположения о деятельности объектов и развивать фантазии об их убеждениях, назначении и месте в мире. Я сомневаюсь, что объект может иметь убеждения, и нахожу весь подход в высшей степени ненаучным. Я соглашусь с вами, что если мы не увидим какой-то автономии, даже если она в конечном счете иллюзорна, то это будет выглядеть как обычное программное обеспечение.

  1. Точно так же, как это связано с понятием Чалмерса о философском зомби? Почему можно предположить, что такая автономия может служить для различения философских зомби и людей, поскольку зомби действуют так, как будто они автономны, но не управляются автономным агентом «внутри» (см. мой предыдущий пост о «зомби со свободной волей») ?

Невозможно провести эту дискриминацию, поскольку зомби определяются как неотличимые от людей. Если мы верим, что зомби возможны и что это целостная концепция, то мы должны также верить, что было бы невозможно сказать, сознательны ли компьютер или человек или обладают автономией и деятельностью. Если зомби возможны, то вполне возможно, что люди тоже зомби, и невозможно исключить эту возможность.

Я чувствую, что зомби Чалмерса лучше всего отнести к царству единорогов и спагетти-монстров. Что касается того, как различать программное обеспечение и ИИ, это вопрос определения, и определения различаются. Я бы сказал, что нет никакой разницы между программным обеспечением и тем, что большинство людей называет ИИ. Большинство форм ИИ можно было бы воспроизвести на счетах, если бы они были достаточно большими и имели двигатель. Моей реакцией было бы сезонное «вздорное бахвальство».

Определения

Обучение: приобретение знаний или навыков посредством опыта, учебы или обучения.

Основной аргумент

Искусственный интеллект — это область, которая пытается имитировать животный или человеческий интеллект в программном обеспечении. Одна вещь, которая отличает ИИ от других типов алгоритмов, заключается в том, что ИИ обучается. Другие формы алгоритмов этого не делают. Из-за этой разницы ИИ полезен, когда мы не обязательно знаем все детали проблемы, которую пытаемся решить.

Существует два типа ИИ: базовое машинное обучение и общий искусственный интеллект. Когда область ИИ только начиналась, ОИИ был, по сути , разновидностью ИИ. В наши дни основное внимание уделяется базовому машинному обучению с использованием таких методов, как искусственные нейронные сети. Есть философские вопросы о том, можем ли мы создать настоящий ОИИ, и есть базовый тест, тест Тьюринга, который пытается увидеть, добьемся мы успеха или нет.

Несмотря на это, ключевое различие между общим алгоритмом и ИИ заключается в том, что ИИ предназначен для обучения .

Опровержение

Основные методы линейной регрессии не являются ИИ, потому что они не учатся. Вы не запускаете метод линейной регрессии сам по себе и не учитесь на ходу. Это предварительно смоделированная система. Нейронные сети могут выполнять линейную регрессию и делают это только на лету и, следовательно, обучаются.

TimB утверждает, что «нейронные сети и другие не «обучаются», они собирают данные. Затем они могут использовать эти данные в следующей «итерации» своего алгоритма». Однако именно это и есть обучение: получение данных и их использование в следующей итерации процесса принятия решений.

TimB и другие, кажется, также принимают только AGI, но этот вопрос, по крайней мере, частично относится к информатике, поэтому определение в значительной степени основано на области ИИ в информатике. Поле различает слабый и сильный ИИ, или ОИИ против ИИ, как я описал выше ( Computer World ). ИИ не обязан вести себя как человек. Он просто должен быть в состоянии выполнить какую-то обучающую задачу, которую может выполнить человек.

Интеллект животных

Переходя от аргумента в области компьютерных наук, рассмотрим следующее. Это правда, что мы обычно измеряем интеллект, используя наше понимание человеческого интеллекта как парадигмы, но мы допускаем, что многие другие существа разумны, просто по-разному. Важно обратить внимание на этот момент, если мы хотим понять, что представляет собой интеллект. Если мы используем тест Тьюринга, чтобы определить, является ли что-то «ИИ», тогда даже наши близкие родственники не пройдут тест Тьюринга. Означает ли это, что приматы, кроме людей, неразумны?

Я не согласен: простая модель линейной регрессии учится на данных так же, как нейронная сеть или продвинутая рекомендательная система, но никто не назвал бы линейную регрессию «ИИ».
Я согласен с @AlexanderSKing, но я бы сделал еще один шаг. Регрессионные модели, нейронные сети и т. д. не «обучаются»; они собирают данные. Затем они могут использовать эти данные в следующей «итерации» своего алгоритма. Это позволяет им уточнять свои ответы, но не формулировать новые вопросы. Человеческое обучение определяется тем, что он задает более правильные вопросы, а не знает больше материала, поэтому и произошел эффект Флинна в исследованиях IQ; в конечном итоге (на мой взгляд) это показывает, что наше определение интеллекта слишком предвзято относится к знаниям, а не к тому, что мы можем с ними сделать.
Модели линейной регрессии не обучаются. Их предварительно изготавливают вручную. Нейронные сети могут выполнять линейную регрессию на лету и, следовательно, обучаться.
И вы говорите, что нейронные сети и т. Д. Берут данные и используют их, чтобы делать более точные прогнозы в будущем: что, черт возьми, вы думаете, что такое обучение, @TimB?
@ДэниелГолдман; обучение – это создание новых навыков, а не получение новых знаний. Это не обучение, если вы не можете сделать с ним что-то новое; нейронные сети просто включают новые данные в существующий алгоритм. Я могу добавить новые данные на жесткий диск, это не значит, что он чему-то научился.
Обучение: приобретение ЗНАНИЙ или навыков посредством опыта, учебы или обучения».

Позвольте мне начать с утверждения, что все алгоритмы — это «просто программное обеспечение».

Существует два типа программного обеспечения: 1) программное обеспечение, выполняющее одну и ту же функцию с течением времени, и 2) программное обеспечение, функции которого со временем меняются .

Для первого типа программист обеспечивает «интеллект» для функции. Для второго типа программист предоставляет некоторые базовые функции и средства для изменения самих функций (самоизменяющийся код).

Самомодифицирующийся код является «критическим» требованием для реализации некоторого уровня/версии ИИ. то же самое, то это не так.

Рассмотрим конкретные вопросы.

Вопрос 2: Изучался ли вопрос о деятельности в философии сознания и философии искусственного интеллекта?

Независимо от того, что было сделано, можно начать ставить это под сомнение уже сейчас, определив выбор агента по свободной воле и состояние детерминированной машины. Следующие определения являются предварительными, особенно использование слова «что-то».

Определить выбор агента по свободной воле как нечто такое, для чего не существует полного объяснения .

Определить состояние детерминированной машины как то, для чего существует полное объяснение .

Из этих определений следует ответ на первый вопрос.

Вопрос 1. Действительно ли этот аспект автономии/деятельности программы позволяет отличить интеллектуальный ИИ от «просто программного обеспечения»?

Поскольку не существует полного объяснения выбора, сделанного агентом по свободной воле, но существуют полные объяснения состояний детерминированной машины, детерминированные машины не являются агентами по свободной воле. Это означает, что нет никакого способа, основанного на действии, отличить интеллектуальный ИИ от простого программного обеспечения. И «интеллектуальный ИИ», и «просто программное обеспечение» являются детерминированными машинами, а не агентами свободной воли.

Вопрос 3: Как деятельность (как описано выше) связана с интенциональностью и интенциональной позицией Дэниела Деннета?

Деннету, судя по приведенной цитате, явно нужен «рациональный агент», чтобы добиться интенциональности и, возможно, свободы воли.

Являются ли агенты вообще «рациональными»? У агентов вообще есть мозг? Эти вопросы не просто риторические. Обратите внимание, что «Теорема сильной свободы воли» Джона Конвея и Саймона Кочена доказала, что если у людей есть свобода воли, то и у квантовых частиц тоже. Квантовые частицы не имеют мозга. Они не рациональны. Мозг не нужен для деятельности.

Когда Деннет ограничивает агентов «рациональными агентами», я подозреваю, что он упрощает проблему, чтобы вразумительно объяснить ее с помощью своей теории. Такие упрощения могут привести к результатам, неадекватно отражающим реальность. То есть объяснения Деннета могут не быть ни правильными, ни полными объяснениями, хотя они могут быть полезны для ИИ. Правильность и полнота его объяснений человеческой действительности требуют обоснования.

В следующих ссылках на Алана Тьюринга и Джонатана Хайдта я докажу, почему такое оправдание может быть невозможным.

В «Вычислительных машинах и интеллекте» Тернинга выражается беспокойство по поводу экстрасенсорного восприятия:

Если кто-то принял их, кажется, что поверить в привидения и привидения не так уж и сложно. Представление о том, что наши тела движутся просто по известным законам физики, вместе с некоторыми другими, еще не открытыми, но в чем-то похожими, уйдет одной из первых.

Он не отрицает экстрасенсорного восприятия, но предлагает следующее как одно из решений.

В ответ можно сказать, что многие научные теории, похоже, остаются применимыми на практике, несмотря на то, что они противоречат экстрасенсорному восприятию; что на самом деле можно очень хорошо поладить, если забыть об этом. Это довольно холодное утешение, и кто-то опасается, что мышление — это как раз тот феномен, для которого экстрасенсорное восприятие может быть особенно важным.

Это может быть не только «думание», но и выбор. Обратите внимание, что Тьюринг не отрицает существования экстрасенсорного восприятия, хотя и не находит его понятным или значимым с точки зрения своей теории. Он сталкивается с возможностью того, что его подход может быть неполным или даже точным.

«Праведный разум» Хайдта поднимает вопросы о нашей человеческой рациональности. Его лекция «Рационалистическая иллюзия» резюмирует его позицию.

Если Деннет пытается объяснить людей как «рациональных агентов», возможно, он не объясняет человеческую реальность такой, какая она есть на самом деле, хотя его объяснения могут хорошо работать для ИИ.

Вопрос 4: Точно так же, как это связано с понятием Чалмерса о Философском Зомби? Почему можно предположить, что такая автономия может служить для различения философских зомби и людей, поскольку зомби действуют так, как будто они автономны, но не управляются автономным агентом «внутри» (см. мой предыдущий пост о «зомби со свободной волей»)

Учитывая теорему Конвея-Кохена, стоит отделить свободу воли от других форм субъективности, поскольку есть результаты, относящиеся только к свободе воли.

Рассмотрим квантовую частицу, обладающую свободой воли. Такие частицы могут быть близкими приближениями к тому, чем мог бы быть зомби со свободной волей. Есть как минимум два возражения против того, чтобы называть их зомби со свободной волей. (1) Зомби со свободной волей — это р-зомби. П-зомби должен быть человеком. Квантовая частица — это не человек. (2) Необходимо убедиться, что в субъективности квантовых частиц нет ничего, кроме свободы воли.