Сделать машину более человечной, сделав ее склонной к гонкам. Это достаточно?

Люди ошибаются, компьютеры нет. Поэтому я спросил себя: почему люди совершают ошибки? если мы следуем инструкциям по одному, как однопоточный компьютер, почему мы все еще делаем ошибки? Итак, моя теория такова: это происходит потому, что мы всегда находимся в состоянии гонки, наш мозг выполняет сотни задач одновременно, и у нас нет никакого механизма для предотвращения условий гонки (например, синхронизации или блокировки). Пример: у нас в руках ключи, и мы думаем о том, чтобы выбросить мешок для мусора, а потом выбрасываем ключи в мусорное ведро. С программной точки зрения это выглядит как состояние гонки, когда переменная «ключи» перезаписывается «мусором». Следуя этому рассуждению,

Редактировать (спасибо DaaaahWhoosh!): Короче говоря, я спрашиваю, достаточно ли для того, чтобы машина стала более человечной (в момент, когда она прошла тест Тьюринга), чтобы она была подвержена ошибкам?

Я думаю, что это можно реализовать на компьютере с современными технологиями в симулируемой среде (например, в симулированном доме или офисе) и иметь группу людей, чтобы определить, выполняется ли симуляция человеком или машиной (или программным обеспечением). .

Вы спрашиваете, является ли это жизнеспособным решением или как его можно реализовать? Или если есть лучшее решение? Пожалуйста, задайте конкретный вопрос, чтобы мы могли дать конкретные ответы.
«Люди ошибаются, компьютеры — нет». Это не правильно. Любое принятие решений чревато ошибками.
Компьютеры тоже ошибаются. Плюс человеческий мозг намного лучше и быстрее понимает мир, чем компьютер.

Ответы (2)

Тест Тьюринга : ( выделено мной )

Тест Тьюринга — это проверка способности машины демонстрировать интеллектуальное поведение, эквивалентное человеческому или неотличимое от него. Алан Тьюринг предположил, что оценщик-человек будет оценивать разговоры на естественном языке между человеком и машиной, которая предназначена для генерации ответов, подобных человеческим. Оценщик будет знать, что один из двух собеседников — машина, и все участники будут отделены друг от друга. Разговор будет ограничен только текстовым каналом, таким как компьютерная клавиатура и экран, чтобы результат не зависел от способности машины воспроизводить слова как речь. Если оценщик не может надежно отличить машину от человека (первоначально Тьюринг предположил, что машина убедит человека в 70% случаев после пяти минут разговора),Тест не проверяет способность давать правильные ответы на вопросы, а только то, насколько ответы похожи на ответы человека.


Я согласен с AndreiROM в том, что короткий ответ: нет, по крайней мере, не только с этой функцией. и хотя ИИ, который допускает ошибки, все же может пройти тест, это произойдет благодаря хорошему программированию и на других базах.

Более длинное объяснение:

Вы можете запрограммировать робота, который воспринимает его стимулы и имеет каждый отдельный фрагмент информации в отдельном «потоке». В этом случае определенные потоки получают приоритет, а для экономии памяти/обработки другие потоки стимулов могут быть полностью отброшены. " В одно ухо, а в другое ", так сказать. Приоритеты меняются, и то, что мозг на короткое время считал неважным, отбрасывается, что приводит к провалам в памяти или путанице в словах и ключах.

Рассмотрим следующее:

Вы робот? - Нет
Какие ваши любимые овощи? - Я точно не робот.
Ты любишь лошадей? - Почему ты назвал меня роботом?
- извини, *робот*

Сможете ли вы решить, кто из роботов, из-за этой простой ошибки? Это может быть запрограммировано, а может быть законным. Скорее всего, вы больше заметите, что левый динамик идет на совершенно случайные предметы, а правый динамик застревает на первом предмете. По мере того, как это продолжается, может появиться шаблон, который выдает робота и кажется бесчеловечным по сравнению с другим.

Таким образом, в лучшем случае эта тактика может помочь тестировщикам Тьюринга, которые не ожидают , что роботы допустят ошибок. В худшем случае это станет причиной того, что люди узнают, что это робот, потому что природа ошибок не проявляется человеческим образом. Но даже если все сделано идеально, это в любом случае не повредит и не поможет роботу выглядеть человеком.

Я выбираю этот ответ в качестве ответа, потому что он ближе к точке зрения программирования/программного обеспечения, несмотря на то, что АндрейROM более точен в отношении «человеческого поведения».

Краткий ответ: нет .

Длинный ответ заключается в том, что для того, чтобы быть человеком, нужно гораздо больше, чем просто совершать ошибки. Почему мы делаем ошибки, и какие ошибки мы делаем, также входит в это.

«Почему»

Вы описываете какие-то простые обстоятельства, которые действительно можно запрограммировать (зашел за ключами, вышел с кружкой кофе, а ключей нет, ДОН!). Но как насчет ошибок, совершенных из-за того, что вы не уловили социальный сигнал или из-за эмоционального стресса?

Процесс принятия решений человеком может быть скомпрометирован чем угодно: от окружения до гормонов и случайной мысли. Имитировать это было бы невероятно сложно.

Что"

Мальчик-подросток подходит к стойке, чтобы заказать последнее угощение Starbucks, и видит, что бариста — великолепная блондинка с пышным декольте и красивой улыбкой. Внезапно его рот чувствует, будто он жует клей, он забыл, что заказывал для своего друга, и бормочет, как идиот. Бедный ребенок.

Подходит другой, более уверенный в себе парень, шутит, спрашивает, как дела, и просит номер телефона. Она отдает его ему, и он так рад, что фактически уходит без своего напитка. Глупо, правда?

А теперь представьте, что этот же парень на самом деле не заметил, что она носит обручальное кольцо. Как она реагирует? Вежливый отказ? Раздраженное отношение? Возмущен?

Люди настолько уникальны, многое происходит в их очень сложном мозгу и они реагируют на такое количество раздражителей, что в принципе невозможно запрограммировать все наше поведение (или даже приличное подмножество) в машину.

« в принципе невозможно запрограммировать все наше поведение (или даже приличное подмножество) в машину ». — Я согласен, вам придется запрограммировать машину так, чтобы она была творчески обманчивой , а программирование настоящей креативности в машине еще не проводилось. пока что. ( Кто-то скажет, что это невозможно )