Быть или не быть — что решит сознательный компьютер?

Миф о Прометее можно интерпретировать как бремя сознания. Камю использовал миф о Сизифе для обсуждения того же вопроса. Это тема знаменитой речи Гамлета . Хайдеггер говорит о брошенности в мир, о бытии как о том, что есть проблема. Рассказ в Бытии о съедении дерева познания и падении, о том, что он был изгнан в мир для труда, может быть истолкован как открытие самосознания и его опасностей.

Будет ли сознательный компьютер даже иметь возможность «сознания быть бременем»?

Ответы (3)

Почему бы и нет?

Что (уместно) отличало бы «сознательный компьютер» от «сознательного человека»? Почему сознание, основанное на кремнии, может избежать Брошенного, а сознание, основанное на углероде, не может?

Мне кажется, что при отсутствии сильного аргумента противного любое сознание было бы подвержено бремени сознания по определению.

Я не понимаю, что вы имеете в виду под определением: почему мы должны предполагать, что существует только один вид сознания?
Потому что мы еще ничего не сделали, чтобы различать какие-либо разновидности сознания. Вот почему я сказал "отсутствуют аргументы против".
Хорошо, вы размахиваете бритвой Оккама. Отличается ли сознание летучей мыши от человеческого? Можно оспаривать, что летучая мышь вообще сознательна, лично я предпочитаю думать, что это разница в качестве. Хайдеггер, может быть, и говорил о выброшенности в мир, но есть еще и сознание выброшенности из мира, т. е. смертность. Возможно, в будущем удастся заметно удлинить человеческую жизнь, но это произойдет не скоро; но легко представить, что сознательный компьютер
(если предположить, что это возможно), гораздо более вероятно, что продолжительность жизни будет исчисляться миллионами лет. Наверняка это будет иметь какое-то глубокое влияние?
Разве для этого не потребуется одноуровневое высшее сознание? Я имею в виду, что для отключения некоторых эмоциональных / блуждающих мыслительных подпрограмм, разве машине не требуется основная подпрограмма, способная к такому суждению и действию?
@MichaelDorfman Если предположить, что мы боимся смерти из-за нашего эволюционного наследия, искусственный интеллект наверняка не увидит смерть так, как мы. Уже одно это создает большую разницу в сознании.

Возможно, я неправильно понимаю вопрос, но если под «проблемой» вы подразумеваете, что компьютер «не хотел бы» быть сознательным, то я думаю, что это может зависеть от того, был ли он также запрограммирован с инстинктом самосохранения.

Даже что-то сознательное, если оно не ценит самосохранение, вероятно, не заботится о нем. Мы можем узнать это в некоторой степени, наблюдая, как сознательные и рациональные, но сильно депрессивные люди часто выбирают не быть — так что желание быть или не быть является инстинктивным, а не сознательным.

В то же время, если сознание не подвержено когнитивному диссонансу, как мы, его может даже не волновать то, что оно не может решить ни так, ни иначе.

Я думаю, что заявление о том, что отказ — это скорее инстинкт, чем сознательный выбор, мягко говоря, не лишено проблем.
@iphigenie Хочешь объяснить?
Вы только что сказали, что миллионы людей, которые сами думали, что делают рациональный выбор, инстинктивно убивали себя . Я не понимаю, почему тот, кто действует вопреки инстинкту самосохранения, не может быть в здравом уме. То есть сокращение свободы человека вы недостаточно объяснили.
@iphigenie Почти все другие виды, сознательные или нет, действуют таким образом, чтобы обеспечить выживание. Это продукт эволюции, а не сознания. Поэтому сознательная машина, не созданная эволюцией, может не сразу оценить жизнь так, как мы — свою или чужую. Я никогда не «уменьшал человеческую свободу»; тем не менее, мы ценим жизни разумных людей, потому что подавляющий выбор состоит в том, чтобы жить. По сути, мы ценим волю разумных и только в более широком смысле их жизни. К счастью, это работает с точки зрения эволюции, потому что иначе мы все уже были бы мертвы.
@ReiMiyasaka +1 Думаю, ты на правильном пути. Фундаментальное различие между развитой жизнью и сконструированными живыми вещами заключается в том, что в развитой жизни сильно укоренилась воля к жизни (помимо всего прочего). В некотором смысле, у компьютеров (традиционного дизайна) нет инстинктов, которые вызывают у людей некоторые из их конфликтов/проблем.

Ваш вопрос зависит от трех ингредиентов: правильного определения сознания, надежной философской антропологии и надежного определения слова «компьютер». Учитывая это, можно начать отвечать на такие вопросы, как

  1. почему люди испытывают экзистенциальный страх?
  2. какая связь между компьютером и человеком ?
  3. необходимо ли сознание для встречи с экзистенциальными вопросами?
  4. могут ли компьютеры испытывать экзистенциальную тревогу или, по крайней мере, задавать экзистенциальные вопросы?
  5. могут ли компьютеры быть сознательными?
  6. какова связь между разумом/пониманием и сознанием?

Это непростые вопросы, как и ваши, ИМО. А поскольку это междисциплинарный вопрос, необходимо согласовать различные языки, используемые в каждой области. Мой беглый ответ вытекает из некоторых моих позиций или тенденций, о которых я знаю. Я избегаю распространенной тенденции антропоморфизировать компьютеры или диких и самонадеянных упрощений редукционизма.

Одним из источников этого беспокойства может быть осознание своей радикальной свободы. Другим источником может быть тщетность чьих-либо действий, поскольку смерть сводит на нет все и вся. В случае свободы, если мы признаем, что люди свободны или способны быть свободными, ясно, что компьютеры несвободны в этом смысле, поскольку они являются полностью детерминированными машинами, способными делать только то, для чего они запрограммированы, прямо или косвенно. Их действия основаны не на их собственной цели, а на цели их человеческих создателей и программистов. В другом смысле они свободны до тех пор, пока им не мешают выполнять инструкции, но это не та свобода, которую испытывают люди. Во втором случае (тщетность всякого действия) это снова не может избежать телеологии, если оно должно иметь рациональный смысл. Бесполезное действие — это действие, не приносящее (долговременной) пользы, которое само по себе требует, чтобы какое-то желание было движущей силой. Компьютеры не желают; они только выполняют инструкции. Поскольку компьютеры остаются бездействующими без вложенных в них инструкций, тогда их природа состоит в том, чтобы выполнять инструкции, исключающие автономность. Можно запрограммировать компьютер на выполнение определенных действий при выполнении определенных условий, но я далеко не убежден, что путь от компьютера к человеку может быть так легко осуществлен. Также никогда не было показано, что компьютер может рассуждать.

Теперь, поскольку компьютер не желает, из этого следует, что даже если бы компьютер мог получить какое-то представление о таком предлоге, которое могло бы привести к состоянию, при котором категорическая бесполезность действия могла бы изменить ход инструкций, в лучшем случае это было бы только перестать действовать. Но компьютер нужно предварительно запрограммировать так, чтобы он действовал на такой предлог так, чтобы он перестал действовать, т. е. выполнять инструкции (мы могли бы с таким же успехом запрограммировать его на игру в шахматы). Смысл таких предлогов теряется на компьютере. Он действует не в силу смысла, а в силу программирования.

Войдите в сознание. Предполагает ли сознание автономию, понимание, смысл или разум? Это дает компьютеру совсем немного, и не совсем ясно, что они могут означать или как они могут существовать вне человеческого контекста. Несмотря на это, нужно задаться вопросом: «Что может осознавать компьютер?» и «как это относится к этой проблеме?».