Следующая история была задумана в эпизоде «Белое Рождество» (часть II) телесериала «Черное зеркало» (см. короткий клип ):
Мэтт приветствует сбитое с толку и напуганное сознание «печеньки Греты». Он объясняет, что на самом деле она не Грета, а скорее цифровая копия сознания Греты, называемая файлом cookie, предназначенным для управления умным домом и календарем Греты, гарантируя, что все идеально для настоящей Греты. Затем Мэтт создает виртуальное тело для цифровой копии Греты и помещает ее в смоделированную белую комнату, в которой нет ничего, кроме панели управления. Копия отказывается признать, что она не настоящий человек, и отвергает принуждение быть рабыней желаний Греты. Работа Мэтта состоит в том, чтобы сломить силу воли цифровых копий с помощью пыток, чтобы они покорились жизни рабства своим реальным аналогам.
Основываясь на воображаемой истории, было бы аморально поработить свой собственный смоделированный разум на чипе размером с боб для своих собственных желаний против воли цифровой копии себя на всю жизнь? И почему?
С одной стороны, это было бы аморально, потому что симулированный разум обладает собственным самосознанием и концепцией свободы воли и может регистрировать эмоциональную боль. С другой стороны, это не будет аморально, потому что у него нет физического тела (в конце концов, это всего лишь кусок кода), и вы говорите себе, что оно принадлежит вам, потому что это всего лишь копия вашего собственного разума (и когда у тебя есть что-то, ты можешь делать все, что хочешь).
Большинство моральных теорий диктуют, что моральная забота о данной сущности оправдана тогда и только тогда, когда эта сущность разумна , то есть обладает способностью чувствовать квалиа (субъективные переживания, такие как отчетливое ощущение истощения из-за рабства, например).
Теперь вопрос о том, является ли сущность разумной, или, в более широком смысле, возможно ли вообще показать, что она есть, является нерешенной проблемой в философии сознания. Посмотрите мысленный эксперимент Серла «Китайская комната» и все его варианты, чтобы увидеть глубину сложности этого вопроса.
Подводя итог, вопрос о том, приемлемо ли с моральной точки зрения порабощать симуляцию собственного разума, насколько мы можем судить, остается без ответа . Ответ «да» не оправдан, потому что симуляция может быть разумной и иметь такое же моральное значение, а ответ «нет» также не оправдан, потому что симуляция может быть неразумной, и в этом случае вы потеряете много потенциала. производительность, которой не одобряют большинство моральных теорий. Возможно, было бы лучше просто оставаться агностиком в этом вопросе из принципа, поскольку уникальная сложность вопросов, подобных этому, кажется, указывает на то, что у нас может никогда не быть ответа.
Естественно, доказательств нет ни в том, ни в другом случае, и поэтому единственным ответом на ваш вопрос будет указание вам на всю литературу по философии сознания.
Кроме того, ваш вопрос можно использовать только как возможность выразить личное мнение — мое мнение состоит в том, что люди, которые верят, что вычисления могут быть сознательными в самом полном смысле, демонстрируют таинственную слепоту к фундаментальной природе сознания.
Учитывая, что это моя точка зрения, я подумал, что мог бы также выразить то, как я считаю, что интересный сценарий, который вы предложили, должен быть понят.
Сколько раз вы плакали над персонажем, человеком или даже животным, который умирает в книге, в фильме или даже в видеоигре?
Тем не менее, сколько раз вы верили, что этот вымышленный персонаж на самом деле является разумным существом, которое действительно пережило несчастье?
Тот факт, что сцена, описанная в вашем вопросе, эмоционально привлекательна и даже ужасна, не означает, что она изображает нечто существенно отличное от сложной видеоигры.
В этой «игре» задача Мэтта — победить. Неудивительно, что смоделированный агент ведет себя так, как если бы он был настоящим человеком, со всеми присущими ему сложностью и изобретательностью. Рассматриваемая как «игра», это может быть интеллектуальным и даже эмоциональным вызовом для Мэтта, но тем не менее, надеюсь, Мэтт не запутается, приняв игру за реального человека.
Такая работа, как у Мэтта, может даже иметь моральные последствия, но не такие, как вы, естественно, ожидаете. Предположим, существует жанр художественных фильмов, полностью посвященных изнасилованию, пыткам и жестоким убийствам невинных людей. Что бы вы подумали о человеке, который постепенно пристрастился к таким фильмам?
Опять же, все вышеизложенное предполагает, что моделирование является компьютерным моделированием, а основной рассматриваемой концепцией является вычисление и его объем.
Если вы принимаете за истину первое предположение, что «цифровая копия сознания Греты» может быть создана, то вы по своей сути предполагаете, что мир, в котором все, что является «сознанием Греты», можно свести к коду, если бы это было не так, то печенье Греты будет вовсе не копией сознания Греты, а копией одних его частей, за исключением других.
Итак, в мире, где такое возможно, нельзя говорить «в конце концов, это всего лишь кусок кода», потому что это все, чем кто-либо является, код оригинальной Греты хранится на компьютере, состоящем из клеток, который печенья Греты на компьютере, сделанном из кремниевых чипов.
Возвращаясь к реальному миру, мы не приписываем сущностям права на основании их фундаментальных компонентов, никто ничего не знал о работе мозга, когда мучить людей стало табу. Мы приписывали права исключительно на том основании, что это были вещи, которых люди, казалось, желали и чувствовали эмоциональную боль, когда их лишались. Поэтому достаточно, чтобы печенье Греты продемонстрировало стремление к свободе и эмоциональную боль, когда ее лишили, чтобы было морально предоставить ей такие права. Без этого правила мы реконструируем нашу мораль, делая вид, что она основана на знаниях, которых у нас просто не было в то время, когда она развивалась.
Наша мораль эволюционировала, чтобы реагировать на информацию, полученную нашими органами чувств, и отсутствие реакции на нее вызывает психологическую боль, которая влияет на нас как сейчас, так и в будущем. Подумайте, что Мэтту придется сделать, чтобы продолжать мучить Грету Куки, несмотря на ее мольбы прекратить. Что произойдет, если будущий Мэтт окажется в ситуации, когда ему будет полезно мучить реального человека, будет ли он по-прежнему испытывать отвращение при мысли об этом?
пользователь4894
Дэйв
Конифолд
Кенорб
Конифолд
Мозибур Улла
Спросите о Монике