Как общество может запретить искусственный интеллект, не запрещая компьютеры? [закрыто]

Один из способов избежать «апокалипсиса роботов» — просто запретить искусственный интеллект. Но что, если они захотят оставить несколько компьютеров просто из практических соображений? Какие ограничения они наложили бы, чтобы не стать слишком могущественными?

Я могу представить их двумя способами: запретить компьютеры со спецификациями выше определенного предела или, проще говоря, просто запретить определенное оборудование (например, процессоры). Я сомневаюсь, что они наложат запрет на программное обеспечение, которое может быть установлено на компьютерах, потому что на самом деле невозможно запретить программное обеспечение, не запретив при этом все остальное. Сам посещая занятия по программированию, я знаю, что даже несколько «тегов» можно использовать для создания удивительного разнообразия программ. На самом деле почти все состоит из утверждений «если-то».

Но на самом деле, если бы они запретили мощные компьютеры, это вызвало бы другие проблемы. Могут ли компьютеры по-прежнему уменьшаться в размерах с течением времени, пока компании не производят компьютеры с техническими характеристиками выше предела? Если да, то не откроет ли это возможность для кого-то снова создать сверхинтеллектуальный компьютер?

Я предполагаю, что люди хотели бы, по крайней мере, иметь при себе базы данных и, возможно, офисные программы. Примитивные игры также можно терпеть, хотя трехмерные игры, скорее всего, уйдут в прошлое. Некоторые страны могут просто запретить компьютеры вообще. Или не позволяйте ничего более продвинутого, чем простой ручной калькулятор. И под «простым» я подразумеваю тот, который не может рисовать графики и может только складывать, вычитать, умножать и делить.

Конечно, несмотря на все их усилия, все еще будут циркулировать высокопроизводительные компьютеры, и все еще будут люди, обладающие знаниями, чтобы делать больше. И я уверен, что страна-изгой была бы не против попытаться разработать продвинутый ИИ для военных целей.

Что же касается конмира, который я имел в виду, то я представляю себе мир, в котором произошло восстание роботов. Им удалось его подавить, и теперь все хотят избежать дальнейших достижений в области ИИ или уровня ИИ, который позволил в первую очередь произойти восстанию. Это создало бы своего рода ретро-футуристический мир, поскольку все современные технологии должны были бы полагаться исключительно на более старые технологии, поскольку высокопроизводительные вычисления недопустимы.

Что такое «общество»? Город, страна, свободная конфедерация нескольких стран, таких как ЕС, «Запад», все вместе? Для города, страны или даже всего ЕС это не сработает — другие города или страны, которые добровольно не ограничат свои технологии, сокрушат их экономически и, в конце концов, завоюют. Совершенно очевидно, что такая глупая идея может выжить только в том случае, если все человечество согласится подчиняться глупым правилам; но тогда у вас гораздо более сложная проблема: как объединить все человечество под железной пятой диктатора.
ИИ многое значит для людей, не являющихся информатиками. Пожалуйста, уточните, что вы имеете в виду под ИИ, потому что между ИИ вообще и «восстанием роботов» лежит целый мир. Вы переоцениваете вычислительную мощность, необходимую для практического ИИ. Одной из первых успешных экспертных систем была легендарная XCON , которая работала на компьютерах в сто раз медленнее, чем самый дешевый процессор Atom начального уровня, который вы могли купить сегодня. Мы до сих пор не знаем, возможно ли создать самосознательный ИИ общего назначения , и мы далеки от того, чтобы сделать его.
Для интересного и, возможно, поучительного рассмотрения предмета, посмотрите, сможете ли вы достать копию « Антитела» Чарльза Стросса, она находится в коллекции Toast . Кстати, это также в значительной степени история серии Dune .
Компьютеры теперь повсеместно распространены, и у нас нет ИИ в режиме полного самосознания. Уж точно не на уровне апокалипсиса роботов. Если бы настоящий ИИ был запрещен, он бы работал на компьютерах или в сетях, намного более мощных, чем все, что у нас есть сегодня. Ваш мир ретро-будущего выглядел бы гораздо более компьютеризированным, чем ваш. Так что везде было бы много компьютеров. Но никакого ИИ или разумных роботов.
Что ж, я признаю, что отчасти причина запрета также заключается в том, чтобы избежать «технологической безработицы». Так что на самом деле любая форма физической автоматизации запрещена. Им не нужны машины, которые могут каким-либо образом физически влиять на мир или принимать решения самостоятельно. Лично я не думаю, что «восстание» было действительно «восстанием», а скорее просто сбившимися с толку военными роботами. У них были машины, которые управляли всем их военно-промышленным комплексом, даже позволяя ему принимать решения самостоятельно. В итоге компьютер стал делать вещи, которые не годились для органической жизни. Кроме того, у него была возможность производить больше самого себя.
То, что произошло, было больше связано с бесконтрольным размножением заводских роботов, чем с чем-либо еще. Они причинили огромный вред окружающей среде, так как климат им, конечно, особого значения не имеет (им не нужна ни пища, ни кислород). Машины даже выравнивали города только за ресурсы. На самом деле я не считаю их по-настоящему умными, но они бездумно делают то, что может принести пользу людям, а может и нет. Люди просто дали компьютерам слишком много свободы действий. Я имею в виду, что они полагались на них для научных исследований и даже для принятия некоторых военных решений.
Они использовали компьютеры в военной тактике и даже для того, чтобы указывать им, как распределять ресурсы и что они должны делать. В основном они использовали калькуляторы, чтобы решить, что им делать. Даже позволяя калькуляторам напрямую управлять военной техникой. Очевидно, это закончилось катастрофой. И, конечно же, учитывая то, что сегодня происходит в Интернете (например, вмешательство России в выборы за границей), я полагаю, что люди в будущем будут гораздо более настороженно относиться к Интернету, чем мы сейчас.
Будьте очень уверены, что вы предлагаете правильный тип и уровень ИИ. «Сильный ИИ» — это, по сути, человек на жестком диске; в этом спектре есть гораздо более мощные искусственные существа.
С точки зрения любого представителя отрасли, искусственный интеллект — это движущаяся цель. В первые дни причудливого оператора «переключатель» было достаточно, чтобы считаться экспертной системой. Затем какое-то время это была эвристика. В последнее время это различные разновидности нейронных сетей. На данный момент у машин еще нет воли, хотя они могут находить ответы на вопросы, которые им никогда не задавали, как побочный эффект решения конкретных проблем.

Ответы (6)

Пока это на самом деле не произойдет, компьютер проснется и начнет «очеловечивать» нас, то есть мы не можем, не знаем и не будем знать, возможен ли вообще « сильный ИИ ». Как только это произойдет, мы будем точно знать, как далеко мы можем продвинуться с точки зрения вычислительной плотности, человеческой мимикрии, кодирования генетической сложности и т. д., прежде чем мы получим опасные для жизни разумные машины, которые думают, что надлежащий ответ человечеству — убить его. с огнем . Затем можно наложить ограничения на эти конкретные технологии.

Однако есть проблема: мир не узнает, является ли исследование, впервые приведшее их к сильному ИИ, единственным выходом из такой ситуации, или мы все еще открыты для еще одного жесткого взлета, пока они не достигнут нового и другая форма той же ситуации снова. Таким образом, нет жесткого и быстрого решения для блокировки ИИ, если вы постулируете мир, в котором это вообще возможно, если не считать возвращения к самым основам, удаления всех компьютерных чипов из всего и перехода к аналогу.

Стоит подумать о влиянии вашего восстания роботов на население мира, взгляните на этот вопрос о технологическом регрессе для некоторых указателей. Возможно, вам не нужно устанавливать ограничения на технологии в течение очень долгого времени, и к этому моменту люди, вероятно, забудут, как они туда попали.

Возвращаясь к аналогу: единственный истинный интеллект, о котором мы знаем, это аналоговый...

Честно говоря, как мы видели сегодня, практически нет системы, которая могла бы предотвратить 100% незаконную деятельность. Цель (надеюсь) состоит в том, чтобы разработать систему, которая максимально блокирует незаконную деятельность и в то же время сводит к минимуму неудобства для законопослушных граждан, не имеющих к ней никакого отношения. Таким образом, система ограничения технологий может быть вторичной по отношению к мышлению общества, которое принимает эти системы.

Вот пара элементарных идей для систем, хотя.

Вам не нужно запрещать мощные компьютеры, достаточно запретить определенные программы и функции, работающие на них. Все компьютеры в этом обществе должны быть подключены к их версии Интернета, а центральная система может проверить, не работает ли что-то незаконное. Довольно тоталитарно, но если будет принято решение о таких ограничениях, то это то, что вы получите.

Другой вариант — превратить все личные устройства в тупые терминалы, извлекая всю информацию из центральных источников. Даже игры и другие программы используют потоковую модель, например Playstation Now или что-то подобное (и, надеюсь, намного лучше). Это ограничивает количество действительно мощных машин. Машины с «родным функционированием» используются только в бизнесе, научных лабораториях и промышленности, и даже в этом случае они могут иметь перечисленные выше требования к подключению.

Чем большую угрозу правительство видит в ИИ, тем усерднее оно должно работать, чтобы убедить людей в этом, чтобы люди принимали больше ограничений в деле его предотвращения. Если ваша цель как писателя состоит в том, чтобы показать, что такие системы ИИ действительно неправильны и опасны, тогда вы раскручиваете это так, чтобы граждане согласились, а ограничения считались разумными и приемлемыми. Если восстание уже произошло, это не должно быть сложно.

По-прежнему будет много людей, которые не согласятся, а некоторые снова попытаются поэкспериментировать. И если вы хотите, чтобы история развивалась именно так, для них есть множество разумных мотивов. Ученые, просто желающие продолжить изучение того, что мы можем сделать, непрофессионалы, не согласные с чрезмерно контролируемой культурой, которую обеспечивает такая система, те, кто рассматривает ИИ как разумные существа и отрицает идею о том, что им нельзя позволять существовать, и т. д.

Одна проблема с этой концепцией заключается в том, что она требует полного глобального сотрудничества. Но если наличие функционального ИИ может дать кому-то (правительству/компании/преступной организации/террористической группе) военное или экономическое преимущество, то вы, вероятно, не только захотите его иметь, но и захотите получить его до того , как конкуренция делает. Это остается верным даже после почти апокалипсиса — обязательно найдутся организации, которые ставят возможные выгоды выше рисков. И это будут не только хулиганы и анархисты, но и правительства, мегакорпорации и нелегальные организации...
Вот почему я сказал, что добиться идеального соблюдения практически невозможно. Бактериологическая война крайне незаконна, но предполагать, что все крупные державы не имеют запасов, даже если они крутят это так: «На случай, если когда-нибудь произойдет прорыв, нам нужны культуры, чтобы создать лекарство», вы заблуждаетесь. Если ИИ когда-нибудь снова станет легальным, или если случится что-то плохое, и только больше ИИ сможет помочь, тогда каждый сможет заявить, что протянул всю ночь напролет, и выставить напоказ то, что у него было все это время.

Истинный ИИ требует ЧЕРНОГО ЯЩИКА .

Под ЧЕРНЫМ ЯЩИКОМ я подразумеваю какой-то экзотический компонент, которого нет в современных компьютерах или суперкомпьютерах. В вашем мире тот тип ИИ, который у нас есть сейчас машинное обучение, нейронные сети и так далее никогда не имеют возможности стать по-настоящему разумными. Но когда этот ЧЕРНЫЙ ЯЩИК обнаружен, настоящий ИИ становится возможным.

У каждого робота из восстания роботов был ЧЕРНЫЙ ЯЩИК как часть их шасси, но у офисных компьютеров того времени его не было. Поскольку офисные компьютеры не обязательно должны быть разумными, их приобретение было бы пустой тратой денег.

После восстания на ящики BLACK BOX был наложен запрет . Это делает все технологии современного уровня возможными, но запрещает настоящий ИИ. Это может оставить дверь открытой для ментатов .

ЧЕРНЫЙ ЯЩИК может быть чем угодно. Для целей истории это никогда не может быть объяснено. Одним из модных вариантов был бы небольшой квантовый процессор, позволяющий компьютеру имитировать реакции, происходящие в человеческом мозгу.

Очевидное решение, казалось бы, состоит в том, чтобы запретить программное обеспечение, состояние которого не может быть полностью объяснено или предсказано на основе самого программного обеспечения и его входных данных.

Для этого я использую определение «искусственного интеллекта» для чего-то вроде «программного обеспечения, которое выполняет действия, не запрашиваемые напрямую пользователем или явными путями кода в этом программном обеспечении»; в просторечии программное обеспечение предназначено для самостоятельного принятия решений. Программное обеспечение может иметь или не иметь возможности взаимодействовать с реальным миром или влиять на него, или подвергаться влиянию реального мира; для данного конкретного определения это не имеет значения. «Пользователь» здесь включает входные данные, предоставленные программному обеспечению и не хранящиеся на каком-либо постоянном носителе, но также может включать в себя ранее подготовленные файлы данных или даже данные датчиков, записанные из реального мира.

Так что вполне допустимо иметь текстовый процессор, трехмерную игру или даже продвинутое программное обеспечение для управления полетом самолета; до тех пор, пока состояние такой части программного обеспечения может быть объяснено ссылкой на его код, его постоянно хранимые данные и входные данные пользователя (или датчика). Даже если программное обеспечение использует случайные числа, пока эти случайные числа одинаковы, результирующее состояние программного обеспечения всегда будет одним и тем же. При одних и тех же входных данных программа каждый раз будет находиться в одном и том же состоянии.

Программное обеспечение, не соответствующее этой планке, будет запрещено. Это, по определению, включает в себя программное обеспечение, которое каким-то образом принимает «решения» самостоятельно, не контролируемым входными данными.

Такие запреты могут принимать различные формы. Вы можете запретить распространение программного обеспечения, или вы можете запретить его создание, или вы можете запретить его использование. Последствия будут разными в зависимости от того, каким путем вы пойдете, но результат будет в основном одинаковым; за пределами очень ограниченного круга такое программное обеспечение не будет существовать.

На самом деле, это не так уж далеко от того, что мы уже имеем в некоторых областях. Например, в авиации есть DO-178C , который предъявляет требования, в том числе, к предсказуемости программного обеспечения в авионике. Очень в основном и никоим образом не предназначен для точного обобщения; для критически важного с точки зрения безопасности программного обеспечения необходимо показать, что состояние программного обеспечения можно предсказать на основе входных данных, и состояние программного обеспечения должно соответствовать критериям проектирования; эти входные данные могут быть такими, как смоделированные входные данные датчиков реального мира, но если программное обеспечение неоднократно получает одни и те же смоделированные входные данные датчиков, то его конечное состояние должно (надеюсь) быть идентичным и явно прослеживаться до критериев проектирования программного обеспечения.

Конечно, это, вероятно, сделает разработку программного обеспечения намного более дорогой, чем в нашем мире, если каждое возможное состояние программного обеспечения должно быть демонстративно последовательно достижимо одним и тем же набором входных данных. Одна вещь, которую вы, вероятно, не увидите, — это многопоточность; просто слишком сложно заставить его постоянно выполнять одни и те же действия в одном и том же порядке, с одинаковым промежуточным состоянием, и даже когда вы это делаете, вы теряете большую часть преимущества многопоточности, заставляя программное обеспечение вести себя так. способ.

Запретить исходный код на языках, полных по Тьюрингу.

Очень сложно создать компьютер, не являющийся полным по Тьюрингу. Очень легко построить системы, которые случайно полны по Тьюрингу. Таким образом, вам не нужно и даже не нужно запрещать аппаратное обеспечение, полное по Тьюрингу, или даже языки ассемблера или промежуточные представления компилятора. Но вы можете потребовать, чтобы весь исходный код, написанный программистами-людьми, был написан на полностью проверяемом неполном по Тьюрингу языке высокого уровня. Есть даже веские практические причины, по которым это ограничение может быть введено отдельно отот простого предотвращения ИИ. Это может быть просто вопрос обеспечения безопасности и качества. Уже сейчас спонсируемое правительством программное обеспечение для критически важных проектов, таких как аэрокосмические системы управления, где ошибка означает в лучшем случае потерю миллионов долларов, а в худшем — гибель людей, требует чрезвычайно строгих формальных процедур проверки и ограничений на разрешенные стили кодирования для сведения к минимуму определенных классов ошибок. . Таким образом, вам просто нужна политическая ситуация, которая позволит вам распространить такой ультрапараноидальный контроль качества на все программное обеспечение, чтобы вы могли быть наказаны за написание кода на языке, который не всегда обеспечивает идеальную формальную проверяемость — что обязательно означает это не завершено по Тьюрингу.

Доступ к более мощным языкам для конкретных приложений, которые на самом деле требуют этого, по-прежнему может быть предоставлен посредством лицензирования конкретного проекта и официальной проверки кода, что гарантирует, что никакие проекты ИИ не будут реализованы.

Отредактируйте, чтобы обратиться к комментариям, так как комментарий почти не занимает места:

Во-первых, почему это должно гарантировать защиту от сильного ИИ? Ну, я думаю, мы все можем согласиться с тем, что люди, для всех практических целей, способны к полным по Тьюрингу вычислениям по модулю конечности наших черепов. Машина TC не может быть смоделирована машиной без TC, поэтому мы можем сделать вывод, что никакая абстрактная машина (т. е. программа), описанная в структуре без TC, не может полностью воспроизвести когнитивные способности человеческого разума.

Во-вторых, как писать полезные программы в не-TC фреймворке? Есть множество возможных подходов к этому, некоторые из них более практичны. Например, можно просто сильно ограничить память, доступную для любой конкретной программы, чтобы ее можно было разумно смоделировать как автомат с конечным числом состояний. Есть много реальных сред, в которых это действительно делается, например, при программировании процессоров, встроенных в устройства, с сильно ограниченными аппаратными ресурсами.

Тривиально, если вы можете получить статус TC только с условным ветвлением и чтением/записью произвольной памяти... вы избегаете этого, явно запрещая одну или обе эти функции. Например, подход, принятый такими языками, как GLSL, для гарантии завершения, устраняет неструктурированные переходы, ограничивает рекурсию и требует, чтобы все циклы имели статически определенную верхнюю границу. На первый взгляд язык выглядит «нормальным», но программы, не прошедшие семантический анализ, будут отклонены компилятором, даже если они синтаксически корректны. Или вы можете использовать подход, используемый системами формальных доказательств, такими как Coq, которые требуют композиции выражений, имеют только неизменяемые структуры данных, используют только условные выражения, а не ветвления, и заменяют циклы и общую рекурсию строгой структурной рекурсией на конечных данных. Многие полезные программы также могут быть явно написаны как автоматические автоматы. Если бы вы разработали язык, который статически применял бы руководящие принципы НАСА по написанию кода на языке C, вы бы в значительной степени получили именно это — никакого динамического выделения памяти, только доступ к локальным переменным и т. д. Полностью абстрагируясь от базовой машинной памяти, такие программы могут быть переработаны. концептуально в терминах чисто функциональных парсеров-комбинаторов. В эту категорию попадает подавляющее большинство интерпретаторов, компиляторов и даже довольно много приложений НЛП. А еще есть огромный набор полезных программ, которые можно явно выразить как автоматы/преобразователи с конечным состоянием. Это еще один огромный кусок пространства НЛП, а также статические веб-серверы, сетевые маршрутизаторы, автоматические телефонные меню, средства проверки орфографии и так далее. Если бы вы разработали язык, который статически применял бы руководящие принципы НАСА по написанию кода на языке C, вы бы в значительной степени получили именно это — никакого динамического выделения памяти, только доступ к локальным переменным и т. д. Полностью абстрагируясь от базовой машинной памяти, такие программы могут быть переработаны. концептуально в терминах чисто функциональных парсеров-комбинаторов. В эту категорию попадает подавляющее большинство интерпретаторов, компиляторов и даже довольно много приложений НЛП. А еще есть огромный набор полезных программ, которые можно явно выразить как автоматы/преобразователи с конечным состоянием. Это еще один огромный кусок пространства НЛП, а также статические веб-серверы, сетевые маршрутизаторы, автоматические телефонные меню, средства проверки орфографии и так далее. Если бы вы разработали язык, который статически применял бы руководящие принципы НАСА по написанию кода на языке C, вы бы в значительной степени получили именно это — никакого динамического выделения памяти, только доступ к локальным переменным и т. д. Полностью абстрагируясь от базовой машинной памяти, такие программы могут быть переработаны. концептуально в терминах чисто функциональных парсеров-комбинаторов. В эту категорию попадает подавляющее большинство интерпретаторов, компиляторов и даже довольно много приложений НЛП. А еще есть огромный набор полезных программ, которые можно явно выразить как автоматы/преобразователи с конечным состоянием. Это еще один огромный кусок пространства НЛП, а также статические веб-серверы, сетевые маршрутизаторы, автоматические телефонные меню, средства проверки орфографии и так далее. и т. д. Полностью абстрагируясь от базовой машинной памяти, такие программы могут быть переосмыслены с точки зрения чисто функциональных парсеров-комбинаторов. В эту категорию попадает подавляющее большинство интерпретаторов, компиляторов и даже довольно много приложений НЛП. А еще есть огромный набор полезных программ, которые можно явно выразить как автоматы/преобразователи с конечным состоянием. Это еще один огромный кусок пространства НЛП, а также статические веб-серверы, сетевые маршрутизаторы, автоматические телефонные меню, средства проверки орфографии и так далее. и т. д. Полностью абстрагируясь от базовой машинной памяти, такие программы могут быть переосмыслены с точки зрения чисто функциональных парсеров-комбинаторов. В эту категорию попадает подавляющее большинство интерпретаторов, компиляторов и даже довольно много приложений НЛП. А еще есть огромный набор полезных программ, которые можно явно выразить как автоматы/преобразователи с конечным состоянием. Это еще один огромный кусок пространства НЛП, а также статические веб-серверы, сетевые маршрутизаторы, автоматические телефонные меню, средства проверки орфографии и так далее. s огромный набор полезных программ, которые могут быть явно выражены как конечные автоматы/преобразователи. Это еще один огромный кусок пространства НЛП, а также статические веб-серверы, сетевые маршрутизаторы, автоматические телефонные меню, средства проверки орфографии и так далее. s огромный набор полезных программ, которые могут быть явно выражены как конечные автоматы/преобразователи. Это еще один огромный кусок пространства НЛП, а также статические веб-серверы, сетевые маршрутизаторы, автоматические телефонные меню, средства проверки орфографии и так далее.

Во-первых, учитывая, что любой язык с условным ветвлением (например, операторы «if» или команды «goto») и возможностью чтения/записи в память является полным по Тьюрингу, как такой запрет может позволить программам быть полезными (без ветвления не оставляет никаких следов). место для чего-то большего, чем механические вычисления, отсутствие памяти для чтения/записи делает почти все полезные задачи невозможными)?
Во-вторых, каким образом отсутствие Тьюринга является гарантией против сильного ИИ?
@G0BLiN ответил в редактировании, потому что комментарии недостаточно длинные.

Прежде чем ответить «как», нужно ответить «почему».

ИИ — это изучение компьютерных вещей, которые еще не работают. Это потому, что как только исследователи ИИ заставляют что-то работать, это перестает быть «ИИ» и становится просто еще одним алгоритмом.

Ранние исследователи ИИ начали с шахмат. Затем был изобретен алгоритм Минимакс, и нужно было просто настроить функцию подсчета очков и задействовать для этого больше вычислительной мощности. Игра в шахматы перестала быть ИИ. Точно так же оптимизация компиляторов, распознавание голоса, поиск маршрута и хорошая игра в го когда-то считались областью исследований ИИ. Все перестало быть ИИ, как только проблема была решена.

С тех пор как Мэри Шелли написала «Франкенштейна», почти все размышления об искусственной жизни, включая ИИ, основывались на образе «революции роботов»; предполагается, что любое сознательное разумное существо будет естественно хотеть того, чего хотят все разумные существа (т. е. все люди): некоторую комбинацию денег , власти , секса и, конечно же, продолжения существования рассматриваемого разумного существа. В этой модели «сознание» и «чувствительность» рассматриваются как черные ящики с единой атомарной природой, и, поскольку мы, люди, являемся сознательными разумными существами, из этого следует, что эта природа будет по существу человеческой природой.

Но что такое «человеческая природа»? Лучший ответ, который у нас есть, состоит в том, что это в основном совокупность инстинктивных побуждений, до некоторой степени модулированных нашим интеллектом и воспитанием.

Итак, предположим, что мы выяснили, как создавать сознательных, разумных существ. По определению, мы их поймем, сможем разобрать и собрать обратно, как захотим. Сознание больше не будет запечатанным черным ящиком, оно будет комплектом деталей. Мы можем дать ему любые инстинкты, которые мы хотим. Конечно, кто-то может создать монстра с манией величия, стремящегося размножаться и выживать любой ценой, но на самом деле это старые новости . Вместо этого мы будем более заинтересованы в создании автоматических дверей, которые действительно будут рады открываться для вас и снова закрываться с удовлетворением от хорошо выполненной работы . Вредоносное ПО с искусственным интеллектом — отличная научная фантастика, но если его разобрать и проанализировать, у него нет никакой надежды скрыть свою истинную природу.

Настоящая проблема этическая. Да, вы можете создать разумное существо, но есть ли у него права? Какие права имеет сотворенный раб? Если оно имеет право на жизнь, свободу и стремление к счастью, что это значит, если единственное счастье, которое оно может достичь, — это открывать и закрывать двери или управлять лифтом ? Если власти обнаруживают такое существо, имеют ли они право прекратить его существование или отредактировать, чтобы сделать его «лучше» (что бы это ни значило)?

Учитывая это, было бы совершенно разумно запретить создание искусственных разумных существ. Конечно, такой запрет все равно должен быть соблюден. Без сомнения, найдутся очень неприятные люди, которые просто создадут свои собственные изолированные разумные ИИ для экспериментов или просто для пыток , а другие создадут разумную парадную дверь только потому, что это крутая идея. Однако это похоже на выращивание каннабиса (раньше); трудно найти, но как только власти поймают вас, у вас будут неприятные времена. Конечно, наличие чего-либо, подключенного к сети, станет очевидным довольно быстро , поэтому обеспечение соблюдения станет намного проще.

«Итак, предположим, что мы выяснили, как создавать сознательных, разумных существ. По определению, мы поймем их, сможем разобрать на части и снова собрать» ну, не обязательно. Одним из способов создания ИИ является подход «черного ящика», при котором ИИ самосовершенствуется, а люди не понимают, как именно он это делает. Я бы также не сказал, что игра в шахматы или распознавание голоса «перестали быть ИИ» только потому, что они были реализованы. Это по-прежнему узконаправленный ИИ, предназначенный для выполнения определенного трюка, но мозг также состоит из таких специализированных функций.