Какова концепция технологической сингулярности?


32

Я слышал идею технологической сингулярности, что это такое и как это связано с искусственным интеллектом? Является ли это теоретическим моментом, когда машины искусственного интеллекта достигли уровня, на котором они растут и учатся самостоятельно, помимо того, что люди могут сделать, и их рост взлетает? Как мы узнаем, когда достигнем этой точки?

Ответы:


20

Технологическая сингулярность теоретическая точка во времени , при котором самосовершенствующийся искусственный общий интеллект становится способным понять и манипулировать понятиями за пределами диапазона человеческого мозга, то есть в момент , когда он может понять вещи людей, биологической конструкцией, может» т.

Нечеткость сингулярности проистекает из того факта, что, начиная с сингулярности, история фактически непредсказуема. Человечество не сможет предсказать какие-либо будущие события или объяснить какие-либо нынешние события, поскольку сама наука становится неспособной описать события, запускаемые машиной. По сути, машины будут думать о нас так же, как мы думаем о муравьях. Таким образом, мы не можем делать прогнозы за пределами сингулярности. Кроме того, как логическое следствие, мы не сможем определить точку, в которой сингулярность может возникнуть вообще, или даже распознать ее, когда это произойдет.

Однако для того, чтобы сингулярность имела место, необходимо разработать AGI, и вопрос о том, возможно ли это, является довольно горячей дискуссией.прямо сейчас. Кроме того, должен быть разработан алгоритм, который создает сверхчеловеческий интеллект из битов и байтов. По определению, программист-человек не сможет сделать такую ​​вещь, так как его / ее мозг должен уметь понимать концепции, выходящие за пределы его диапазона. Существует также аргумент, что интеллектуальный взрыв (механизм, с помощью которого теоретически сформировалась бы технологическая сингулярность) был бы невозможен из-за сложности задачи проектирования, заключающейся в том, чтобы сделать себя более разумным, увеличившись пропорционально своему интеллекту, и что сложность Сама конструкция может превзойти интеллект, необходимый для решения упомянутой задачи (последний балл за бога лам в комментариях).

Кроме того, есть связанные теории, вовлекающие машины, захватывающие человечество, и весь этот научно-фантастический рассказ. Однако это вряд ли произойдет, если законы Азимова будут соблюдаться надлежащим образом. Даже если бы законов Азимова было недостаточно, все равно понадобился бы ряд ограничений, чтобы избежать неправомерного использования AGI недобросовестными людьми, и законы Азимова - самое близкое к этому.


Существует также аргумент, что интеллектуальный взрыв (механизм, с помощью которого теоретически может быть сформирована технологическая сингулярность) был бы невозможен из-за сложности задачи проектирования, состоящей в том, чтобы сделать себя более разумным, увеличиваясь пропорционально своему интеллекту, и что сложность задача проектирования может превзойти интеллект, необходимый для решения задачи проектирования. << вы можете добавить это к своему ответу, чтобы сделать его более полным / всеобъемлющим.
Бог лам

1
Законы робототехники Азимова не воспринимаются всерьез, они фактически были придуманы, чтобы показать множество способов, с помощью которых они могут пойти не так и быть неверно истолкованы ИИ (если, конечно, ИИ не становится достаточно умным, чтобы полностью игнорировать их и придумывать свои намерения и цели), и это было то, о чем были истории. Смотрите это видео .
Бог лам

@godofllamas: Спасибо за ваше предложение, я соответственно обновил ответ. Что касается законов Азимова, AFAIK, нулевой закон был разработан именно для того, чтобы избежать многих способов, которыми три первоначальных закона были (ab) использованы в рассказах Азимова. В любом случае, ИИ, безусловно, нужно каким-то образом ограничивать, будь то законы Азимова или что-то еще, чтобы избежать возможного злоупотребления им и дальнейшего разрушения.
3442

Понимание того, что люди не могут, не является требованием теории единственности в ИИ. Если бы машины могли понимать только 1% того, что понимают люди, но могли бы удваивать этот уровень понимания каждый год, это произошло бы. Даже если бы машина никогда не превосходила качественно человеческий мозг, если бы она могла работать быстрее или надежнее, она все равно демонстрировала бы превосходство и, вероятно, могла бы достичь господства.
ФауХристиан

3

Понятие «особенность» - это когда машины перехитряют людей. Хотя Стивен Хокинг считает, что эта ситуация неизбежна, но я думаю, что будет очень трудно достичь этой точки, потому что каждый алгоритм ИИ должен программироваться людьми, поэтому он всегда будет более ограниченным, чем его создатель.

Вероятно, мы знали бы, когда наступит момент, когда человечество утратит контроль над Искусственным интеллектом, когда супер-умный ИИ будет конкурировать с людьми и, возможно, создать более изощренные интеллектуальные существа, но в настоящее время это больше похоже на научную фантастику (также известный как « Терминатор» ).

Риск может включать в себя убийство людей (например, беспилотные военные беспилотники, принимающие свое собственное решение), уничтожение стран или даже всей планеты (например, ИИ, подключенного к ядерному оружию ( фильм WarGames ), но это не доказывает, что машины будут умнее людей.


«Каждый алгоритм ИИ должен программироваться людьми» -> Общая идея ИИ заключается в том, что машины могут учиться, улучшая свое собственное программирование. Теоретически, это может привести к тому, что машины в конечном итоге станут умнее нас и будут способны создавать алгоритмы, превосходящие любые алгоритмы, написанные людьми, что, в свою очередь, приведет к еще лучшему ИИ.
Джон Слегерс

«Каждый алгоритм ИИ должен программироваться людьми, поэтому он всегда будет более ограниченным, чем его создатель» - это интересный аргумент. Следующие аргументы являются встречными аргументами -1) нам не нужно кодировать интеллект ИИ. нам нужно кодировать ИИ для способности наблюдать, делать выводы и понимать. После этого, по-видимому, простое добавление достаточно большей вычислительной мощности и более быстрых сделает ИИ способным учиться и постигать лучше нас. 2) Кроме того, если 1000 человек применяют свой мозг для создания ИИ, ИИ может иметь больше интеллекта, чем 1. человек.
Акм

Алгоритмы НЕ должны программироваться людьми. Возможно и фактически несколько распространено преобразовывать, изменять, оптимизировать, оценивать и выбирать алгоритмы; и машины уже перехитряют людей в некоторых отношениях и довольно часто.
FauChristian

3

Сингулярность в контексте ИИ является теоретическим событием, в результате которого используется интеллектуальная система со следующими критериями.

  1. Способный улучшить диапазон собственного интеллекта или развернуть другую систему с таким улучшенным диапазоном
  2. Готов или вынужден сделать это
  3. Возможность сделать это при отсутствии человеческого контроля
  4. Улучшенная версия поддерживает критерии (1) - (3) рекурсивно

По индукции теория затем предсказывает, что будет генерироваться последовательность событий с потенциальной скоростью увеличения интеллекта, которая может значительно превышать потенциальную скорость эволюции мозга.

Насколько обязан этот самосовершенствующийся субъект или популяция потомственных существ сохранять человеческую жизнь и свободу, неопределенно. Идея о том, что такое обязательство может быть частью безотзывного договора на программное обеспечение, наивна в свете характера возможностей, связанных с критериями (1) - (4) выше. Как и в случае с другими мощными технологиями, риски столь же многочисленны и серьезны, как и потенциальные выгоды.

Риски для человечества не требуют интеллекта. Существуют и другие контексты использования термина «сингулярность», но они выходят за рамки этого форума по искусственному интеллекту, но для ясности могут стоить краткого упоминания. Генная инженерия, ядерная инженерия, глобализация и основание международной экономики на конечном источнике энергии, потребляемом в тысячи раз быстрее, чем это происходило на Земле. Это другие примеры технологий и массовых тенденций высокого риска, которые представляют как риски, так и выгоды человечеству.

Возвращаясь к ИИ, главная оговорка в теории сингулярности заключается в том, что она не учитывает вероятность. Хотя может быть возможно разработать объект, который соответствует критериям (1) - (4) выше, он может быть достаточно маловероятным, чтобы первое событие произошло спустя много времени после того, как все текущие языки, на которых говорят на Земле, мертвы.

С другой стороны, можно легко утверждать, что существует ненулевая вероятность того, что первое событие уже произошло.

В том же духе, если более разумное присутствие в Интернете уже существует, насколько вероятно, что он найдет в своих интересах раскрыть себя для низших людей. Мы представляем себя проходящему личинку?


Спасибо за объяснение. Я должен признать, что концептуально не понимаю, как эти условия будут выглядеть практически, особенно 1). Предположительно, алгоритм реализован с более или менее определенным набором входов и выходов. Должны ли мы предполагать, что это изменяет эти множества для 1), чтобы быть правдой? Почему любой разработчик-человек решил позволить это, по крайней мере, неконтролируемым образом, даже задолго до уровня AGI? И ... это наивный вопрос? :)
Cpt Рейнольдс

0

«Сингулярность», рассматриваемая в узком смысле, относится к точке, в которой экономический рост настолько быстр, что мы не можем делать полезные прогнозы о том, как будет выглядеть будущее в прошлом.

Он часто используется взаимозаменяемо с «интеллектуальным взрывом», когда мы получаем так называемый Сильный ИИ, то есть ИИ, достаточно умный, чтобы понимать и совершенствовать себя. Разумно ожидать, что взрыв интеллекта немедленно приведет к экономической сингулярности, но обратное не всегда верно.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.