Почему глубоких нейронных сетей и глубокого обучения недостаточно для достижения общего интеллекта?


11

Все, что связано с Deep Learning (DL) и глубокими (er) сетями, кажется «успешным», по крайней мере, очень быстрым, развивая веру в то, что AGI достижим. Это популярное воображение. DL - это потрясающий инструмент для решения многих проблем, включая создание AGI. Однако этого недостаточно. Инструмент является необходимым компонентом, но часто недостаточным.

Ведущие деятели в этой области ищут возможности для прогресса. В этом отчете / заявлении собраны ссылки на заявления Йошуа Бенжио , Янна ЛеКуна и Джеффа Хинтона . В отчете также объясняется:

Основными недостатками DL (как я их вижу) являются: опора на простейшие из возможных модельных нейронов («карикатурный», как их называет LeCun); использование идей статистической механики и статистики XIX века, которые являются основой энергетических функций и методов логарифмического правдоподобия; и сочетание этих методов в таких методах, как обратный ход и стохастический градиентный спуск, что приводит к очень ограниченному режиму применения (автономное, в основном пакетное, контролируемое обучение), требующему высококвалифицированных специалистов (так называемый «Стохастический спуск по выпуску»), большое количество дорогостоящих помечены данные обучения и вычислительные мощности. Хотя DL отлично подходит для крупных компаний, которые могут заманить или купить талант и использовать неограниченные ресурсы для сбора и обработки данных, DL просто не доступен и не полезен для большинства из нас.

Хотя это и интересно и уместно, такого рода объяснения на самом деле не решают суть проблемы: чего не хватает?

Вопрос кажется широким, но это может быть из-за отсутствия простого ответа. Есть ли способ точно определить, что DL не хватает для AGI?


Ответы:


7

Каждый, кто имеет дело с нейронными сетями, упускает важный момент при сравнении систем с человеческим интеллектом. Человеку требуется много месяцев, чтобы сделать что-то вразумительное, не говоря уже о том, что он способен решать проблемы, с которыми взрослые люди едва справляются. Это и размер человеческого мозга огромен по сравнению с нашими нейронными сетями. Направление может быть правильным, но масштаб далеко. Количество нейронов в человеческом мозге можно сопоставить по памяти, но степень параллелизма для симуляции в реальном времени пока не может быть достигнута (по крайней мере, для случайного исследователя). В старости это может дать вам представление о том, насколько нам не хватает вычислительной мощности.


Спасибо за этот краткий ответ. Вы говорите, что только размер имеет значение для достижения AGI и выше, только с технологиями DL? Размер имеет значение, но что-то, вероятно, еще не хватает. (Любой каламбур в этом пункте целиком и полностью предназначен).
Эрик Платон

1
Например, давайте рассмотрим клеточные автоматы а-ля Вольфрам. Очень просто, но приводит к удивительной сложности.
Эрик Платон

Является ли квантовое вычисление, в какой бы форме оно ни было в конечном итоге, одним из предложенных решений этой проблемы обработки?
DukeZhou

Квантовая обработка может быть использована для принятия решения в определенный момент, но ее нельзя использовать для симуляции непрерывного потока, как в человеческом мозге. Как только система наблюдается, квантовая форма волны коллапсирует, сводя ее к по существу медленной последовательной системе.
Джем Калионку

1
@CemKalyoncu Действительно. Но у слона почти в 3 раза больше людей . Конечно, аргумент размера имеет значение, но одного размера недостаточно.
Эрик Платон

6

Глубокое обучение в основном успешно в контролируемом обучении, в то время как мозг строит категории в основном без присмотра. Мы еще не знаем, как это сделать. (Взгляните на мозг Google : 16 000 ядер, и все, что можно сделать, это распознать кошки и человеческие лица с довольно ужасной точностью.)

Глубокое обучение использует крайне неструктурированные активации, то есть высокоуровневые представления «собака» и «кошка» в классификаторе нейронной сети вовсе не должны быть похожими. Мозг, с другой стороны, использует тормозные нейроны для создания разреженных распределенных представлений, которые можно разложить на их семантические аспекты. Это, вероятно, важно для абстракции и рассуждений по аналогии.

Мозг имеет много разных частей, которые работают вместе. Исследователи глубокого обучения только начинают интегрировать механизмы памяти или внимания в свою архитектуру.

Мозг объединяет информацию из разных чувств. Большинство приложений глубокого обучения используют только один тип ввода, например, текст или изображения.

Мозг способен моделировать последовательности как категории. (По сути, каждый глагол называет последовательную (т.е. временную) категорию.) Затем он может упорядочить эти категории в долгосрочные иерархические планы. До сих пор я не видел ничего в этом направлении в Deep Learning.

Также нейронные сети еще не могут работать в том же масштабе, что и человеческий мозг. Если вы посмотрите на ответы на этот вопрос , человеческий мозг будет впереди по количеству нейронов еще пару десятилетий. Нейронной сети может не понадобиться такое же количество нейронов, что и мозгу, чтобы достичь аналогичной производительности (из-за более высокой точности), но сейчас, например, обработка видео все еще довольно ограничена с точки зрения ввода и пропускной способности.


Интересные моменты и здесь, спасибо. Меня беспокоит то, что это контрастный процесс ([глубокое] обучение) и структура (сети или мозга). Если эта тенденция верна, AGI - это просто вопрос времени, основанный на том, что у нас есть. Вы упоминаете о семантических проблемах в глубоких сетях, которые лучше всего рассматривать в состязательных моделях. Это указывает на то, что чего-то не хватает, и является одним из лучших аргументов в этом ответе. Я понимаю, что нынешние структуры недостаточны (т.е. ранние модели памяти). Это косвенно касается вопроса «почему». Вы видите способы уточнить свой ответ?
Эрик Платон

Являются ли недавние «оптические» подходы к игре ML попыткой освободиться от контролируемого обучения?
DukeZhou

@DukeZhou: Я действительно думаю, что RL-методы могут играть роль в обучении без учителя, но сейчас мне кажется, что RL еще не изучает концепции высокого уровня.
BlindKungFuMaster

1
@EricPlaton: Я не уверен, что понимаю ваш комментарий. Чего мне не хватает, так это 1. структуры и 2. масштаба. И конечно алгоритмы, но они переплетены со структурой.
BlindKungFuMaster

3

ИМХО, первое препятствие - масштаб : даже самый большой DNN Google не приближается к масштабам мозга, и в несколько раз больше ...


2

Я думаю, что до сих пор не хватает аспектов, которые делают человеческий мозг; имея много разных сетей, работающих друг с другом.

Подобно тому, как медитация улучшает когнитивные способности, так как мозг работает более синергетически, мы можем применить это и к машинам.

Например, Google учит компьютер мечтать, как и мы, укреплять то, что мы уже изучили. https://medium.com/@tannistho/why-is-google-teaching-its-ai-to-dream-e9ae9ecd0e3a#.gljal6pww

А вот патнет, сеть нейронной сети. https://medium.com/@thoszymkowiak/deepmind-just-published-a-mind-blowing-paper-pathnet-f72b1ed38d46#.ed0f6pdq7

Создаем всю эту механику и собираем их все вместе с достаточной мощностью, и мы подойдем довольно близко!


Не могли бы вы уточнить, что это такое? Это может быть процесс глубокого обучения или столь же глубокие сети. Это разные.
Эрик Платон

1
Я полагаю, что DNN также должен обладать хорошими характеристиками нейронной пластичности. Но это то, что мы могли бы затронуть только основы, мы даже не знаем, как именно работает человеческий мозг
Александр

1

Сторонники искусственного интеллекта сегодня сосредоточены на проблеме вычислимости - способности быстро решать сложные проблемы. Я полагаю, что любой успех в этом направлении не приведет к человеческому (общему) интеллекту, хотя он определенно превзойдет людей в определенных областях. Вместо этого, усилия должны быть направлены на изучение того, какие неврологические события вызывают ощущение (опыт квалиа). Конечно, это сложная проблема философии, но я считаю, что это уникальный ключ к общему интеллекту и его возможностям. Обратный инжиниринг, а также проверяемые теории должны быть продвинуты в этом направлении.


1
Quaila может быть интересной особенностью для машин (особенно если мы хотим, чтобы люди давали права на эти машины), но помимо самой quaila, которая является очень сложной проблемой в философии, есть две основные проблемы. (A) сам по себе интеллект может не требовать кайлы, вы можете быть умным, не имея возможности иметь субъективные переживания от первого лица ... то есть, философского зомби.
Оставлено SE 10_6_19

(B) Промышленность заботится только о быстром решении сложных проблем и не беспокоится о том, может ли эта быстрая машина думать или чувствовать. AGI желателен только в той мере, в которой он может быстро решать сложные проблемы ... интеллект - только средство для достижения цели. (На самом деле, индустрия может не нуждаться в машине мышления и чувствования, поскольку такие машины могут заслуживать прав ... и права являются своего рода нормативными актами, ограничивающими то, что бизнес может делать со своим инструментом.)
Left SE On 10_6_19
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.