Все, что связано с Deep Learning (DL) и глубокими (er) сетями, кажется «успешным», по крайней мере, очень быстрым, развивая веру в то, что AGI достижим. Это популярное воображение. DL - это потрясающий инструмент для решения многих проблем, включая создание AGI. Однако этого недостаточно. Инструмент является необходимым компонентом, но часто недостаточным.
Ведущие деятели в этой области ищут возможности для прогресса. В этом отчете / заявлении собраны ссылки на заявления Йошуа Бенжио , Янна ЛеКуна и Джеффа Хинтона . В отчете также объясняется:
Основными недостатками DL (как я их вижу) являются: опора на простейшие из возможных модельных нейронов («карикатурный», как их называет LeCun); использование идей статистической механики и статистики XIX века, которые являются основой энергетических функций и методов логарифмического правдоподобия; и сочетание этих методов в таких методах, как обратный ход и стохастический градиентный спуск, что приводит к очень ограниченному режиму применения (автономное, в основном пакетное, контролируемое обучение), требующему высококвалифицированных специалистов (так называемый «Стохастический спуск по выпуску»), большое количество дорогостоящих помечены данные обучения и вычислительные мощности. Хотя DL отлично подходит для крупных компаний, которые могут заманить или купить талант и использовать неограниченные ресурсы для сбора и обработки данных, DL просто не доступен и не полезен для большинства из нас.
Хотя это и интересно и уместно, такого рода объяснения на самом деле не решают суть проблемы: чего не хватает?
Вопрос кажется широким, но это может быть из-за отсутствия простого ответа. Есть ли способ точно определить, что DL не хватает для AGI?