Что мы знаем
Согласно странице Всемирного банка , «сегодня в мире обучается около 200 миллионов студентов высших учебных заведений по сравнению с 89 миллионами в 1998 году». По крайней мере, 1 из 100 должен был, как математическое требование, разработать доказательство для теоремы и жить как минимум 40 лет спустя.
Хотя существует не менее 20 миллионов нейронных сетей, которые могут доказать теорему, им не хватает примеров, которые ответили бы на этот вопрос утвердительно. Эти нейронные сети являются биологическими, а не искусственными, и они в основном доказали ранее доказанные теоремы, а не гипотезу Коллатца или гипотезу Римана.
Во что некоторые верят
Те, кто считает, что к устройствам, основанным на глубоком Q-обучении и внимании, будут присоединяться другие конструкции обучающей системы до тех пор, пока способности человеческого мозга не будут смоделированы и, возможно, превзойдены, скорее всего, включат теорему, доказывающую одну из этих человеческих способностей. Скорее всего, они объявят логику предикатов и умозаключения просто еще одной сложной когнитивной функцией, которая будет достигнута в искусственных системах.
Те, кто считает, что некоторые способности проникнуты в людей и являются зарезервированными способностями, могут объявить логику предикатов и логические выводы зарезервированными только для людей.
Текущее состояние прогресса
Нет академических статей, указывающих на способность доказывать даже самые простые доказательства, используя логику предикатов и умозаключения. Вполне возможно, что правительство или частное предприятие достигли определенного уровня успеха в этом, но это не было раскрыто.
Идея о том, что искусственные сети, если они будут значительно развиты, может превзойти производственные системы, системы ИИ, основанные на продуктах или правилах, в областях их наибольшей эффективности, была предложена в начале разработки ИИ. Это оспаривалось тогда и оспаривается сейчас, однако аргументы не являются математическими, поэтому нет явных признаков того, что это невозможно.
Конечно, другие когнитивные аспекты человеческой мысли являются важными целями исследования ИИ. Диалог, автоматизированное обучение, планирование, стратегический анализ и пилотирование транспортных средств - все это аспекты более высокого уровня мышления, которые требуют большего, чем DQN, и сетевые подходы, основанные на внимании, теперь могут обеспечить, но исследовательские усилия в этих областях заметны и хорошо финансируются.
Потенциальный подход
Исследование логических когнитивных способностей должно начинать с уже известных доказательств, гораздо проще, чем гипотезы, упомянутые в вопросе. Например, было доказано, что сумма двух неотрицательных целых чисел должна быть еще одним неотрицательным целым числом. В исчислении предикатов это может быть представлено в виде строки символов.
∀ ∈ C, b ∈ C: s = a + b⟹s ∈ C
В нем говорится, что a и b являются членами набора счетных чисел, а s, определяемые как сумма двух, также должны быть членами набора счетных чисел. Его доказательство также можно представить в виде последовательности символьных строк исчисления предикатов первого порядка.
Не маленький исследовательский проект
Такой пример может показаться простым для того, кто прошел годы математических курсов и создал доказательства. Для ребенка это не просто, и очень трудно заставить искусственную сеть сходиться к функции, которая применяет все правила логического вывода и включает мета-правила для получения доказательства для формальной системы, такой как целочисленная арифметика.
Полные сети Тьюринга, такие как RNN, безусловно, будут иметь преимущества перед MLP (многослойными персептронами). Основанные на внимании сети могут быть разумным вариантом исследования. Есть другие, указанные в ссылках ниже.
Для исследования потребуется параллельная вычислительная платформа, поскольку входной вектор может составлять сотни килобайт. Размеры примеров и их количество трудно оценить, не затрачивая год или два на исследовательский процесс.
Сначала необходимо определить определение счетных чисел, знака плюс и знака равенства, и эти определения и ряд аксиом, постулатов, лемм и следствий должны быть частью входного примера в формальной форме, такой как предложение о доказано выше, вместе с этим предложением.
И это работа, чтобы подготовить только один пример. Вам понадобятся тысячи, чтобы обучить интуитивным знаниям о правилах вывода в глубокую сеть. (Я выбрал слово «ИНТУИТИВНЫЙ» очень сознательно по теоретическим соображениям, для объяснения которых потребовалось бы не менее ста страниц.)
Это не маленький проект, так как примерный набор данных должен иметь как минимум несколько тысяч случаев, и каждый случай, хотя и может иметь некоторую теорию, должен быть настроен так, чтобы предложение было идеально сформировано, а также был представлен необходимый набор теории. в идеальной форме на входе для каждой итерации обучения.
Я предполагаю, что команде опытных исследователей с соответствующим пониманием глубоких сетей, сходимости и исчисления предикатов потребуется около десяти лет, чтобы обучить сеть давать жизнеспособные доказательства в ответ на простые математические предложения.
Но это было бы немалым достижением
Для некоторых это может показаться абсурдным, но это будет первый раз, когда кто-то научит компьютер быть логичным. Для того чтобы научить логическое мышление организма, Сократ, природе потребовалось совсем немного времени.
Люди предполагают, что поскольку компьютер состоит из цифровых цепей, которые по замыслу выполняют логику, компьютеры логичны. Любой, кто десятилетиями занимался разработкой программного обеспечения и склонен думать глубже, чем хакерство ради удовольствия или денег, знает по-другому. Даже после тщательного программирования компьютеры не имитируют логический вывод и не могут исправить свое запрограммированное поведение для любой произвольной ошибки. Фактически, большая часть разработки программного обеспечения сегодня - это исправление ошибок.
Симуляция логической мысли была бы важным шагом к симуляции познания и более широкого спектра человеческих способностей.
Ссылки
Обучение составлению нейронных сетей для ответов на вопросы Джейкоб Андреас, Маркус Рорбах, Тревор Даррелл и Дэн Кляйн, Университет Беркли, 2016
https://arxiv.org/pdf/1601.01705.pdf
Изучение нескольких слоев представления Джеффри Э. Хинтон Кафедра компьютерных наук, Университет Торонто 2007
http://www.csri.utoronto.ca/~hinton/absps/ticsdraft.pdf
Нейронная машина Тьюринга (слайд-шоу) Автор: Алекс Грейвс, Грег Уэйн, Иво Данихелка Представлено: Тинхуэй Ван (Стив)
https://eecs.wsu.edu/~cook/aiseminar/papers/steve.pdf
Нейронные машины Тьюринга (статья) Алекс Грейвс, Грег Уэйн, Иво Данихелка
https://pdfs.semanticscholar.org/c112/6fbffd6b8547a44c58b192b36b08b18299de.pdf
2014
Армирование обучение, нейронные Тьюринга машины Войцех Заремба, Илья Sutskever ICLR документ конференции
https://arxiv.org/pdf/1505.00521.pdf?utm_content=buffer2aaa3&utm_medium=social&utm_source=twitter.com&utm_campaign=buffer
2016
Динамическая нейронная машина Тьюринга с непрерывной и дискретной схемами адресации Caglar Gulcehre1, Sarath Chandar1, Kyunghyun Cho2, Yoshua Bengio1
https://arxiv.org/pdf/1607.00036.pdf
2017
Самонастраивающаяся нейронная нечеткая сеть логического вывода и ее приложения Онлайн-транзакции Чиа-Фенг Джуанга и Чин-Тенга Линя по нечетким системам, v6, n1 1998 г.
https://ir.nctu.edu.tw/bitstream/11536/ 32809/1 / 000072774800002.pdf
Нейронные сети с последовательностью графов Юджия Ли и Ричард Земель Документ конференции ICLR 2016
https://arxiv.org/pdf/1511.05493.pdf
Строительные машины, которые учатся и думают как люди Бренден М. Лэйк, Томер Д. Ульман, Джошуа Б. Тененбаум и Сэмюэль Дж. Гершман Поведенческие и мозговые науки 2016
https://arxiv.org/pdf/1604.00289.pdf
Контекстно-зависимые предварительно обученные глубокие нейронные сети для распознавания речи с большим словарным запасом Джордж Э. Даль, Донг Ю, Ли Денг и Алекс Асеро IEEE Транзакции по обработке звука, речи и языка 2012
https://s3.amazonaws.com/ academia.edu.documents / 34691735 / dbn4lvcsr-transaslp.pdf? AWSAccessKeyId = AKIAIWOWYYGZ2Y53UL3A & Истекает = 1534211789 & Подпись = 33QcFP0JGFeA% 2FTsqjQZpXYrIGm8% 3D & отклика Content-Disposition = рядный% 3B% 20filename% 3DContext-Dependent_Pre-Trained_Deep_Neura.pdf
Внедрение сущностей и отношений для обучения и умозаключений в базы знаний Бишан Янг1, Вэнь-Тау Йих2, Сяодун Хе2, Цзяньфэн Гао2 и Ли Денг2 Документ конференции ICLR 2015,
https://arxiv.org/pdf/1412.6575.pdf
Алгоритм быстрого обучения для сетей глубокого убеждения Джеффри Э. Хинтон, Саймон Осиндеро, Йи-Уай Тех (сообщает Ян Ле Кун) Нейронные вычисления 18 2006 г.
http://axon.cs.byu.edu/Dan/778/papers/Deep % 20Networks / hinton1 * .pdf
FINN: основа для быстрого, масштабируемого бинаризованного вывода нейронной сети Яман Умуроглу и др. 2016
https://arxiv.org/pdf/1612.07119.pdf
От машинного обучения к машинному мышлению Леон Ботту 2/8/2011
https://arxiv.org/pdf/1102.1808.pdf
Глубокое обучение Yann LeCun1,2, Йошуа Бенгио3 и Джеффри Хинтон4,5 Nature vol 521 2015
https://www.evl.uic.edu/creativecoding/courses/cs523/slides/week3/DeepLearning_LeCun.pdf