Зачем нам нужен здравый смысл в искусственном интеллекте?


10

Давайте рассмотрим этот пример:

У Джона день рождения, давайте купим ему воздушного змея.

Мы, люди, скорее всего, скажем, что кайт - это подарок на день рождения, если его спросить, почему его покупают; и мы называем это рассуждение здравым смыслом .

Зачем нам это нужно в искусственно интеллектуальных агентах? Я думаю, что это может вызвать множество проблем, поскольку многие наши человеческие ошибки вызваны этими смутными предположениями.

Представьте, что ИИ игнорирует определенные действия, потому что предполагает, что это уже сделал кто-то другой (или другой ИИ), используя свой здравый смысл.

Не приведет ли это к человеческим ошибкам в системах ИИ?


Комментарии не для расширенного обсуждения; этот разговор был перенесен в чат .
nbro

Ответы:


16

Знание здравого смысла - это совокупность предпосылок, которые каждый в определенном контексте (следовательно, знание здравого смысла может быть функцией контекста) принимает как должное. Было бы много недопонимания между человеком и ИИ, если бы ИИ не обладал знаниями здравого смысла. Поэтому знание здравого смысла является основополагающим для взаимодействия человека и ИИ .

Есть также предпосылки, которые каждый человек считает само собой разумеющимся независимо от страны, культуры или вообще контекста. Например, у каждого человека (почти с его рождения) есть механизм рассуждений о наивной физике, такой как пространство, время и физические взаимодействия. Если ИИ не обладает этими знаниями, он не может выполнять задачи, требующие этих знаний.

Считается , что любая задача, которая требует от машины знания здравого смысла ( среднего человека), является полной ИИ , то есть требует человеческого (или общего) интеллекта. См. Раздел 3 статьи « Здравый смысл» (2009 г.) Кристиана Андрича, Лео Новосела и Бояна Хрнкаса.

Конечно, проблемы, которые возникают, когда люди общаются из-за различных предположений или предпосылок, могут также возникнуть между людьми и ИИ (которые обладают знаниями здравого смысла).


Комментарии не для расширенного обсуждения; этот разговор был перенесен в чат .
nbro

10

Нам нужны такие знания здравого смысла, если мы хотим, чтобы компьютеры понимали человеческий язык. Для компьютерной программы легко проанализировать грамматическую структуру примера, который вы приводите, но чтобы понять его значение, нам нужно знать возможные контексты, которые вы здесь называете «здравым смыслом».

Это было подчеркнуто много в Roger Schank et al. Работа над компьютерным пониманием историй и ведет к большим исследованиям в области представления знаний, сценариев, планов, целей. Один пример из работы Шэнка - Мэри была голодна. Она взяла путеводитель Мишлен. - это похоже на несекретность: если вы голодны, зачем брать книгу? Пока вы не поймете, что это ресторанный гид, и что Мария, по-видимому, планирует пойти в ресторан, чтобы поесть. Если вы знаете, что посещение ресторана - это потенциальное решение проблемы голода, у вас нет проблем с пониманием этого фрагмента истории.

Любая история нуждается в здравом смысле, чтобы быть понятой, потому что ни одна история не является полностью явной. Общие вещи «поняты» и явно не упоминаются. Истории относятся к человеческому опыту, а история, в которой все будет ясно, вероятно, будет читаться как компьютерная программа. Вам также нужен здравый смысл, чтобы понять, как ведут себя персонажи в истории и как на них влияет происходящее. Опять же, это очень субъективно, но это необходимо. Какой-то здравый смысл может быть в целом применим, другие его аспекты не будут. Это сложный вопрос, поэтому исследователи боролись с ним как минимум полвека исследований ИИ.

Конечно, это внесло бы «человеческие ошибки» в систему ИИ. Все это очень субъективно и специфично для культуры. Посещение ресторана в США отличается от посещения ресторана во Франции, поэтому выезд за границу может быть проблемой. И мое чтение истории, вероятно, будет отличаться от вашего. Но если вы хотите симулировать человеческий интеллект, вы не можете сделать это без потенциальных человеческих «ошибок».


Комментарии не для расширенного обсуждения; этот разговор был перенесен в чат .
nbro

2

Я отвечу на этот вопрос в нескольких частях:

Почему системы AGI должны иметь здравый смысл?

Люди по дикой причине и общаются с помощью здравого смысла больше, чем со строгой логикой, вы можете увидеть это, заметив, что легче обратиться к чьим-то эмоциям, чем к логике. Таким образом, любая система, которая стремится копировать человеческое познание (как в AGI), должна также копировать эту тенденцию использовать здравый смысл.

Проще говоря, мы бы хотели, чтобы наша система AGI могла говорить с нами на языке здравого смысла просто потому, что это то, что мы понимаем лучше всего (иначе мы бы не поняли наш дружественный AGI, не так ли?). Тупая теория и строгая логика могут быть технически правильными, но не обращаются к нашему пониманию.

Разве цель AGI не состоит в том, чтобы создать наиболее продвинутую систему познания? Почему «самая совершенная» система AGI должна иметь дело с такими недостатками и неточностями, которые присутствуют в здравом смысле?

Во-первых, может показаться, что логика здравого смысла «иррациональна». Возможно, существует последовательный математический способ для моделирования здравого смысла, так что все тонкости здравого смысла представлены в строгой манере.

Во-вторых, раннее изучение искусственного интеллекта началось с изучения когнитивной науки, где исследователи пытались воспроизвести «алгоритмы разума», или, точнее, разрешимые процедуры, которые воспроизводили человеческое мышление. Таким образом, изучение ИИ не для того, чтобы создать «высший когнитивный агент», а просто для того, чтобы воспроизвести человеческое мышление / поведение. Как только мы сможем воспроизвести человеческое поведение, мы, возможно, сможем создать нечто сверхчеловеческое, предоставив ему больше вычислительных возможностей, но это не гарантируется.

Я до сих пор не понимаю, зачем в системах AGI нужен здравый смысл. Разве AGI не является самой умной и мощной вычислительной системой? Почему это должно заботиться или соответствовать ограничениям человеческого понимания, что требует здравого смысла?

Возможно, тогда у вас есть немного смещенное понимание того, что влечет за собой AGI. AGI не означает неограниченную вычислительную мощность (физически невозможная из-за физических ограничений на вычисления, таких как предел Бремермана ) или неограниченный интеллект (возможно, физически невозможный из-за предшествующего ограничения). Обычно это просто означает искусственный «общий интеллект», общий смысл широкий и общий.

Соображения об неограниченных агентах более подробно изучаются в таких областях, как теоретическая компьютерная наука (я полагаю, теория типов), теория решений и, возможно, даже теория множеств, где мы можем задавать вопросы об агентах с неограниченными вычислительными возможностями. Можно сказать, что есть вопросы, на которые даже система AGI с неограниченной мощностью не может ответить из-за проблемы остановки , но только в том случае, если предположения по этим полям отображаются в структуре данного AGI, что может быть неверно.

Для лучшего понимания того, что AGI может повлечь за собой, и его целей, я мог бы порекомендовать две книги: «Искусственный интеллект: Идея» Джона Хаугеланда для более прагматичного подхода (насколько прагматичной может быть философия ИИ, и «О происхождении объектов»). Брайану Кантуэллу Смиту за более философский подход.

Помимо всего прочего, коллекция дзен-коанов: Ворота без ворот включает в себя следующий отрывок: (цитируется и редактируется из Википедии )

Монах спросил Чжаочжоу, китайского мастера дзен: "Есть ли у собаки Будда-природа или нет?" Чжаочжоу ответил: «Ву»

Wú (無) переводится как «none», «nonesuch» или «nothing», что можно интерпретировать, чтобы избежать ответа «да» или «нет». Этот просвещенный человек не стремится строго ответить на каждый вопрос, но просто ответить так, как это имеет смысл. На самом деле не имеет значения, имеет ли собака характер Будды или нет (что бы ни означала природа Будды), поэтому мастер по умолчанию разрешает вопрос, а не решает его.


3
Было бы намного смешнее, если бы мастер ответил: "WUF WUF!"
m3characters

1

Возможно, это поможет привести пример того, что может пойти не так без здравого смысла: в начале романа Джеймса Хогана «Два лица завтрашнего дня» руководитель строительства на Луне подает запрос в автоматизированную систему, спрашивая, что конкретный крупный кусок строительной техники должен быть доставлен на его место в кратчайшие сроки. Система отвечает, что прибудет через двадцать минут. Двадцать минут спустя наблюдатель был убит, когда оборудование врезалось в его стройку. Система определила, что самым быстрым способом доставки оборудования на этот объект является его установка на массовый драйвер и запуск его на месте. Если бы рассматриваемой системе был придан здравый смысл, она бы вывела дополнительные необъявленные ограничения на запрос, такие как «оборудование должно быть в исправном состоянии». прибытие оборудования не должно приводить к повреждению или гибели людей »и т. д. (остальная часть романа описывает эксперимент, предназначенный для создания новой системы со здравым смыслом)


Довольно интересный пример. Хотя, может быть, это могло бы быть и наоборот. Представьте, что ИИ проверяет пациента и, видя его общий нормальный вид, приходит к выводу, что с пациентом может / должно быть все в порядке (исходя из здравого смысла, что если вы хорошо выглядите, то, вероятно, так и есть); Однако пациент нуждается в серьезной помощи. Тем не менее, я думаю, что к настоящему времени ясно, что здравый смысл - это не проблема, а ошибочный здравый смысл / знания, которые могут оказаться опасными в критических ситуациях. Поэтому я думаю, что мы должны контролировать и убедиться, что ИИ имеет безупречный здравый смысл.
Титан

0

Это здравый смысл или это понимание естественного языка?

Говорят, что понимание естественного языка - одна из самых сложных задач ИИ. Это один из примеров, показывающих почему. Первая часть предложения связана со второй частью, то есть с тем, как работают предложения.

Теперь уместный вопрос - как связаны две части? Есть несколько стандартных отношений, с которыми мы сталкиваемся, например, временной порядок. В этом конкретном примере природа отношения ближе к причинно-следственной связи.

Вы видите этот эффект, когда мы вставляем слово, чтобы сделать это отношение явным:

У Джона день рождения, поэтому давайте купим ему воздушного змея. или давайте купим Джона воздушного змея, потому что у него день рождения.

Это техника для людей, чтобы сделать эти неявные отношения явными.

Теперь, как отмечает curiousdannii, вам также нужны культурные знания, чтобы понять, как дни рождения могут стать причиной подарка. Никакой здравый смысл не поможет в этом.


Мы используем « здравый смысл », мы должны понимать подобное предложение. НЛП действительно сложен, я согласен, и это потому, что до сих пор ИИ не обладал такими всеобъемлющими знаниями и моделью мира, как у нас, людей; следовательно, ему не хватает связи точек и понимания этих неявных отношений. То " культурное знание ", которое вы упомянули, в основном считается нашим здравым смыслом.
Титан
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.