Я отвечу на этот вопрос в нескольких частях:
Почему системы AGI должны иметь здравый смысл?
Люди по дикой причине и общаются с помощью здравого смысла больше, чем со строгой логикой, вы можете увидеть это, заметив, что легче обратиться к чьим-то эмоциям, чем к логике. Таким образом, любая система, которая стремится копировать человеческое познание (как в AGI), должна также копировать эту тенденцию использовать здравый смысл.
Проще говоря, мы бы хотели, чтобы наша система AGI могла говорить с нами на языке здравого смысла просто потому, что это то, что мы понимаем лучше всего (иначе мы бы не поняли наш дружественный AGI, не так ли?). Тупая теория и строгая логика могут быть технически правильными, но не обращаются к нашему пониманию.
Разве цель AGI не состоит в том, чтобы создать наиболее продвинутую систему познания? Почему «самая совершенная» система AGI должна иметь дело с такими недостатками и неточностями, которые присутствуют в здравом смысле?
Во-первых, может показаться, что логика здравого смысла «иррациональна». Возможно, существует последовательный математический способ для моделирования здравого смысла, так что все тонкости здравого смысла представлены в строгой манере.
Во-вторых, раннее изучение искусственного интеллекта началось с изучения когнитивной науки, где исследователи пытались воспроизвести «алгоритмы разума», или, точнее, разрешимые процедуры, которые воспроизводили человеческое мышление. Таким образом, изучение ИИ не для того, чтобы создать «высший когнитивный агент», а просто для того, чтобы воспроизвести человеческое мышление / поведение. Как только мы сможем воспроизвести человеческое поведение, мы, возможно, сможем создать нечто сверхчеловеческое, предоставив ему больше вычислительных возможностей, но это не гарантируется.
Я до сих пор не понимаю, зачем в системах AGI нужен здравый смысл. Разве AGI не является самой умной и мощной вычислительной системой? Почему это должно заботиться или соответствовать ограничениям человеческого понимания, что требует здравого смысла?
Возможно, тогда у вас есть немного смещенное понимание того, что влечет за собой AGI. AGI не означает неограниченную вычислительную мощность (физически невозможная из-за физических ограничений на вычисления, таких как предел Бремермана ) или неограниченный интеллект (возможно, физически невозможный из-за предшествующего ограничения). Обычно это просто означает искусственный «общий интеллект», общий смысл широкий и общий.
Соображения об неограниченных агентах более подробно изучаются в таких областях, как теоретическая компьютерная наука (я полагаю, теория типов), теория решений и, возможно, даже теория множеств, где мы можем задавать вопросы об агентах с неограниченными вычислительными возможностями. Можно сказать, что есть вопросы, на которые даже система AGI с неограниченной мощностью не может ответить из-за проблемы остановки , но только в том случае, если предположения по этим полям отображаются в структуре данного AGI, что может быть неверно.
Для лучшего понимания того, что AGI может повлечь за собой, и его целей, я мог бы порекомендовать две книги: «Искусственный интеллект: Идея» Джона Хаугеланда для более прагматичного подхода (насколько прагматичной может быть философия ИИ, и «О происхождении объектов»). Брайану Кантуэллу Смиту за более философский подход.
Помимо всего прочего, коллекция дзен-коанов: Ворота без ворот включает в себя следующий отрывок: (цитируется и редактируется из Википедии )
Монах спросил Чжаочжоу, китайского мастера дзен: "Есть ли у собаки Будда-природа или нет?" Чжаочжоу ответил: «Ву»
Wú (無) переводится как «none», «nonesuch» или «nothing», что можно интерпретировать, чтобы избежать ответа «да» или «нет». Этот просвещенный человек не стремится строго ответить на каждый вопрос, но просто ответить так, как это имеет смысл. На самом деле не имеет значения, имеет ли собака характер Будды или нет (что бы ни означала природа Будды), поэтому мастер по умолчанию разрешает вопрос, а не решает его.