Придерживается ли аргумент Китайской комнаты против ИИ?


10

Еще в колледже у меня был учитель по теории сложности, который заявил, что искусственный интеллект является противоречием в терминах. Он утверждал, что если это можно рассчитать механически, то это не интеллект, а математика.

Похоже, это вариант аргумента китайской комнаты. Этот аргумент является метафорой, когда человека помещают в комнату, полную китайских книг. Этот человек не понимает ни слова по-китайски, но под дверью проскакивает сообщения на китайском языке. Человек должен использовать книги, которые содержат правила преобразования, чтобы ответить на эти сообщения. Человек может применять правила преобразования, но не понимает, с кем он общается.

Имеет ли место аргумент китайской комнаты? Можем ли мы утверждать, что искусственный интеллект - это просто умная алгоритмика?

Ответы:


5

Существует два типа ответов на такие философские вопросы:

Во-первых, провести аналогии и обратиться к интуиции; Можно, например, реально рассчитать необходимый размер для такой китайской комнаты и предположить, что она существует вне сферы интуиции, и поэтому любые аналогии, использующие ее, являются подозрительными.

Второе - попытаться определить термины более точно. Если под «интеллектом» мы подразумеваем не «волшебную вещь, которую делают люди», а «обработку информации», то мы можем сказать «да, очевидно, китайская комната предполагает успешную обработку информации».

Я предпочитаю второе, потому что оно заставляет разговоры к наблюдаемым результатам и затрудняет определение термина типа «интеллект» для человека, который хочет заявить об этом. Если «понимание» может иметь аморфное определение, то можно сказать , что любая система имеет или не имеет понимания. Но если «понимать» само по себе понимается в терминах наблюдаемого поведения, тогда становится все труднее построить пример системы, которая «не является разумной» и в то же время разделяет все наблюдаемые последствия интеллекта.


5

Это зависит от определения (искусственного) интеллекта.

Позиция, которую Сирл первоначально пытался опровергнуть с помощью эксперимента в китайской комнате, была так называемой позицией сильного ИИ: надлежащим образом запрограммированный компьютер имел бы разум в том же смысле, что и у людей.

Алан Тьюринг попытался дать определение искусственного интеллекта с помощью теста Тьюринга, заявив, что машина умна, если она может пройти тест. Тест Тьюринга представлен здесь . Я не буду объяснять это подробно, потому что это не имеет отношения к ответу. Если вы определяете (искусственный) интеллект как Тьюринг, то эксперимент с китайской комнатой недействителен.

Таким образом, цель эксперимента в китайской комнате состоит в том, чтобы показать, что правильно запрограммированный компьютер - это не то же самое, что человеческий разум, и, следовательно, что тест Тьюринга не очень хороший.


«Сильный ИИ» обычно используется для обозначения ИИ, который достаточно умен, чтобы улучшать себя, а не то, что у него есть «разум» в том смысле, что у людей есть «разум».
Мэтью Грэйвз

4

Прежде всего, для детального просмотра аргумента, проверьте запись SEP в китайской комнате .

Я рассматриваю CRA как показатель вашего определения интеллекта. Если аргумент верен, да, человек в комнате понимает по-китайски. Однако давайте подведем итоги трех ответов, которые обсуждались в записи SEP:

  1. Сам человек не понимает по-китайски (он не сможет понять его вне помещения), но системный человек + комната это понимает. Принятие этого ответа предполагает, что может существовать интеллектуальная система, части которой сами по себе не являются интеллектуальными (что можно утверждать о самом человеческом теле).

  2. Система не понимает китайский язык, так как она не может взаимодействовать с миром так же, как робот или человек (т.е. она не может учиться, ограничена набором вопросов, на которые она может ответить)

  3. Система не понимает китайский (в зависимости от вашего определения понимания ), и вы не могли бы сказать, что человек выполняет те же самые умения, что и китайская комната, понимающая китайский.

Таким образом, будет ли аргумент, или его вариант, зависеть от ваших определений разумного , понимания , от того, как вы определяете систему, и т. Д. Дело в том, что мысленный эксперимент - хороший способ провести различие между определениями (и многими, было проведено много дискуссий о них), чтобы избежать бесконечных разговоров друг с другом.


Отличный ответ. Нет такой вещи, как познание, которое происходит вне более широкой системы. Люди давно используют такие технологии, как книги и инструменты, чтобы дополнить свое познание. До этого люди полагались на других людей и окружающую среду (оставляя маркер для указания источника пищи и т. Д.).

2

Зависит от того, кого вы спрашиваете! Джон Сирл, который предложил этот аргумент, сказал бы «да», но другие сказали бы, что это не имеет значения. Тест Тьюринга не предусматривает, что машина должна действительно «понимать», что она делает, до тех пор, пока это кажется человеку таким. Вы можете утверждать, что наше «мышление» является лишь более сложной формой умной алгоритмики.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.