Есть ли компромисс между гибкостью и эффективностью?


8

«Общий интеллект» может быть способен изучать много разных вещей, но обладание способностью не равно его фактическому владению. "AGI" должен учиться ... и этот процесс обучения может занять время. Если вы хотите, чтобы AGI управлял автомобилем или играл в Го, вы должны найти способ «научить» этому. Имейте в виду, что мы никогда не создавали AGI, поэтому мы не знаем, как долго может продолжаться процесс обучения, но было бы безопасно предположить, что оценки пессимистичны.

Сравните это с "узким интеллектом". Узкий ИИ уже знает, как водить машину или играть в Го. Он был запрограммирован, чтобы быть очень хорошим в одной конкретной задаче. Вам не нужно беспокоиться об обучении машины, потому что она уже прошла предварительную подготовку.

«Общий интеллект» кажется более гибким, чем «узкий интеллект». Вы могли бы купить AGI и заставить его водить машину и играть в Го. И если вы хотите больше тренироваться, вы можете научить его новому трюку: как испечь торт . Мне не нужно беспокоиться о неожиданных задачах, так как AGI со временем определится, как это сделать, если у меня будет достаточно времени для обучения. Мне бы пришлось долго ждать .

«Узкий интеллект» представляется более эффективным при выполнении поставленной задачи, поскольку он запрограммирован специально для этой задачи. Он точно знает, что делать, и ему не нужно тратить время на «обучение» (в отличие от нашего приятеля AGI здесь). Вместо того чтобы покупать один AGI для плохого решения множества различных задач, я бы предпочел купить группу специализированных узких ИИ. Узкий ИИ № 1 ведет машину, Узкий ИИ № 2 играет в Го, Узкий ИИ № 3 печет пирожные и т. Д. При этом, это очень хрупкий подход, так как, если возникнет какая-то неожиданная задача, ни один из моих узких ИИ не сможет справиться с этим. Я готов принять этот риск, хотя.

Правильно ли мое «мышление»? Есть ли компромисс между гибкостью (AGI) и эффективностью (узкий ИИ), как то, что я только что описал выше? Или теоретически возможно, что AGI будет одновременно гибким и эффективным?


1
Это не ограничивается только «AGI» против «сильного узкого круга». Существует стратегия, известная как « удовлетворительная », в которой «достаточно хороший» - лучшее, что вы можете достичь, потому что объективно оптимальные решения не могут быть достигнуты. Там, где время принятия решения ограничено, на моделях, которые могут быть решены или частично решены, простая эвристика может превзойти глубокое обучение.
DukeZhou

Ответы:


5

Самый чистый результат, который мы имеем в этом вопросе, - это теорема «без бесплатного обеда» . По сути, для того, чтобы система работала лучше при выполнении определенной задачи, вы должны снизить ее производительность по сравнению с другими задачами, и поэтому существует компромисс между гибкостью и эффективностью.

Но на более широкий вопрос, или правильно ли ваше мышление, я думаю, что стоит более внимательно посмотреть, что вы подразумеваете под «узким интеллектом». Системы искусственного интеллекта , которые мы имеем , что игра Go и полноприводные автомобили ничего не совать в существование в состоянии сделать эти вещи; они постепенно научились, используя множество обучающих примеров и хорошо подобранную архитектуру, которая отражает проблемную область.

То есть «нейронные сети» как методология кажутся «общими» в значимом смысле; Можно предположить, что общий интеллект может быть сформирован путем решения проблемы метаобучения (то есть изучения архитектуры, которая лучше всего подходит для конкретной задачи, при изучении весов для этой проблемы на основе обучающих данных).

Даже в этом случае все равно будет достигнут компромисс между гибкостью и эффективностью; общий интеллект, которому разрешено изменять свою архитектуру, сможет решить множество различных проблем, но потребуется время, чтобы выяснить, с какой проблемой он сталкивается. Интеллект, привязанный к конкретной архитектуре, будет хорошо работать с проблемами, для которых архитектура хорошо подходит (лучше, чем общие, так как его не нужно обнаруживать), но менее хорошо с другими проблемами, для которых он не так хорошо подходит.


1
Теоремы «Нет бесплатного обеда» (НФЛ) обычно сформулированы в терминах систем черного ящика. Используя описания «белых ящиков» решаемой проблемы и / или метапознание о процессе решения, можно обойти НФЛ. См. Также мой ответ на этот вопрос ai.stackexchange.com/questions/1751/what-are-hyper-heuristics
NietzscheanAI

5

Как объяснил Мэтью Грейвс в другом ответе, теорема о бесплатном обеде не подтверждает гибкость - компромисс эффективности. Однако эта теорема описывает ситуацию, когда у вас есть набор совершенно независимых задач. Это часто не имеет места, так как многие различные проблемы эквивалентны по своей сути или, по крайней мере, имеют некоторые совпадения. Затем вы можете выполнить то, что называется «трансферным обучением», что означает, что, обучаясь решать одну задачу, вы также узнаете что-то о решении другой (или, возможно, нескольких разных задач).

Например, в « Политика дистилляции » Rusu et al. им удалось «распределить» знания из разных экспертных сетей в одну общую сеть, которая в итоге превзошла каждого из экспертов. Эксперты были обучены для конкретных задач, в то время как универсал узнал окончательную политику от этих «учителей».


1

Казалось бы, так. Один пример, хотя и не связанный конкретно с ИИ, виден в разнице между цифровыми компьютерами и аналоговыми компьютерами . Почти все, что мы сегодня называем «компьютером», - это цифровой компьютер с архитектурой фон Неймана. И это потому, что вещи настолько универсальны, что их можно легко запрограммировать на что угодно. Но аналоговые компьютеры могут (или могут, еще в 60-х или около того) решать некоторые типы проблем быстрее, чем цифровые компьютеры. Но они потеряли самообладание именно из-за этого недостатка гибкости. Никто не хочет вручную проводных линий с ОУ и компараторов решить для у .

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.