Эффект ИИ возникает, когда наблюдатели игнорируют поведение программы искусственного интеллекта, утверждая, что это не настоящий интеллект.
Памела МакКордак пишет: «Это часть истории области искусственного интеллекта, когда каждый раз, когда кто-то придумывал, как заставить компьютер что-то делать - играть в хорошие шашки, решать простые, но относительно неформальные проблемы, - критики говорили, что это какой-то хор». это не думает ». [1] Исследователь ИИ Родни Брукс жалуется:« Каждый раз, когда мы выясняем его кусочек, он перестает быть волшебным; мы говорим: «О, это просто вычисление». [2]
На странице Википедии предлагаются несколько разных причин, которые могут объяснить, почему зрители могут «сбрасывать со счетов» программы ИИ. Однако эти причины, по-видимому, подразумевают, что люди совершают ошибку, «сбрасывая со счетов» поведение программ ИИ ... и что эти программы ИИ на самом деле могут быть разумными. Я хочу привести альтернативный аргумент, когда люди совершают ошибку, но не в «дисконтировании» поведения программ ИИ.
Рассмотрим следующую ситуацию. Я хочу построить машину, которая может выполнять X (где X - это некоторая черта, например, интеллект). Я могу интуитивно оценить, соответствует ли машина этим критериям X. Но у меня нет хорошего определения того , что X на самом деле является . Все, что я могу сделать, это определить, есть ли у чего-то Х или нет.
Тем не менее, я думаю, что люди, у которых есть X, могут делать Y. Поэтому, если я создам машину, которая может делать Y, то, конечно, я построил машину, которая имеет X.
После сборки машины, которая может выполнять Y, я проверяю ее, чтобы увидеть, есть ли на моей машине X. И это не так. Так что моей машине не хватает X. И хотя машина, которая может делать Y, крутая, я действительно хочу машину с X. Я возвращаюсь к чертежной доске и думаю о новой идее достичь X.
Писав пару часов на доске, я понимаю, что люди, у которых есть X, могут делать Z. Конечно! Я пытаюсь построить новую машину, которая может делать Z, да, если она может делать Z, то она должна иметь X.
После создания машины, которая может выполнять Z, я проверяю, есть ли у нее X. Это не так. И вот я возвращаюсь обратно к чертежной доске, и цикл повторяется и повторяется ...
По сути, люди пытаются определить, обладает ли объект интеллектом, посредством измерений по доверенности, но эти измерения по доверенности потенциально ошибочны (так как можно выполнить эти измерения по доверенности, даже не имея фактически интеллекта). Пока мы не знаем, как определить интеллект и разработать тест, который может точно его измерить, очень маловероятно, что мы создадим машину, которая обладает интеллектом. Таким образом, Эффект ИИ возникает потому, что люди не знают, как определить «интеллект», а не потому, что люди отвергают программы как не «интеллектуальные».
Является ли этот аргумент действительным или правильным? И если нет, то почему?