Не следует предполагать, что развитие ИИ изначально было мотивировано стремлением помочь людям. Есть много правдоподобных объяснений, которые одинаково трудно либо доказать, либо опровергнуть.
- Будьте известны, чтобы придумать какую-то футуристическую идею, прежде чем кто-либо еще
- Приобретите власть заранее воображаемого врага или потенциального будущего
- Потому что это может быть возможно
- Ради забавы
- Потому что министерство обороны США, вероятно, будет финансировать его на неопределенный срок
- Это хороший карьерный шаг
- Чтобы доказать, что в человеческом мозге нет ничего особенного
- Нас наняли и дали немного денег, и это казалось хорошим способом потратить их
- Было решено заняться этим, но никто из нас не помнит, почему
В этом вопросе также есть некоторые плохо определенные описательные слова, хотя может быть трудно найти более подходящие слова, чтобы заменить их. Как бы мы формализовали это?
- В меру своих способностей (интеллектуальных систем) --- Каким образом мы будем оценивать способности и сравнивать результаты с ними? Мы говорим студенту: «Вы не применяете себя», но это вряд ли научное наблюдение. Это несколько произвольное суждение, основанное на проекции достижений, которая не была достигнута в соответствии с системой оценок третьей стороны и ее применением другими ошибочными сторонами.
- Тщательное принятие решений. Забота подразумевает цели, которые сами по себе являются объективными. Мы еще не документировали передовую вычислительную платформу, которая кодирует систему этики, применяемую для отвлеченного понимания ситуаций, таких как в случае этичного человека, когда забота приобретает какое-либо реалистическое значение. То, что логический элемент nand выполняет функцию nand надежно, или доказано, что некоторый алгоритм сходится с заданным размером набора данных при определенных условиях, вряд ли является полностью расширенным значением того, чем мы являемся, когда мы осторожны.
- Объясняемый --- Это тоже неоднозначно. С одной стороны, сходимость набора значений параметров во время сходимости искусственной сети является объяснением, но отдельные значения не объясняются. С другой стороны, полный отчет о гипотезе, плане эксперимента, выборе набора условий, анализе, результатах и заключении все еще не является исчерпывающим объяснением. Такой отчет может включать только менее 1% информации, описывающей применение человеческого интеллекта к исследованию, изложенному в отчете.
Ранняя работа над искусственными сетями была подвергнута критике в журналах AI в начале 1990-х годов за то, что она не объяснялась на основе отслеживаемости. Производственные (основанные на правилах) системы оставили контрольные следы применяемых правил и результатов предыдущих правил, чтобы кто-то мог собрать письменное доказательство результата. Это было ограниченно полезно.
Когда рулевые колеса сняты с транспортных средств и некоторые юрисдикции начинают принимать законы против вождения людей в некоторых регионах, этого не произойдет, потому что были выписаны доказательства безопасности в миллионе сценариев. Это будет связано с тем, что распределение зарегистрированных случайных смертей, расчленений и разрушений имущества в результате использования ИИ водителя, установленного на конкретном типе транспортного средства, в течение достаточно убедительного периода времени указывает на его безопасность по сравнению с этими распределениями для водителей-людей. В конце концов, в каком-то зале суда или на законодательном собрании кто-то скажет это или его эквивалент.
Если мы не объявим вне закона вождение человека в указанных конкретных условиях для обсуждаемого региона, мы приговариваем X человек, женщин, детей и пожилых пешеходов и пассажиров в год к преждевременной смерти.
Понимание механизма действия и решений, принятых для конкретных случаев, полезно, но почему это полезно, так же неопределенно, как и то, почему ИИ стал жизнеспособной областью работы и учебы.
- Было бы интересно сравнить конкурирующие системы искусственного интеллекта в некотором количественном выражении.
- Было бы очень полезно узнать больше об интеллекте.
- Лучшее объяснение делает для хорошей бумаги.
- Я рисовал один день и нашел способ объяснить определенный класс систем, который, казалось, плохо объясним.
Несмотря на то, что неосуществляемость систем искусственного интеллекта может возникнуть в результате законодательных и судебных процессов, большая часть принятых решений будет основываться на том, как публикуются и воспринимаются статистические оценки. Те, кто настаивают на том, что системы работают так, как это можно объяснить, вероятно, будут сознательно или подсознательно мотивированы интересом к восприятию того, что доминирование людей является явной судьбой. Больше чем просто ирония в том, что многие из тех, кто способствовал интересам США и СССР во время холодной войны, теперь считаются лидерами террористов преемниками обеих группировок холодной войны.
Связанный и более четко отвечающий вопрос заключается в том, можно ли ожидать, что разумный помощник останется помощником в течение неопределенного времени. Расследование вечно-умных-вечно-помощников продолжается и представляет огромный интерес для всех, от научных авторов и сценаристов до военных аналитических центров.