Сильные ИИ
Для сильного ИИ короткий ответ - позвать на помощь, когда они могут даже не знать, что такое предполагаемая помощь.
Это зависит от того, что будет делать ИИ. Если предполагается, что она решит одну простую задачу идеально и профессионально, то эмоции не будут очень полезными. Но если он должен изучать случайные новые вещи, был бы момент, когда он сталкивался с чем-то, с чем не мог справиться.
В 4-м матче Ли Седол против AlphaGo некоторые профессионалы, которые говорили, что компьютер ранее не испытывал эмоций, говорили, что, возможно, у AlphaGo тоже есть эмоции, и они сильнее человеческих. В этом случае мы знаем, что сумасшедшее поведение AlphaGo вызвано не некоторыми намеренно добавленными вещами, называемыми «эмоциями», а недостатком алгоритма. Но он ведет себя точно так же, как запаниковал.
Если это случается много для ИИ. Там могут быть преимущества, если он мог бы знать это сам и подумать дважды, если это произойдет. Если AlphaGo сможет обнаружить проблему и изменить свою стратегию, она может сыграть лучше или хуже. Маловероятно, что он будет играть хуже, если не будет никаких вычислений для других подходов. В случае, если это будет играть хуже, мы можем сказать, что страдает от "эмоций", и это может быть причиной того, что некоторые люди думают, что эмоции могут быть недостатком человеческих существ. Но это не было бы истинной причиной проблемы. Истинная причина в том, что он просто не знает никаких подходов, чтобы гарантировать победу, и изменение стратегии - всего лишь попытка решить проблему. Комментаторы считают, что есть лучшие способы (которые также не гарантируют выигрыша, но имели больше шансов), но его алгоритм не Я способен выяснить в этой ситуации. Даже для человека решение всего, что связано с эмоциями, вряд ли удалит эмоции, но некоторые тренировки помогут вам понять ситуацию достаточно, чтобы действовать спокойно.
Тогда кто-то должен спорить о том, является ли это своего рода эмоцией или нет. Мы обычно не говорим, что маленькие насекомые имеют человеческие эмоции, потому что мы их не понимаем и не хотим им помогать. Но легко понять, что некоторые из них могут паниковать в безвыходных ситуациях, как это делал AlphaGo. Я бы сказал, что эти реакции основаны на одной и той же логике, и они, по крайней мере, являются причиной, по которой человеческие эмоции могут быть потенциально полезными. Они просто не выражены понятными для человека способами, поскольку они не собирались звать человека на помощь.
Если они пытаются понять свое собственное поведение или звать кого-то на помощь, было бы хорошо, чтобы они были в точности похожи на людей. Некоторые домашние животные могут в определенной степени ощущать человеческие эмоции и выражать понятные человеку эмоции. Цель состоит в том, чтобы взаимодействовать с людьми. Они эволюционировали, чтобы иметь эту способность, потому что они нуждались в ней в какой-то момент. Вероятно, полноценному ИИ это тоже понадобится. Также обратите внимание, что противоположность полных эмоций может стать сумасшедшей.
Хотя, возможно, это быстрый способ потерять доверие, если кто-то просто реализует эмоции, подражая людям с небольшим пониманием сразу в первых поколениях.
Слабые ИИ
Но есть ли у них цели иметь эмоции, прежде чем кто-то хочет сильного ИИ? Я бы сказал, нет, нет никаких причин, по которым у них должны быть эмоции. Но неизбежно кто-то захочет реализовать имитированные эмоции в любом случае. Нужно ли им, чтобы у нас были эмоции, это просто чепуха.
Дело в том, что даже некоторые программы без какого-либо интеллекта содержат некоторые «эмоциональные» элементы в своих пользовательских интерфейсах. Они могут выглядеть непрофессионально, но не каждая задача требует профессионализма, поэтому они могут быть вполне приемлемыми. Они как эмоции в музыке и искусстве. Кто-то будет таким же образом создавать свой слабый ИИ. Но на самом деле это не эмоции ИИ, а их создатели. Если вы чувствуете себя лучше или хуже из-за их эмоций, вы не будете так по-разному относиться к отдельным ИИ, как к этой модели или бренду в целом.
В качестве альтернативы кто-то может привить себе личность, как в ролевой игре. Опять же, нет причины, по которой они должны это иметь, но неизбежно кто-то это сделает, потому что у них, очевидно, был какой-то рынок, когда у них была ролевая игра.
В любом случае эмоции на самом деле не происходят от самого ИИ. И это было бы легко реализовать, потому что человек не будет ожидать, что они будут точно такими же, как человек, но попытается понять, что он хотел сказать. Может быть, намного легче принять эти эмоции, осознав это.
Аспекты эмоций
Извините за публикацию оригинального исследования здесь. Я составил список эмоций в 2012 году, из которого я вижу 4 аспекта эмоций. Если бы они все были реализованы, я бы сказал, что это те же эмоции, что и у людей. Они не кажутся реальными, если только некоторые из них реализованы, но это не значит, что они совершенно не правы.
- Причина, или оригинальная логическая проблема, которую ИИ не может решить. У AlphaGo уже была причина, но больше ничего. Если бы мне нужно было дать точное определение, я бы сказал, что это состояние, в котором несколько одинаково важных эвристик не согласны друг с другом.
- Контекст или какая часть нынешнего подхода считается неэффективной и, вероятно, должна быть заменена. Это различает грусть, беспокойство и страсть.
- Текущее состояние, или он чувствует себя ведущим, или его вера или факт должны сначала стать плохими (или были плохими все время), если что-то пойдет не так. Это отличает грусть, любовь и гордость.
- План или запрос. Я предполагаю, что у некоторых домашних животных уже было это. И я предполагаю, что у них были некоторые фиксированные образцы, которые не так уж и сложны. Даже искусство может содержать их легко. В отличие от причин, они вряд ли присущи каким-либо алгоритмам, и несколько из них могут появляться вместе.
- Кто якобы нес ответственность, если эмоции ничего не изменили. Это отличает любопытство, ярость и грусть.
- Каков предполагаемый план, если эмоция ничего не меняет? Это отличает разочарование, грусть и удивление.
- Источник. Без контекста даже человек не может с уверенностью сказать, что кто-то плачет от того, что его взволновали, или он благодарен, или улыбается от какого-то смущения. В большинстве других случаев нет даже слов, описывающих их. Это не имеет большого значения, если ИИ не различает или не показывает это специально. Вероятно, они будут изучать их автоматически (и неточно, как человек) в тот момент, когда они смогут научиться понимать человеческие языки.
- Измерения, например, насколько актуальна или важна проблема, или даже насколько вероятны эмоции. Я бы сказал, что это не может быть реализовано в AI. Людям не нужно уважать их, даже если они точно такие же, как люди. Но люди научатся понимать ИИ, если это действительно имеет значение, даже если они совсем не похожи на людей. На самом деле, я чувствую, что некоторые из крайне слабых эмоций (например, думать, что что-то слишком глупо и скучно, что вы не знаете, как комментировать) существуют почти исключительно в смайликах, где кто-то намеревается показать вам именно эту эмоцию, и вряд ли заметно в реальной жизни или любых сложных сценариях. Я предположил, что это также может иметь место в начале для ИИ. В худшем случае их обычно называют «эмоциями», поскольку в этих случаях работают смайлики, поэтому
Поэтому, когда станут возможны сильные ИИ, ни один из них не будет недоступен, хотя для установления связей может потребоваться много работы. Поэтому я бы сказал, что если понадобятся сильные ИИ, у них обязательно будут эмоции.