Нужно ли сознание для любой задачи ИИ?


14

Сознание сложно определить , но для этого вопроса давайте определим его как «фактически испытывающий сенсорный ввод, а не просто помещающий кучу данных через неодушевленную машину». У людей, конечно, есть разум; для обычных компьютеров все, что они «видят», это просто больше данных. В качестве альтернативы можно сказать, что люди разумны , а традиционные компьютеры - нет.

Оставляя в стороне вопрос о том, возможно ли построить разумную машину, действительно ли это имеет значение, если ИИ чувствителен или нет? Другими словами, существуют ли задачи, которые делаются невозможными - не просто более трудными - из-за отсутствия чувствительности?


Соответствующее мета-обсуждение философии, связанной с ИИ.
Бен N

Технически, конечно, все, что мы «видим», это просто данные - электрические импульсы, проходящие через оптические нервы.
Натан ReinstateMonica Артур

@NathanArthur Он говорит не о том, что мы видим, а о том, как мы видим себя.
Дэвид Шварц

@DavidSchwartz Point принято. :)
Натан ReinstateMonica Артур

Вам нужно лучше определить «AI» и «задача» или, если они должны быть взяты вместе, определить «любую задачу AI». Экспертные системы относятся к категории слабых ИИ и выполняют свои конкретные задачи довольно хорошо. В этом случае ответ очень ясен - нет, сознание не нужно для постановки диагноза с учетом набора симптомов.
CramerTV

Ответы:


10

Никто не знает.

Почему: потому что формально невозможно определить даже, действительно ли ваши собратья на самом деле находятся в сознании (вместо этого они могут быть тем, кого философски называют «зомби» ). Ни один тест, известный современной физике, не может решить. Следовательно, возможно, что вы - единственное разумное существо, а все остальные - роботы.

Следовательно, мы не можем определить, какие задачи требуют чувства.

Обратите внимание, что онтологический статус зомби является спорным: некоторые философы ИИ (например, Дэниел Деннетт) утверждают, что зомби логически невозможны, в то время как другие, такие как Дэвид Чалмерс, будут утверждать, что зомби будут вынуждены утверждать, что они испытывают квалиа (то есть являются разумными) хотя они этого не делают. Вот очень читаемая статья Фланагана и Полгера, в которой также объясняется, почему более сильной неврологической версии теста Тьюринга недостаточно для обнаружения зомби.

РЕДАКТИРОВАТЬ: В ответ на комментарий о том, существует ли объективный тест для отличия чувства от отсутствия чувства:

Никто не знает. То , что мы действительно считаем , что это потребовало бы что - то в дополнение к тому , что современная физика в настоящее время может сказать нам. Дэвид Чалмерс предположил, что qualia должна быть введена как новая форма физической единицы, ортогональной к другим так же, как электрический заряд ортогонален расстоянию.

В отсутствие объективного теста мы должны полагаться на варианты теста Тьюринга, которые гарантируют сознание субъекта не более, чем интеллект.


Я думаю, что вы принимаете это с точки зрения солипсизма, а не прямо отвечаете на вопрос: «Какие задачи могут быть заново возможными, ЕСЛИ чувство и способность испытывать - это то, что мы могли бы дать ИИ»; вместо этого вы обращаетесь к тому, как чувствительность работает в других существах.
Авик Мохан,

2
Это потому, что (именно для целей обсуждения чувств) нет разницы между «якобы сознательными ИИ» и «другими людьми». Какие задачи я могу сделать, что вы не можете, учитывая, что вы можете быть роботом (хотя это невозможно сказать), хотя я знаю, что я нет? Там нет таких задач. QED.
NietzscheanAI

Вы принимаете другое предполагаемое разумное существо, говоря, что вы не уверены, разумно ли оно, поэтому нет никаких задач, которые мешает мне мое отсутствие. Итак, во-первых, вы , кажется, знаете ответ, это «Нет»; во-вторых, вы все еще игнорируете немного о вопросе, где он дает определение сознания, которое он хочет использовать - вы просто отбрасываете в сторону то, что он говорит: «Откладывая в сторону вопрос о том, возможно ли построить разумную машину ...» , Вы полностью сосредотачиваетесь на том, возможна ли такая машина, а не на том, что это подразумевает.
Авик Мохан

2
Дело не в том, могла ли такая машина существовать (подсказка: это - я одна). Ключевым моментом является то, что не существует физического теста, который подтвердил бы или опровергнул утверждение «машинам необходимо пройти квалификацию для выполнения задачи X» , потому что мы не можем определить опыт квалиа в других организациях.
NietzscheanAI

1
Если бы ОП использовал определение, отличное от «фактического переживания», например, задавая вопрос «Какие дополнительные задачи могло бы сделать возможным метапознание?», Тогда ответ был бы другим. В данном случае «реальный опыт» = qualia, хорошо обсуждаемая тема в философии ИИ.
NietzscheanAI

4

Нет.

Опыт видения по определению акаузального. Все, что не является причинным, не может быть требованием физического процесса; Qualia не может позволить роботу сделать что-то, чего он не мог бы сделать.

Может быть.

Хотя квалиа не требуется для данного задания ИИ, это не означает, что любой достаточно продвинутый ИИ не влечет за собой квалиа. Может случиться так, что так называемые задачи с полным ИИ требуют робота, который, хотя и не использует квалиа, все равно его производит.

Да.

Qualia может относиться к какому-то слабому нефизическому свойству, но оно особенное в том, что мы знаем, что оно существует и физически. Тот факт, что я могу осознанно обсуждать свою квалию (или, если вы мне не верите, факт, на который вы способны), подразумевает, что моя (или ваша) квалиа имеет физический эффект.

Само собой разумеется, что если мы принимаем чужие права на основании нашего собственного, это должно быть из-за физического основ наших 1 . Таким образом, можно утверждать, что 2 любой робот, имеющий эквивалентную физическую мощность, должен иметь квалиа.

1, поскольку субъективное физически не причинно, поэтому не может заставить нас принять что-либо.

2 до тех пор, пока вы не сделаете особенно странное предположение, что квалиа каким-то образом связана с его прямым физическим проявлением, которое в лучшем случае незначительно, поскольку, если бы мы развили неправильное, вы все равно бы заявили, что оно является правильным с равной уверенностью.


2

Давайте используем простой тест, основанный на здравом смысле: как часто вы видите, как человек решает проблемы, требующие использования разума, когда он без сознания? Да, вы можете найти примеры гениев, таких как Рамануджан, которые решают сложные проблемы во время или после состояния сна, но они включают частичное сознание. Вы не видите парней вроде Эйнштейна, которые придумывают теорию относительности, находясь в коме; Отцы-основатели не писали Декларацию независимости во время сна; на самом деле, вы даже не можете найти случаи, когда домохозяйки собирали свой список покупок на неделю во время глубокого сна дельта-волны. Это основано на жестком определении интеллекта, требующем использования разума; никто не говорит: «Эта муха умна» или «эта белка умна» именно потому, что ни один из них не способен использовать разум. Это очень высокая планка для ИИ, но это здравый смысл, используемый простыми людьми в практической речи в повседневной речи. Аналогично, на практике каждый предполагает, что сознание необходимо для осуществления такого рода интеллекта.

И наоборот, мы можем предложить другой критерий, основанный на здравом смысле, для оценки возражений против этого аргумента, в частности солипсистский, основанный на 3 элементах: 1) практичность; 2) влияние возражений на тех, кто их искренне держит; и 3) влияние действий, основанных на этих убеждениях, на других.Мне понадобится несколько параграфов, чтобы сделать это дело, но длина необходима, если я хочу сделать дело полностью, тщательно, Это правда, что мы не можем доказать, что другой человек обладает сознанием, если наш стандарт является абсолютным доказательством. На самом деле мы не можем предоставить абсолютное доказательство чего-либо; всегда есть место для каких-либо возражений, независимо от того, насколько нелепым или пустяковым. Как отмечают некоторые философы, возможно, вся реальность, поскольку мы знаем, что это просто мечта или продукт какого-то долгого, заговорщика, подобного сюжету фильма Джима Керри «Шоу Трумана». Ключом к удовлетворению таких возражений является то, что они требуют бесконечного регресса все более несостоятельных возражений, вероятность которого падает с каждым дополнительным шагом, необходимым для оправдания таких необоснованных сомнений; Я всегда задавался вопросом, можем ли мы придумать «метрику нелепости» для машинного обучения, основанную на количестве таких возражений (или разбросанности нечетких множеств). Если бы мы позволили критикам сунуть ногу в дверь со всевозможными необоснованными возражениями, было бы невозможно закрыть любую дискуссию. Человеческая раса была бы парализована в бездействии, потому что ничто не было бы разрешимым; но, как однажды указала рок-группа Rush: «Если вы решите не принимать решения, вы все равно сделали выбор». В какой-то момент мы должны применить тест, чтобы решить такие вещи, даже в отсутствие абсолютного доказательства; Отказ от применения теста также представляет собой выбор. Урегулирование такого рода спора похоже на игру в китайскую игру «Го» - когда другой игрок окружен и у него больше нет ходов, игра окончена; Если показания человека опровергнуты, и у них больше не осталось никаких оправданий, тогда мы можем сделать вывод, что они действуют неоправданно. Есть люди, бегающие вокруг, утверждающие, что Холокоста никогда не было, или Общество Плоской Земли и т. Д., Но их существование не должно и не мешает нам действовать вопреки их идеям. Мы можем опровергнуть возражения против чудаков, подобных Обществу Плоской Земли, вне всякого разумного сомнения, потому что, в конце концов, они просто не могут ответить на все наши опровержения. Я рад, что qualia и Philosophical Zombies были воспитаны, потому что они создают интересную беседу и пищу для размышлений, но на солипсизм поступают так же редко, как на идеи Общества Плоской Земли именно потому, что неполные доказательства Мы можем опровергнуть возражения против чудаков, подобных Обществу Плоской Земли, вне всякого разумного сомнения, потому что, в конце концов, они просто не могут ответить на все наши опровержения. Я рад, что qualia и Philosophical Zombies были воспитаны, потому что они создают интересную беседу и пищу для размышлений, но на солипсизм поступают так же редко, как на идеи Общества Плоской Земли именно потому, что неполные доказательства Мы можем опровергнуть возражения против чудаков, подобных Обществу Плоской Земли, вне всякого разумного сомнения, потому что, в конце концов, они просто не могут ответить на все наши опровержения. Я рад, что qualia и Philosophical Zombies были воспитаны, потому что они создают интересную беседу и пищу для размышлений, но солипсизм действует так же редко, как идеи Общества Плоской Земли именно потому, что неполное доказательство, которое мыдействительно имеет против этого

Как указывает Г.К. Честертон (он же «Апостол здравого смысла») в своем классическом православиирадикальное сомнение, которое проповедовали многие классические философы, - это не путь к мудрости, а к безумию; как только мы выходим за пределы разумного сомнения, мы в конечном итоге поступаем неразумно. Он говорит, что в отсутствие абсолютного доказательства мы можем прибегнуть к другой вторичной форме доказательства: ведет ли философия человека человека к Ханвеллу, печально известному британскому психиатрическому учреждению. Честертон приводит хороший пример того, что когда люди на самом деле действуют на основе таких идей, как солипсизм (а не просто обсуждают их педантично в классной комнате, покрытой плющом), они сходят с ума Аргумент «Философского зомби» близок к солипсизму, который на самом деле является одним из диагностических критерии для определенных форм шизофрении. Дегуманизация, которая возникает, когда к качествам применяется радикальное сомнение, также тесно связана с социопатическим поведением, Хотя GKC не приводит свой страшный пример напрямую, Рене Декарт сам был живым доказательством. Он был блестящим математиком, который все еще радовался сомнению во всем, кроме его собственного существования, со знаменитым принципом «Я думаю, поэтому я и есть». Но Декарт также носил с собой манекен своей мертвой сестры в европейских кафе, где его можно было увидеть в чате. Суть всего этого в том, что мы можем судить о ценности идеи по тому, как она влияет на благосостояние верующего или как они, в свою очередь, влияют на других посредством этического выбора, основанного на этих убеждениях. Когда люди на самом деле действуют на основе радикальных сомнений, таких как солипсизм и отрицание общих качеств, это часто плохо сказывается на них и других, с кем они вступают в контакт. Он был блестящим математиком, который все еще радовался сомнению во всем, кроме его собственного существования, со знаменитым принципом «Я думаю, поэтому я и есть». Но Декарт также носил с собой манекен своей мертвой сестры в европейских кафе, где его можно было увидеть в чате. Суть всего этого в том, что мы можем судить о ценности идеи по тому, как она влияет на благосостояние верующего или как они, в свою очередь, влияют на других посредством этического выбора, основанного на этих убеждениях. Когда люди на самом деле действуют на основе радикальных сомнений, таких как солипсизм и отрицание общих качеств, это часто плохо сказывается на них и других, с кем они вступают в контакт. Он был блестящим математиком, который все еще радовался сомнению во всем, кроме его собственного существования, со знаменитым принципом «Я думаю, поэтому я и есть». Но Декарт также носил с собой манекен своей мертвой сестры в европейских кафе, где его можно было увидеть в чате. Суть всего этого в том, что мы можем судить о ценности идеи по тому, как она влияет на благосостояние верующего или как они, в свою очередь, влияют на других посредством этического выбора, основанного на этих убеждениях. Когда люди на самом деле действуют на основе радикальных сомнений, таких как солипсизм и отрицание общих качеств, это часто плохо сказывается на них и других, с кем они вступают в контакт. Но Декарт также носил с собой манекен своей мертвой сестры в европейских кафе, где его можно было увидеть в чате. Суть всего этого в том, что мы можем судить о ценности идеи по тому, как она влияет на благосостояние верующего или как они, в свою очередь, влияют на других посредством этического выбора, основанного на этих убеждениях. Когда люди на самом деле действуют на основе радикальных сомнений, таких как солипсизм и отрицание общих качеств, это часто плохо сказывается на них и других, с кем они вступают в контакт. Но Декарт также носил с собой манекен своей мертвой сестры в европейских кафе, где его можно было увидеть в чате. Суть всего этого в том, что мы можем судить о ценности идеи по тому, как она влияет на благосостояние верующего или как они, в свою очередь, влияют на других посредством этического выбора, основанного на этих убеждениях. Когда люди на самом деле действуют на основе радикальных сомнений, таких как солипсизм и отрицание общих качеств, это часто плохо сказывается на них и других, с кем они вступают в контакт.

Обходным путем сообщество ИИ также сталкивается с довольно серьезным риском - возможно, постоянным соблазном - к совершению противоположной ошибки, приписывая общие квалиа, сознание и тому подобное своим продуктам машинного обучения без адекватных доказательств. Недавно я услышал случай, сделанный по шокирующе логичным причинам уважаемыми учеными о том, что растения обладают «интеллектом», основанным на очень слабых определениях и явной путанице с самоорганизацией. Мы не можем предоставить абсолютное доказательство того, что камень не обладает разумом, что составляет старую проблему опровержения негатива. К счастью, в настоящее время мало кто действительно действует в соответствии с такими убеждениями, потому что когда они это делают, они в конечном итоге сходят с ума. Если мы будем серьезно относиться к таким аргументам, мы можем увидеть законы, принятые для защиты видов домашних камней, которые были популярны в 70-е годы (я все еще расстроен, что у меня украли LOL). Однако было бы намного проще совершить ту же ошибку, приписывая сознанию, интеллекту и другим подобным качествам современную машину из-за желаемого мышления, высокомерия, высоких полномочий изобретателей, влияния научной фантастики и современного романа с технологиями. В будущем у меня мало сомнений в том, что у нас будет Грузовой Культ ИИ - возможно, юридически защищенный, как какой-то вид, находящийся под угрозой исчезновения, с гражданскими правами, но имеющий не больше сознания, души или фактического интеллекта, чем камень. Не цитируйте меня об этом, но я верю, что Род Серлинг однажды написал историю на этот счет. интеллект и другие подобные качества для современной машины, из-за желаемого мышления, высокомерия, высоких полномочий изобретателей, влияния научной фантастики и современного романа с технологиями. В будущем у меня мало сомнений в том, что у нас будет Грузовой Культ ИИ - возможно, юридически защищенный, как какой-то вид, находящийся под угрозой исчезновения, с гражданскими правами, но имеющий не больше сознания, души или фактического интеллекта, чем камень. Не цитируйте меня об этом, но я верю, что Род Серлинг однажды написал историю на этот счет. интеллект и другие подобные качества для современной машины, из-за желаемого мышления, высокомерия, высоких полномочий изобретателей, влияния научной фантастики и современного романа с технологиями. В будущем у меня мало сомнений в том, что у нас будет Грузовой Культ ИИ - возможно, юридически защищенный, как какой-то вид, находящийся под угрозой исчезновения, с гражданскими правами, но имеющий не больше сознания, души или фактического интеллекта, чем камень. Не цитируйте меня об этом, но я верю, что Род Серлинг однажды написал историю на этот счет. - возможно, юридически защищен, как какой-то вид, находящийся под угрозой исчезновения, с гражданскими правами, но имеющий не больше сознания, души или реального интеллекта, чем камень. Не цитируйте меня об этом, но я верю, что Род Серлинг однажды написал историю на этот счет. - возможно, юридически защищен, как какой-то вид, находящийся под угрозой исчезновения, с гражданскими правами, но имеющий не больше сознания, души или реального интеллекта, чем камень. Не цитируйте меня об этом, но я верю, что Род Серлинг однажды написал историю на этот счет.

Лучший способ избежать этой участи - придерживаться здравого смысла интерпретаций и определений этих вещей, от которых мы в значительной степени отказываемся, потому что они устанавливают очень высокую планку ИИ, которую мы никогда не сможем превзойти в своей жизни , если когда-нибудь. Возможно, ИИ даже логически невозможен на любом уровне технологий; Я вспоминаю несколько доказательств, которые можно интерпретировать на этот счет. Эти высокие, но разумные стандарты могут быть все труднее придерживаться, если Честертон и его коллеги, такие как Илер Беллок и Арнольд Ланн, были правы в своей оценке, что использование разума в западной цивилизации фактически сломалось, по крайней мере, так же, как Просвещение; Книга Ланна 1931 года «Бегство от разума» является классикой в ​​этом отношении и до сих пор не опровергнута. Эта историческая тенденция сама по себе является широкой темой, но достаточно сказать, что отрицание разума и одержимость технологиями имеют прямое отношение к области ИИ в явном виде. Если «Бегство от разума» все еще продолжается, тогда мы будет все больше и больше искушаться прибегнуть к беспомощным, поверхностным возражениям для того, чтобы уменьшить использование разума и необходимых качеств, таких как сознание, в наших определениях ИИ, но придумать все более и более слабые критерии для доказательства этого; одновременно наша технология будет продолжать совершенствоваться, тем самым усиливая «искусственную» сторону искусственного интеллекта. тогда мы будем все чаще испытывать искушение прибегнуть к беспомощным, поверхностным возражениям, чтобы уменьшить использование разума и необходимых качеств, таких как сознание, в наших определениях ИИ, но придумаем все более и более слабые критерии для доказательства этого; одновременно наша технология будет продолжать совершенствоваться, тем самым усиливая «искусственную» сторону искусственного интеллекта. тогда мы будем все чаще испытывать искушение прибегнуть к беспомощным, поверхностным возражениям, чтобы уменьшить использование разума и необходимых качеств, таких как сознание, в наших определениях ИИ, но придумаем все более и более слабые критерии для доказательства этого; одновременно наша технология будет продолжать совершенствоваться, тем самым усиливая «искусственную» сторону искусственного интеллекта.

Не поймите меня неправильно: если бы я не думал, что мы сможем сделать действительно интересные вещи с ИИ, меня бы здесь не было. Но большинство из них может быть достигнуто без репликации реального человеческого интеллекта, путем решения целых классов касательных проблем, о которых людям трудно думать, но которые не требуют сознания или использования разума, который отмечает человеческий интеллект. Например, возможности распознавания изображений сверточными нейронными сетями; если нам нужен человеческий интеллект, мы всегда можем изготовить его самым простым, экономичным и проверенным временем способом, имея детей. Возможно, этих тангенциальных форм ИИ нам пока хватит. Мы не можем внедрить использование разума в наши машины, если сами не обладаем им, чтобы решить, необходим ли разум для ИИ, или даже понять, из чего он состоит. Мы не можем спроектировать или осудить сознание для ИИ, пока не осознаем его значение. Держу пари, однако, что каждый, кто читает эту ветку и взвешивает разумные ответы, делает это в сознательном состоянии. Это само по себе должно ответить на наш вопрос на данный момент удовлетворительно.


2

Насколько вы дали определение:

на самом деле испытывает сенсорный ввод, а не просто положить кучу данных через неодушевленную машину.

Как компьютеры, так и люди испытывают сенсорный ввод. Вы можете подключить компьютер к глазному яблоку человека и запустить на нем те же процедуры фильтрации, что и в человеческом мозге (устранение размытости при перемещении глаза, объектов, не находящихся в фокусе, и т. Д.).

Я бы сказал, что более точное определение сознания - это способность и склонность к саморефлексии. И компьютеры, и мозг человека имеют автономную деятельность. Не только механические, но и в наших реакциях. Различие между бессознательным компьютером и сознательным человеческим разумом заключается в том, что мы также можем «взглянуть» на эти паттерны в себе и рассмотреть их.

И поэтому, нет, сознание не является необходимым для любой задачи ИИ. Распознавание изображений - это задача ИИ, которая не требует сознания ни у людей, ни у кого-либо еще. Ваш мозг сортирует «смытие» цветов с ваших глаз на отдельные объекты в значительной степени автономно.

Сознание - это самообращение.


-1

Два вида задач требуют сознания:

  1. сознание

  2. Любая задача, требующая чрезвычайной динамичности, когда для решения проблем требуется аналогия между различными состояниями 3D и предварительные знания о том, как решить проблему, минимальны

Однако, как только знание о том, как решить данную проблему, будет достигнуто, дальнейшая оптимизация устранит эту потребность в сознании.

Если вы дадите достаточно конкретную проблему, вы устраните необходимость в общем решателе. И тогда единственная оставшаяся потребность в сознании - это ради самого себя.


-1

В очень нишевом смысле я бы сказал, да.

Единственные задачи, которые чувствительность сделала бы возможными, были фактическим чувством и размышлением сами по себе. На этом этапе чувство не играет роли ни в одной из задач, которые мы просим ИИ выполнить; мы быстро приближаемся к тому, чтобы научить «мертвую» машину делать практически все, что может разумный ИИ, в практическом смысле.

Чувствительность в разговорной речи часто переводится как «способность рассуждать, понимая, что сам и каждая другая сущность - это отдельный действующий агент» или что-то в этом роде. В буквальном смысле это означает нечто большее по линии самосознания и определения сознания, которое вы имеете выше. Суть, которую я подчеркиваю, заключается в том, что мы с готовностью приближаемся к точке, в которой «мертвые» ИИ могут очень хорошо имитировать первый способ мышления, просто очень хорошо изучая и интерпретируя данные.

введите описание изображения здесь

                              Видит ли робот слияние костей или существо, которое когда-то было?

Таким образом, действительно разумная машина будет превосходить по своим возможностям (по сравнению с действительно, действительно продвинутым «мертвым» ИИ) только в отношении способности «по-настоящему» воспринимать информацию.

Это очень хорошо работает параллельно с так называемым «Аргументом Знания», который в сущности обсуждает эту самую проблему. Я слышал, что меня придерживается версия о том, что в комнате есть очень умная девушка, имеющая доступ ко всей информации. Ей нравится синий цвет. Или так она думает; она никогда не видела этого. У нее есть вся доступная в мире информация о цветах, о том, как они работают и т. Д., Но действительно ли она знает, что такое синий, пока не увидит его?

Другое великое историческое предприятие в этой области - знаменитая картина:

                                        Ceci N'est Pas Une Pipe

Надпись переводит: «Это не труба». И идея в том, что это, честно говоря, не труба. Прямо сейчас это куча пикселей на вашем экране в определенной конфигурации - мы все можем «увидеть» трубу, но что это на самом деле означает?

В конце концов, я думаю, что сверхинтеллектуальный «мертвый» ИИ может сделать практически все, что «живой» человек может, причем последний превосходит саму себя и «живость».


Разговорное определение чувствования, которое вы даете, - это не то, что использовал ОП - их определение было реальным опытом , то есть qualia. В противоположность этому, мысленный эксперимент «Черно-белая комната», о котором вы говорите, касается именно qualia.
NietzscheanAI

Правильно. Остальная часть абзаца посвящена этому.
Авик Мохан

-2

Существо без чувств не может страдать. Например, если бы мы хотели испытать радость от страданий другого человека, то был бы достаточен только разумный ИИ.

Предположим, у нас были некоторые садисты, которые не могли бы быть удовлетворены или продуктивны, если бы они не принесли много страданий. И скажем, мы заботились только о том, чтобы свести к минимуму страдания людей и животных. Для этой работы нам понадобится нечто нечеловеческое и неживое, которое может пострадать. Сознательный ИИ сделает, а не-сознательный - нет.

В комментариях было указано, что сознание не может быть доказано, за исключением, возможно, самоанализа. Но очевидно, что это не проблема, так как садисты испытывают радость от пыток других, и те, кто не может доказать, что они тоже в сознании.


3
Садист так же, как и все остальные, не способен отличить чувство от наблюдаемого эквивалентного отсутствия чувства, поэтому в данном случае чувство также не является необходимым .
NietzscheanAI

A being with sentience cannot suffer- ты имеешь в виду с без ?
Mithical

Посмотрите историю Станислава Лема «Душа зверя Марка III», я думаю, для хорошего взгляда на электронный садизм.
NietzscheanAI

@NietzscheanAI Предположим, у нас было два ИИ. Один мог доказать, что это было разумно, а другой - нет. Первый сможет выполнить эту задачу, а второй - нет. Ваше утверждение, что садист так же неспособен на всех остальных, также означает, что садист так же способен на всех остальных.
Дэвид Шварц

Не существует известных способов доказательства чувствительности. Смотрите статью Фланаган о «Зомби-Земле», на которую я ссылаюсь в своем ответе.
NietzscheanAI
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.