Аргумент китайской комнаты в искусственном интеллекте

Опубликовано: 26 Июля, 2021

Когда мы спрашиваем: « Возможен ли искусственный интеллект (ИИ) ?» Мы действительно спрашиваем: «Можем ли мы создать сознание в компьютерах» ?

Аргумент китайской комнаты утверждает, что программа не может дать компьютеру «разум», «понимание» или «сознание», независимо от того, насколько разумно или по-человечески программа может заставить компьютер вести себя / [Source Wiki]

В 1980 году Джон Сирл утверждал, что тест Тьюринга нельзя использовать для определения, « считается ли машина такой же интеллектуальной, как люди ». Он утверждал, что любая машина, подобная ELIZA и PARRY, может легко пройти тест Тьюринга, просто манипулируя символами, которые они не понимают. Без понимания их нельзя назвать « мыслящими » в том же смысле, в каком это делают люди.

Конфигурация

Джон представляет себя (а не машину) некитайским человеком, сидящим внутри комнаты изолированным от другого китайца, который находится за пределами комнаты, и пытается общаться. Ему предоставляется список китайских иероглифов и инструкция, в которой подробно объясняются правила, в соответствии с которыми могут формироваться строки (последовательности) символов, но без указания значения символов. Это означает, что у него есть книга с английской версией компьютерной программы, а также достаточно бумаги, карандашей, ластиков и шкафов для документов.

В этом мысленном эксперименте человеку в «китайской комнате» задают вопросы извне, и он обращается к библиотеке книг, чтобы сформулировать ответ.

Теперь он получает все сообщения, отправленные через щель в двери, написанные на китайском языке. Он обработает все символы в соответствии с инструкциями программы и выведет китайские иероглифы в виде следующего вида:

  • Если он находит китайский символ, например ♍, он возвращает символ ♓
  • Если он находит китайский символ, например ԪԘ, он возвращает символ ԈԂ

На самом деле книга инструкций содержит так много правил, которые содержат входные символы и соответствующие им выходные символы. Ему просто нужно найти входной китайский символ и вернуть соответствующий китайский символ в качестве выходного.
Итак, аргумент продолжается, компьютер (машина) похож на этого человека в том смысле, что он не делает ничего, кроме как следует правилам, данным в инструкции (программе). Он не понимает ни значения заданных ему вопросов, ни своих собственных ответов, поэтому его нельзя сказать, что он думает. Дело в том, что внутренний человек не понимает китайского языка, но все же он прекрасно умеет общаться с посторонним на китайском языке.

Сравните машину Джона с машиной в тесте Тьюринга, машина может иметь огромную коллекцию базы данных, содержащую вопросы и ответы. Когда дознаватель задает вопрос, машина просто находит вопрос в базе данных и возвращает соответствующий ответ дознавателю. Весь сценарий выглядит так, как будто человек возвращает ответ, в отличие от машины.

Следовательно, машина в конфигурации не понимает этих вопросов и ответов, без « понимания » (или « преднамеренности ») мы не можем описать то, что машина делает, как « думает », и, поскольку она не думает, у нее нет « Ум » в каком-нибудь обычном смысле этого слова. Поэтому мы не можем считать машину умной.

Справка:
https://en.wikipedia.org/wiki/Chinese_room

Эта статья предоставлена Шубхамом Бансалом. Если вам нравится GeeksforGeeks, и вы хотели бы внести свой вклад, вы также можете написать статью с помощью provide.geeksforgeeks.org или отправить свою статью по адресу @ geeksforgeeksorg. Посмотрите, как ваша статья появляется на главной странице GeeksforGeeks, и помогите другим гикам.