Меню

Китайская комната джона серла и тест тьюринга



Китайская комната джона серла и тест тьюринга

Сперва расскажу чуток про сабж, ибо сдается мне что мало кто из пользователей вообще слышал об этих вещах)

Тест Тьюринга — эмпирический тест, идея которого была предложена Аланом Тьюрингом в статье «Вычислительные машины и разум» (англ. Computing Machinery and Intelligence), опубликованной в 1950 году в философском журнале «Mind». Тьюринг задался целью определить, может ли машина мыслить.
Современная интерпретация этого теста звучит следующим образом: «Человек взаимодействует с двумя компьютерами. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор».
По состоянию на 2008 год ни одна из существующих компьютерных систем не приблизилась к прохождению теста.

Содержание теста
Оригинальная постановка
В 1950 году в философском журнале «Mind» была опубликована статья Алана Тьюринга «Computing Machinery and Intelligence», в которой было предложено заменить вопрос «Может ли машина думать?» на более определённый.
Тест был основан на игре под названием «Imitation game». В этой игре участвовали мужчина, женщина и ведущий. Мужчина с женщиной находились в одной комнате и переписывались с ведущим, находящимся в другой. Задача ведущего — по ответам определить, кто из них женщина. Задача мужчины — обмануть ведущего, задача женщины — помочь ведущему сделать правильный выбор.
Тьюринг поставил вопрос «Что будет, если мужчину заменить машиной? Сможет ли ведущий сделать правильный выбор или же машине удастся обмануть его?» Ответ на этот вопрос позволит определить, является ли машина мыслящей.
Современная интерпретация
Тест должен проводиться следующим образом. Судья (человек) переписывается на естественном языке с двумя собеседниками, один из которых — человек, другой — компьютер. Если судья не может надёжно определить, кто есть кто, считается, что компьютер прошёл тест. Предполагается, что каждый из собеседников стремится, чтобы человеком признали его. Чтобы сделать тест простым и универсальным, переписка сводится к обмену текстовыми сообщениями.
Переписка должна производиться через контролируемые промежутки времени, чтобы судья не мог делать заключения исходя из скорости ответов. (Во времена Тьюринга компьютеры реагировали медленнее человека. Сейчас это правило необходимо, потому что они реагируют гораздо быстрее, чем человек.)
В оригинальной формулировке Тьюринга человек должен был притворяться человеком противоположного пола, а тест длился 5 минут. Сейчас эти правила не считаются необходимыми и не входят в спецификацию теста.

Предсказания и современное положение дел
Тьюринг предсказал, что компьютеры в конечном счёте пройдут его тест. Он считал, что к 2000 году компьютер с памятью 1 миллиард бит (около 119 МБ) в ходе 5-минутного теста сможет обмануть судей в 30 % случаев.
Это предсказание не сбылось. Тьюринг также предсказал, что сочетание «мыслящая машина» не будет считаться оксюмороном, а обучение компьютеров будет играть важную роль в создании мощных компьютеров (с чем большинство современных исследователей согласны).
Пока что ни одна программа и близко не подошла к прохождению теста. Хотя такие программы, как Элиза (ELIZA), иногда заставляли людей верить, что они говорят с человеком, как, например, в неформальном эксперименте, названном AOLiza, но эти случаи нельзя считать корректным прохождением теста Тьюринга по целому ряду причин:
* Человек в таких беседах не имел никаких оснований считать, что он говорит с программой, в то время как в настоящем тесте Тьюринга человек активно пытается определить, с кем он беседует.
* Документированные случаи обычно относятся к таким чатам, как IRC, где многие беседы отрывочны и бессмысленны.
* Многие пользователи Интернета используют английский как второй или третий язык, так что бессмысленный ответ программы легко может быть списан на языковый барьер.
* Многие просто ничего не знают об Элизе и ей подобных программах, и поэтому не сочтут собеседника программой даже в случае совершенно нечеловеческих ошибок, которые эти программы допускают.

Кита́йская ко́мната — мысленный эксперимент, описанный Джоном Сёрлем, в котором критикуется возможность моделирования человеческого понимания естественного языка, создания так называемого «сильного искусственного интеллекта». В частности является критикой теста Тьюринга.
Был предложен в 1980 году в статье «Minds, Brains, and Programs» («Разум, мозг и программы»).

Мысленный эксперимент
В статье «Is the Brain’s Mind a Computer Program?» («Разум мозга — компьютерная программа?»), опубликованной в 1980 году, Сёрль описывает эксперимент следующим образом (цитируется по тексту журнала «В мире науки», 1990, № 3, с. 7-13):

Формализация
В 1984 году Сёрль формулирует свою идею более формализовано. Он рассматривает следующие предпосылки:
* Предпосылка 1: Мозг порождает разум.
* Предпосылка 2: Синтаксиса недостаточно для существования семантики.
* Предпосылка 3: Компьютерная программа полностью определяется своей синтаксической структурой.
* Предпосылка 4: Человеческий разум оперирует смысловым содержанием (семантикой).
И делает заключения:
* Заключение 1: Программы не являются сущностью разума и их наличия недостаточно для наличия разума.
* Заключение 2: Тот способ, посредством которого человеческий мозг на самом деле порождает ментальные явления, не может сводиться лишь к выполнению компьютерной программы.
* Заключение 3: То, что порождает разум, должно обладать по крайней мере причинно-следственными свойствами, эквивалентными соответствующим свойствам мозга.

Дискуссия
Мысленный эксперимент вызвал интенсивную дискуссию среди учёных. Существуют различные доводы против результатов, полученных Сёрлем:
* Некоторые критики считают, что тест Тьюринга выдержал не человек, а система, состоящая из комнаты, книги правил и человека. Сёрль, по их мнению, отвлекает внимание от этого факта, концентрируясь на одном из компонентов системы, выполняющем в данном случае чисто механическую работу. Система из книги правил, человека и комнаты, по их мнению, является разумной и понимает китайский язык.
* Другое мнение состоит в том, что никакой семантики не существует в принципе: всё, что происходит в мозгу, всего лишь манипулирование синтаксисом, которое осуществляется и в компьютерах.
* По мнению Станислава Лема, интеллект «китайской комнаты» действительно существует, располагаясь в мозгу её создателя — того, кто разработал систему правил обращения с иероглифами для участника эксперимента. Автор эксперимента должен был заранее предусмотреть все комбинации вопросов и ответов или придумать принцип подбора ответа на вопрос. В реальных условиях при создании предполагаемого искусственного интеллекта едва ли подобное будет возможно.
* Также, возможно, человеческий разум есть не что иное, как продуманная либо природой, либо «сверхсуществами» компьютерная программа со всеми возможными вариантами ответов или принципом подбора из вариантов, который человечество еще не осознало и не изучило.

Читайте также:  Тест драйв форд мустанг 1967

Пока не воспользовался интернетом, не знал, что на свете есть столько идиотов. // Станислав Лем

Источник

Китайская комната

Китайская комната (англ. Chinese room) — мысленный эксперимент в области философии сознания и философии искусственного интеллекта, впервые опубликованный Джоном Сёрлом в 1980 году. Цель эксперимента состоит в опровержении утверждения о том, что цифровая машина, наделённая «искусственным интеллектом» путём её программирования определённым образом, способна обладать сознанием в том же смысле, в котором им обладает человек. Иными словами, целью является опровержение гипотезы так называемого «сильного» искусственного интеллекта и критика теста Тьюринга.

Этот философский аргумент до сих пор является одним из самых обсуждаемых в области когнитивистики. Некоторые исследователи даже определяют когнитивистику как «исследовательский проект по опровержению аргумента Сёрла». Только с 2010 по 2014 год было выпущено более 750 статей в научных журналах, где обсуждается мысленный эксперимент Сёрла.

Эксперимент был опубликован в 1980 году в статье «Minds, Brains, and Programs» журнала «The Behavioral and Brain Sciences (англ.)русск.». Ещё до публикации эксперимент вызвал полемику, поэтому статья содержала как оригинальный аргумент Сёрла, так и возражения 27 исследователей в области когнитивных наук, а также ответы Сёрла на эти возражения. Помимо этого, эксперимент описан в книге 1984 года «Minds, Brains and Science» и в январском выпуске журнала Scientific American 1990 года.

Представим себе изолированную комнату, в которой находится Джон Сёрл, который не знает ни одного китайского иероглифа. Однако у него есть записанные в книге точные инструкции по манипуляции иероглифами вида «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два», но в этих инструкциях отсутствует информация о значении этих иероглифов и Сёрл просто следует этим инструкциям подобно компьютеру.

Наблюдатель, знающий китайские иероглифы, через щель передаёт в комнату иероглифы с вопросами, а на выходе ожидает получить осознанный ответ. Инструкция же составлена таким образом, что после применения всех шагов к иероглифам вопроса они преобразуются в иероглифы ответа. Фактически инструкция — это подобие компьютерного алгоритма, а Сёрл исполняет алгоритм так же, как его исполнил бы компьютер.

В такой ситуации наблюдатель может отправить в комнату любой осмысленный вопрос (например, «Какой цвет вам больше всего нравится?») и получить на него осмысленный ответ (например, «Синий»), как при разговоре с человеком, который свободно владеет китайской письменностью. При этом сам Сёрл не имеет никаких знаний об иероглифах и не может научиться ими пользоваться, поскольку не может узнать значение даже одного символа. Сёрл не понимает ни изначального вопроса, ни ответа, который сам составил. Наблюдатель, в свою очередь, может быть уверен, что в комнате находится человек, который знает и понимает иероглифы.

Таким образом Сёрл заключает, что хотя такая система и может пройти тест Тьюринга, но при этом никакого понимания языка внутри системы не происходит, а значит тест Тьюринга не является адекватной проверкой мыслительных способностей. Доводы Сёрла направлены на критику позиции так называемого «сильного» искусственного интеллекта, согласно которой компьютеры с соответствующей программой на самом деле могут понимать естественный язык, а также обладать другими ментальными способностями, свойственными людям. Гипотеза слабого искусственного интеллекта, напротив, лишь говорит о том, что компьютеры способны имитировать ментальные способности человека, поэтому Сёрла она не интересует.

Формально аргументацию можно представить так:

  1. Если гипотеза «сильного» ИИ верна, тогда существует такая программа для китайской письменности, при запуске которой в вычислительной системе эта система будет понимать китайскую письменность.
  2. Я могу исполнить программу для китайской письменности без понимания этой письменности.
  3. Следовательно, гипотеза «сильного» ИИ неверна.

Второй пункт обосновывается мысленным экспериментом «китайской комнаты». Вывод говорит о том, что запуск такой программы не ведёт к пониманию языка. Более общий вывод Сёрла говорит о том, что любые манипуляции с синтаксическими конструкциями не могут приводить к пониманию.

У этого философского аргумента можно выделить 3 важных предшественника:

«Мельница Лейбница» — мысленный эксперимент, описанный Готфридом Лейбницем в «Монадологии». Лейбниц предлагает представить машину размером с мельницу, которая симулирует чувства, мысли и восприятие. И если зайти внутрь такой машины, то ни одна из движущихся частей, обеспечивающих её работу, не будет являться сознанием или объяснением восприятия. Так Лейбниц пытался показать, что одних физических состояний недостаточно для функционирования сознания.

Бумажная машина Тьюринга

«Бумажная машина Тьюринга» — машинный алгоритм для игры в шахматы, придуманный Аланом Тьюрингом в 1951 году, где в качестве машины-исполнителя выступал человек. При этом человеку не нужно было знать, как играть в шахматы, а нужно было просто исполнять алгоритм, на основе входных данных о ходе соперника (например, «при ходе противника N передвиньте ферзя на B7»). Тьюринг был оптимистом и считал, что компьютеры будут способны к поддержанию беседы на человеческом языке, для этого он и разработал то, что сейчас называется тестом Тьюринга.

«Китайская нация» — мысленный эксперимент, предложенный Недом Блоком в 1978 году для опровержения функционализма. Эксперимент Блока схож с «Китайской комнатой», однако Блок предлагает использовать множество китайцев, каждый из которых бы эмулировал нейрон искусственного мозга. В такой системе каждый китаец имел бы телефон и список номеров других китайцев. В зависимости от того, когда зазвонил телефон конкретного китайца, он бы звонил кому-либо из своего списка. При этом передача сообщения по телефону не требуется, необходим лишь только факт звонка (так же происходит взаимодействие между нейронами). Тогда, если в такой системе создать функциональное состояние, которое появляется при восприятии боли, вся «Китайская нация» окажется в состоянии боли, при этом ни один из китайцев не будет эту боль чувствовать. Это применимо к любым ментальным состояниям и чувствам.

Мысленный эксперимент вызвал интенсивную критику в академических кругах. Были выдвинуты различные доводы против аргумента Сёрла.

Аргумент о системе

Некоторые критики считают, что тест Тьюринга выдержал не человек в комнате, а система, состоящая из комнаты, книги правил и человека. Сёрл, по их мнению, отвлекает внимание от этого факта, скрывая логические ошибки и концентрируясь на одном из компонентов системы, выполняющем в данном случае чисто механическую работу. Система из книги правил, человека и комнаты, по их мнению, является разумной и понимает китайский язык. В качестве контраргумента Сёрл предлагает заставить человека запомнить формальные правила ответов для системы. По мнению философа, система, которая теперь будет состоять только из человека, всё равно не сможет понять китайский язык.

Читайте также:  Чери тигго 7 про краш тест баллы

Часть критиков согласна с тем, что следование простым инструкциям на человеческом языке не создаёт понимания, однако это не значит, что такое понимание невозможно создать в принципе. Так, например, эти критики полагают, что эффект понимания достижим, если создать робота с самообучающейся программой, а также оснастить его сенсорами для восприятия мира. Такой робот, по их мнению, может взаимодействовать с миром, познавать его и быть способен обучиться подобно ребёнку, а следовательно начать понимать так же, как человек. Сёрл возражал против того, что в случае робота применим тот же аргумент. Сёрл предлагал поместить человека внутрь робота, и человек, в зависимости от увиденных через сенсоры иероглифов, выполнял бы движение телом робота, и в то же время он бы не имел никакого понимания происходящего, а лишь выполнял синтаксические манипуляции над символами.

Поскольку компьютерные алгоритмы работают не так, как настоящий мозг, некоторые критики предлагают воссоздать нейронную сеть человека, владеющего китайской письменностью. Тогда такая нейронная сеть должна понимать иероглифы точно так же, как и человек. На это Сёрл возражал, что даже симуляция работы мозга недостаточна для создания эффекта понимания, и предлагал модифицированную «китайскую комнату». В такой комнате вместо нейронов можно представить водопроводные трубы, а человек внутри комнаты переключает эти трубы согласно инструкции в зависимости от входных сигналов. При этом понимания иероглифов не появляется ни у человека, ни у водопроводных труб.

Ещё одно возражение к «китайской комнате» основано на том, что мы определяем, понимает ли человек китайские иероглифы, лишь по его поведению. Если компьютер ведёт себя так же, как человек, владеющий китайской письменностью, то тогда нам следует полагать, что и компьютер её понимает. Таким критикам Сёрл отвечал, что суть аргумента не в том, откуда мы знаем, что у других людей есть ментальные состояния, а в том, что́ есть эти ментальные состояния. С точки зрения Сёрла, ментальные состояния не могут быть определены как просто вычислительный процесс и его вывод, поскольку для этого не требуется ментальное состояние.

Многие исследователи критиковали Сёрла за то, что в своих суждениях относительно терминов «понимание» и «сознание» он опирается на интуицию. Однако многие вещи контринтуитивны даже в современной науке, поэтому не следует полагаться на интуицию в суждениях об искусственном интеллекте. В качестве иллюстрации С. Пинкер приводит научно-фантастический очерк, где инопланетяне, имеющие другую форму сознания, прибывают на Землю и не могут поверить, что люди способны что-либо понимать, поскольку внутри их голов находится мясо. По мнению Пинкера, интуиция подводит инопланетян так же, как она подводит Сёрла. Д. Хофштадтер заявлял также, что автор просто не принимает идею возможности сильного ИИ, настаивая, что тому не будет хватать некой чудодейственной «каузальной силы мозга», которую Сёрл описывает по-разному и с пробелами в логике.

Общие философские вопросы

Синтаксис и семантика

Сёрл полагал, что эксперимент с «китайской комнатой» поднимает и более общий философский вопрос соотношения синтаксиса и семантики. По его мнению, в эксперименте не удалось достичь понимания потому, что человек внутри комнаты оперировал лишь синтаксическими конструкциями, в то время как сознание обладает ментальными состояниями, содержащими смысл. Человеческий разум, в отличие от компьютера, воспринимает иероглифы не по тому, как они выглядят, а согласно смыслу, который они содержат. И хотя компьютеры и могут выдавать ответы на естественном языке, они не связывают со словами никакого смысла. Сёрл считал, что невозможно получить семантические значения лишь из формальных манипуляций символами.

В свою очередь, критики возражали, что компьютерная система, выполняющая программу, тоже имеет сознание. Действительно, алгоритм, записанный в книге и лежащий на книжной полке, не может привести к появлению понимания. Но алгоритм, запущенный на сложной вычислительной машине, имеющий как физическое состояние (вольтаж на транзисторе), так и интерпретацию физического состояния (символы), вполне может давать «эффект» понимания. В качестве пародийного контрпримера к аргументам Сёрла Д. Чалмерс приводит рецепт кекса, который является чисто синтаксической конструкцией и не приводит к «эффекту» рассыпчатости (аналог «понимания» у Сёрла), однако кексы являются рассыпчатыми, следовательно, выполнение рецепта недостаточно для появления кекса.

Станислав Лем утверждал, что описанная в эксперименте Сёрла работа вообще всегда асемантично формальна, следовательно, «понимание» в самих текстах не участвует и тем более «сознание» (в т.ч. в системе «Сёрл—инструкции»), — тем самым идея доводится до абсурда, не имея отношения к реальной проблематике ИИ.

Сознание и тело

Ещё одним вопросом в дискуссии стала проблема соотношения тела и сознания. По мнению Сёрла, сознание — это одна из эксклюзивных способностей мозга, основанная на его нейронных процессах. То есть Сёрл является сторонником теории идентичности в философии сознания.

Сторонники функционализма же, напротив, полагают, что любое ментальное состояние (в том числе сознание) является тем, какие функции оно выполняет. Следовательно, сознание может быть реализовано на любой платформе, которая позволяет выполнить те же функции.

Современные исследования в области нейронауки пока не позволяют сказать, является ли сознание достаточно абстрактной сущностью, чтобы быть абстрагированной от нейронов, или, наоборот, сильно связано с биологической основой функционирования мозга. Этот вопрос остаётся открытым.

Симуляция и дупликация

В дискуссии Сёрл также упирал на разницу между симуляцией и дупликацией. Ведь никто не путает компьютерную симуляцию погоды с реальной погодой. Так, по мнению Сёрла, и не стоит путать компьютерную симуляцию понимания с реальным пониманием. Однако к этому аргументу высказывались претензии о невозможности отличить симуляцию от дупликации. Например, не ясно, является ли искусственное сердце симуляцией настоящего сердца или дубликатом. То же самое применимо к протезам: люди на протезах ходят или симулируют хождение? Поэтому принцип разделения симуляции и дупликации Сёрла имеет серьёзные проблемы.

Несмотря на длительные дискуссии исследователей из различных областей, спустя более чем 30 лет консенсус относительно аргумента Сёрла до сих пор не достигнут. Одни называют этот мысленный эксперимент самым известным контрпримером в истории, нанёсшим удар по функционализму, от которого тот так и не смог оправиться. Его также называют классическим аргументом для когнитивной науки. Другие (например, Д. Хофштадтер, Д. Деннет, С. Лем) считают этот аргумент явно ошибочным и вводящим в заблуждение.

Читайте также:  Признаки того что ты ему нравишься тест

Источник

Китайская комната

В продолжение прошлой темы

скопирую с википедии

Кита́йская ко́мната (англ. Chinese room) — мысленный эксперимент в области философии сознания и философии искусственного интеллекта, впервые опубликованный Джоном Сёрлом в 1980 году. Цель эксперимента состоит в опровержении утверждения о том, что цифровая машина, наделённая «искусственным интеллектом» путём её программирования определённым образом, способна обладать сознанием в том же смысле, в котором им обладает человек. Иными словами, целью является опровержение гипотезы так называемого «сильного» искусственного интеллекта и критика теста Тьюринга.

Описание эксперимента
Представим себе изолированную комнату, в которой находится Джон Сёрл, который не знает ни одного китайского иероглифа. Однако у него есть записанные в книге точные инструкции по манипуляции иероглифами вида «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два», но в этих инструкциях отсутствует информация о значении этих иероглифов и Сёрл просто следует этим инструкциям подобно компьютеру.

Наблюдатель, знающий китайские иероглифы, через щель передаёт в комнату иероглифы с вопросами, а на выходе ожидает получить осознанный ответ. Инструкция же составлена таким образом, что после применения всех шагов к иероглифам вопроса они преобразуются в иероглифы ответа. Фактически инструкция — это подобие компьютерного алгоритма, а Сёрл исполняет алгоритм так же, как его исполнил бы компьютер.

В такой ситуации наблюдатель может отправить в комнату любой осмысленный вопрос (например, «Какой цвет вам больше всего нравится?») и получить на него осмысленный ответ (например, «Синий»), как при разговоре с человеком, который свободно владеет китайской письменностью. При этом сам Сёрл не имеет никаких знаний об иероглифах и не может научиться ими пользоваться, поскольку не может узнать значение даже одного символа. Сёрл не понимает ни изначального вопроса, ни ответа, который сам составил. Наблюдатель, в свою очередь, может быть уверен, что в комнате находится человек, который знает и понимает иероглифы.

Источник

Билет 27. Аргумент китайской комнаты Серла. В чем его смысл?

Основные положения, которые доказывает Серл:

· Компьютер НЕ может мыслить;

· Программа для компьютера это НЕ то же самое, что разум для человека.

В своем доказательстве Серл отталкивается от идеи теста Тьюринга. Она заключается в том, что «если компьютер способен демонстрировать поведение, которое эксперт не сможет отличить от поведения человека, обладающего определенными мыслительными способностями (скажем, способностью выполнять операции сложения или понимать китайский язык), то компьютер также обладает этими способностями». То есть – успешно моделируя разум, компьютерная программа сама становится разумом.

По сути, отчасти доказательство аргумента Серла сводится к критике утверждений, сделанных на основе теста Тьюринга. Сам Серл указывает, что он опровергает только утверждения сильного ИИ.

· Серл вводит понятия слабого и сильного искусственного интеллекта.

Сильный ИИ: мышление — это не что иное, как манипулирование формализованными символами. С этой позиции тест Тьюринга можно считать правильным.

Слабый ИИ: позиция более осторожная и умеренная — предлагается рассматривать компьютерные модели как полезное средство для изучения разума, но не как абсолютно аналогичные ему.

Утверждения сильного ИИ четкие и простые, но их так же просто опровергнуть.

· Серл приводит пример с китайской комнатой:

« Предположим, Серл не знает китайского языка. Поместим его в так называемую китайскую комнату. В китайской комнате у Серла будет книга, где записаны различные правила сопоставления одних китайских значков другим. Серл утверждает, что в таком сопоставлении и заключается работа компьютера: он синтаксичен. Пусть правила в книге будут настолько замечательными, что если Серлу в комнату будут передаваться вопросы на китайском, то он с помощью книги получит новое словосочетание, которое и будет «человеческим» ответом на вопрос носителя китайского языка. Тогда Серл пройдет тест Тьюринга на понимание китайского языка. Но будет ли Серл понимать что-либо? Он утверждает, что нет. Тогда получается, что и машина, проходящая тест Тьюринга не будет обладать пониманием».

Главный вывод: одного умения манипулировать символами еще недостаточно, чтобы гарантировать знание, восприятие, понимание, мышление и т. Д

· Серл приводит ряд аксиом – теоретические положения, на которых строился его пример:

1. Компьютерные программы — это формальные (синтаксические) объекты.

2. Человеческий разум оперирует смысловым содержанием (семантикой).

3. Синтаксис сам по себе не составляет семантику и его недостаточно для существования семантики.

4. Мозг порождает разум.

· Сделанные на основе аксиом и рассмотренного примера заключения:

1. Программы не являются сущностью разума и их наличия недостаточно для наличия разума. (что опровергает утверждения сильного ИИ в сформулированном выше виде)

Это справедливо в отношении любой вычислительной системы. Производя только формальные операции с символами (т. е. вычисления) вы не сможете обогатить свой разум семантикой, независимо от того выполняются эти вычислительные операции последовательно или параллельно; вот почему аргумент китайской комнаты опровергает сильный ИИ в любой его форме.

2. Любая другая система, способная порождать разум, должна обладать каузальными свойствами (по крайней мере), эквивалентными соответствующим свойствам мозга.

3. Любой артефакт, порождающий ментальные явления, любой искусственный мозг должен иметь способность вопроизводить специфические каузальные свойства мозга, и наличия этих свойств невозможно добиться только за счет выполнения формальной программы (т.к. моделирование — это не то же самое, что воспроизведение)

4. Тот способ, посредством которого человеческий мозг на самом деле порождает ментальные явления, не может сводиться лишь к выполнению компьютерной программы.

· В заключение Серл объясняет, почему, несмотря на очевидность и простоту его аргументов, вообще возникает идея сопоставлять компьютер и человеческий разум:

«Отчасти эти недоразумения объясняются тем, что люди унаследовали некоторые положения -бихевиористских психологических теорий прошлого поколения. Под тестом Тьюринга скрывается соблазн считать, что если нечто ведет себя так, как будто оно обладает ментальными процессами, то оно и на самом деле должно ими обладать. Частью ошибочной бихевиористской концепции было также и то, что психология, для того чтобы оставаться научной дисциплиной, должна ограничиваться изучением внешне наблюдаемого поведения».

Источник