ivanov_petrov: (geo)
ivanov_petrov ([personal profile] ivanov_petrov) wrote2016-05-20 03:54 pm
Entry tags:

Китайская комната, ИИ, тест Тьюринга и медоносные пчелы

Перечитывал книгу Е.Н. Панов. 2012. ПАРАДОКС НЕПРЕРЫВНОСТИ: ЯЗЫКОВОЙ РУБИКОН. О непреодолимой пропасти междукоммуникацией у животных и языком человека http://panov-ethology.ru/publications/vved.pdf Об этой книге я уже писал http://ivanov-petrov.livejournal.com/1815989.html

Там обратил внимание на одну строку, которая привела к странному сближению. Постараюсь его пояснить.

Есть известнейшее открытие языка пчел (von Frisch 1939) - было отмечено Нобелевской премией. Потом, в 80-х годах, некоторые ученые усомнились в этом результате. Сейчас сообщество этологов не имеет единого мнения - есть сильная критика, считающая это ошибкой - ошибкой очень большой, сильно исказившей исследование поведения животных. И есть те, кто придерживается традиционного (на данный момент) мнения, что язык танцев есть.

На русском даже издана книга Веннера с критикой гипотезы языка танцев. Есть кропотливые работы японца Охтани, которые привели исследователя к выводу, что языка танцев нет. Веннер с соавторами воспроизвел эксперименты Фриша и показал, что опыты были грязными, результаты недостоверны. Е.Н. Панов в ряде своих известных книг рассматривает эту историю в рамках своей критики современной парадигмы этологии.

Что же во всем этом интересует меня? Ну конечно же, нарочный - один момент, высказанный случайной почти что фразой. Не это интересовало исследователей поведения.



Вот итоговая работа Охтани с его результатами за индивидуальным поведением пчел, он проверял, в самом ли деле они передают информацию о месте взятка танцем.

OHTANI T. 2008. Recruitment efficiency of waggle dances performed by a worker honeybee and the influence on her dance performance by recruited foragers. Humans and Nature 19 http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.514.5264&rep=rep1&type=pdf
У Панова есть пересказ:
"Коротко говоря, был сделан вывод, что танец является своего рода побочным эффектом физиологического состояния пчелы, наблюдаемым в тех случаях, когда это состояние оптимально. Поскольку, как считает Охтани, в танце задействованы те же нервные структуры и мышцы, что и в полете, сам танец можно расценивать как «псевдополет», проделываемый пчелой в состоянии повышенного общего возбуждения и «не контролируемый его исполнительницей».

...информация о местоположении источников корма, действительно содержащаяся в танце, может быть извлечена человеком-наблюдателем, но не используется самими пчелами при поиске ими корма. Было показано, что поисковое поведение пчел ничем принципиально не отличается от того, что известно для прочих летающих насекомых, разыскивающих пропитание по запаху. Оказалось, что это феномен популяционный, необъяснимый в терминах парных взаимодействий (Wenner 1974; Wenner, Wells 1990; Wells et al. 2010)."

--------
Итак, соберем нужные кусочки мозаики вместе. Имеется ситуация: пчелы внутри улья в танце на сотах "излучают" информацию о месте источника корма, человек-наблюдатель способен эту информацию считать с танца. То есть информация в танце есть - пусть это "псевдополет", проигрывание реального полета в дрожаниях и вибрациях, но в танце в самом деле содержится эта информация. Однако эксперименты над несколькими десятками индивидуально меченых пчел не показали статистически достоверно, что пчелы в самом деле используют эту информацию. Поэтому считается, что в танце НЕ передается эта информация и языка пчел нет.

Я оставлю в стороне причины, отчего - как мне кажется - опыты не выявили передачи информации - это уже пчелиные тонкости, и разбираться в них имеет смысл тому, кто, скажем так, не менее трех лет наблюдал за пищевым поведением пчел. Иначе не будет понятно, будут одни пустые фантазии. Так что этологам, в самом деле заинтересованным в том, есть ли там передача информации, тут ничего сообщено не будет, как понятно. Я о другом.

Теперь напомню другой очень известный феномен. Штука весьма знаменитая, не буду пересказывать - просто процитирую Вики.

Китайская комната (англ. Chinese room) — мысленный эксперимент в области философии сознания и философии искусственного интеллекта, впервые опубликованный Джоном Сёрлом в 1980 году. Цель эксперимента состоит в опровержении утверждения о том, что цифровая машина, наделённая «искусственным интеллектом» путём её программирования определённым образом, способна обладать сознанием в том же смысле, в котором им обладает человек. Иными словами, целью является опровержение гипотезы так называемого «сильного» искусственного интеллекта и критика теста Тьюринга.

Эксперимент был опубликован в 1980 году в статье «Minds, Brains, and Programs» журнала «The Behavioral and Brain Sciences. эксперимент описан в книге 1984 года «Minds, Brains and Science» и в январском выпуске журнала Scientific American 1990 года

Представим себе изолированную комнату, в которой находится Джон Сёрл, который не знает ни одного китайского иероглифа. Однако у него есть записанные в книге точные инструкции по манипуляции иероглифами вида «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два», но в этих инструкциях отсутствует информация о значении этих иероглифов и Сёрл просто следует этим инструкциям подобно компьютеру.

Наблюдатель, знающий китайские иероглифы, через щель передаёт в комнату иероглифы с вопросами, а на выходе ожидает получить осознанный ответ. Инструкция же составлена таким образом, что после применения всех шагов к иероглифам вопроса они преобразуются в иероглифы ответа. Фактически инструкция — это подобие компьютерного алгоритма, а Сёрл исполняет алгоритм так же, как его исполнил бы компьютер[2].

В такой ситуации наблюдатель может отправить в комнату любой осмысленный вопрос (например, «Какой цвет вам больше всего нравится?») и получить на него осмысленный ответ (например, «Синий»), как при разговоре с человеком, который свободно владеет китайской письменностью. При этом сам Сёрл не имеет никаких знаний об иероглифах и не может научиться ими пользоваться, поскольку не может узнать значение даже одного символа. Сёрл не понимает ни изначального вопроса, ни ответа, который сам составил. Наблюдатель, в свою очередь, может быть уверен, что в комнате находится человек, который знает и понимает иероглифы

Таким образом Сёрл заключает, что хотя такая система и может пройти тест Тьюринга, но при этом никакого понимания языка внутри системы не происходит, а значит тест Тьюринга не является адекватной проверкой мыслительных способностей. Доводы Сёрла направлены на критику позиции так называемого «сильного» искусственного интеллекта, согласно которой компьютеры с соответствующей программой на самом деле могут понимать естественный язык, а также обладают другими ментальными способностями, свойственными людям. Гипотеза слабого искусственного интеллекта, напротив, лишь говорит о том, что компьютеры способны имитировать ментальные способности человека, поэтому Сёрла она не интересует.

Формально аргументацию можно представить так:

Если гипотеза «сильного» ИИ верна, тогда существует такая программа для китайской письменности, при запуске которой в вычислительной системе эта система будет понимать китайскую письменность.
Я могу исполнить программу для китайской письменности без понимания этой письменности.
Следовательно, гипотеза «сильного» ИИ неверна.

«Мельница Лейбница» — мысленный эксперимент, описанный Готфридом Лейбницем в «Монадологии». Лейбниц предлагает представить машину размером с мельницу, которая симулирует чувства, мысли и восприятие. И если зайти внутрь такой машины, то ни одна из движущихся частей, обеспечивающих её работу, не будет являться сознанием или объяснением восприятия. Так Лейбниц пытался показать, что одних физических состояний недостаточно для функционирования сознания

«Бумажная машина Тьюринга» — машинный алгоритм для игры в шахматы, придуманный Аланом Тьюрингом в 1951 году[3], где в качестве машины-исполнителя выступал человек. При этом человеку не нужно было знать, как играть в шахматы, а нужно было просто исполнять алгоритм, на основе входных данных о ходе соперника (например, «при ходе противника N передвиньте ферзя на B7»). Тьюринг был оптимистом и считал, что компьютеры будут способны к поддержанию беседы на человеческом языке, для этого он и разработал то, что сейчас называется тестом Тьюринга

Часть критиков согласна с тем, что следование простым инструкциям на человеческом языке не создаёт понимания, однако это не значит, что такое понимание невозможно создать в принципе. Так, например, эти критики полагают, что эффект понимания достижим, если создать робота с самообучающейся программой, а также оснастить его сенсорами для восприятия мира. Такой робот, по их мнению, может взаимодействовать с миром, познавать его и быть способен обучиться подобно ребёнку, а следовательно начать понимать так же, как человек. Сёрл возражал против того, что в случае робота применим тот же аргумент. Сёрл предлагал поместить человека внутрь робота, и человек, в зависимости от увиденных через сенсоры иероглифов, выполнял бы движение телом робота, и в то же время он бы не имел никакого понимания происходящего, а лишь выполнял синтаксические манипуляции над символами

Ещё одно возражение к «китайской комнате» основано на том, что мы определяем, понимает ли человек китайские иероглифы, лишь по его поведению. Если компьютер ведёт себя так же, как человек, владеющий китайской письменностью, то тогда нам следует полагать, что и компьютер её понимает. Таким критикам Сёрл отвечал, что суть аргумента не в том, откуда мы знаем, что у других людей есть ментальные состояния, а в том, что́ есть эти ментальные состояния. С точки зрения Сёрла, ментальные состояния не могут быть определены как просто вычислительный процесс и его вывод, поскольку для этого не требуется ментальное состояние

Несмотря на длительные дискуссии исследователей из различных областей, спустя более чем 30 лет консенсус относительно аргумента Сёрла до сих пор не достигнут. Одни называют этот мысленный эксперимент самым известным контрпримером в истории, нанёсшим удар по функционализму, от которого тот так и не смог оправиться. Его также называют классическим аргументом для когнитивной науки[5]. Другие (например, Д. Деннет) считают этот аргумент явно ошибочным и вводящим в заблуждение
https://en.wikipedia.org/wiki/Chinese_room https://ru.wikipedia.org/wiki/%D0%9A%D0%B8%D1%82%D0%B0%D0%B9%D1%81%D0%BA%D0%B0%D1%8F_%D0%BA%D0%BE%D0%BC%D0%BD%D0%B0%D1%82%D0%B0

------------
Итак, есть целая отрасль знаний, которая весьма интересуется ответом - как понимать "компьютерный разум", который внешне выполняет разумные целесообразные действия (и владеет китайским языком), а изнутри мы видим, что это набор простых команд. То ли это считать разумом, то ли нет. Об этом написаны целые библиотеки книг и статей, и обсуждают со всех сторон, критикуют, защищают. Но чего не делали, насколько мне известно - не сравнивали с невыдуманной природной ситуацией.

Язык пчел уникален. Когда составляют таблицы, призванные показать переход свойств от языков животных к чязыку человека, язык пчел всегда занимает особую клету, самую близкую к человеческому языку. Самая сложная система, неверноятно, что она есть - отчего и силятся критики ее опровергнуть. Чтобы не у собак, не у обезьян, а у пчел была такая сложная коммуникативная система - это с ума сойти, это совершенно контринтуитивно.

Я обратил внимание, что это обратная ситуация к китайской комнате. У нас есть организмы, которые в самом деле передают (не кому-то, а просто излучают) информацию о важном обстоятельстве - месте, где есть корм. Высшие организмы, люди-наблюдатели, могут расшифровать эту информацию и установить, где находится это место. Однако успешность самих существ по принятым нами критериям эффективности низка, и потому - по критерию эффективности, не по чему другому - иы делаем вывод, что они не способны использовать эту информацию. Слишком мал процент тех, кто находит корм в указанном месте. Значит, существа не владеют языком, который у них есть; у них он есть, но они не могут его использовать.

В китайской комнате есть набор "простых команд", который "на выходе" имитирует владение сложным комплексным целым - языком. Это мысленный эксперимент.
В реальной практике этологов возникает реальная научная проблема ценой в Нобелевскую премию: у насекомых есть система коммуникации, язык, который не используется.

Понятно, как можно "снизить" проблему - если сказать, что пчела "просто" "псевдолетит", дергается в соответствии с недавно испытанным полетом, то с одной стороны по этому "следу в нервной системе" внешний наблюдатель может понять, куда следует лететь за кормом и насколько далеко. Это "просто" воспроизведение полета в ином типе двигательной активности. Такова догадка - строго это не показано, это лишь аналогия, которая призвана облегчить понимание, что наличный язык не является языком, сложнейшие паттерны нервной деятельности выбрасываются вхолостую.

Можно видеть, что это - всего лишь перефразирование. Оно неким образом помогает увидеть суть проблемы, и в то же время можно четче представить настоящий вопрос. У нас есть язык, используемый - допустим - инопланетными существами. Как мы будем решать, разумны ли они? Пока ответ про эффективность: мы слышим в языке (который мы расшифровали) указание на координаты - а из инопланетников туда отправляется лишь очень небольшая доля слышавших сообщение. Значит, говорим мы, это не сообщение и не язык - они не поняли сами себя.

Как мне кажется, это задача ничуть не хуже задачи китайской комнаты. У нее есть даже преимущества: это не мысленный эксперимент, а реальный. Причем не над пчелами, а над людьми: можно гуглить и искать, какие кто дает ответы.

[identity profile] alamar.livejournal.com 2016-05-20 01:07 pm (UTC)(link)
Насчёт "просто псевдополёт".

Если эволюции "нужно" сделать механизм (например, указания на пищу), она его делает не с нуля, а из того, что под рукой. если уже есть псевдополёт - сделает из псевдополёта, почему нет. Странно, если бы мы ожидали чего-то другого.

Я не удивлюсь, если поведение животных попроще, которое нам кажется целостным ("увидел - подумал - отреагировал"), на самом деле окажется состоящим из мозаики псевдомеханизмов ("подвергся воздействию - среагировал псевдомеханизмом - сам не понял, почему").

[identity profile] vasia712.livejournal.com 2016-05-20 01:25 pm (UTC)(link)
/Как мы будем решать, разумны ли они?

Не так давно было кино "Ex Machina". Там наглядно показывается в чем собственно состоит тру тест на разумность. Вопрос не в том кто что "видит", вопрос в том кто кого посадит в клетку, буквально. Разумность и свобода две ипостаси одного и того же.

[identity profile] wingover.livejournal.com 2016-05-20 01:25 pm (UTC)(link)
"Например, мой аспират подсунул компьютеру "Войну и мир" Льва Толстого и "Тихий Дон" Шолохова. В итоге через какое-то время Сеть начала производить свой текст, в котором практически не было грамматических ошибок, при том что никаких правил орфографии и синтаксиса ей никто не "объяснял". Она сама поняла, как надо, и если ее не остановить, она будет писать текст вечно, не останавливаясь.

— А есть в этом тексте смысл?

— Знаете, когда начинаешь читать, то лишь через пару страниц понимаешь, что смысла там нет, хотя написано все складно. Помню, там Пьер Безухов спрашивает графа Болконского: "Слушай, ты давно с Новочеркасска?"

http://kommersant.ru/doc/2982428

Вот у Александра Кулешова есть рецепт решения. Пошло - значит, неразумно.
Edited 2016-05-20 13:29 (UTC)

[identity profile] cshe.livejournal.com 2016-05-20 01:27 pm (UTC)(link)
Особенно будет смешно, если выяснится, что по отдельности пчёлы ни черта не понимают, а вот всем ульем - очень даже понимают, и, условно, танцующие виды пчёл в среднем по больнице более эффективны, просто потому что нишу летучих поедателей нектара заняли именно они, а не индивидуально более толковые осы или там мухи. И что объектом исследования не может быть особь, но только уникальное сообщество или даже вид. Который в силу уникальности достоверно-воспроизводимо-фальсифицируемо-whatever исследован быть не может. Закрываем контору и идём к этнографам пить пиво.

[identity profile] kaktus77.livejournal.com 2016-05-20 01:29 pm (UTC)(link)
== . Оно неким образом помогает увидеть суть проблемы,

Так в чем суть проблемы? Или хотя бы сама проблема? Вы об этом так ничего и не сказали :)

Edited 2016-05-20 13:31 (UTC)

[identity profile] olaff67.livejournal.com 2016-05-20 01:29 pm (UTC)(link)
Попробовать объяснить группе людей как правильно что-то делать. Посчитать количество человек из группы, которые после этого будут действовать так, как им объяснили.

[identity profile] shultz-flory.livejournal.com 2016-05-20 01:30 pm (UTC)(link)
>> Что же во всем этом интересует меня? Ну конечно же, нарочный

как она это... поскачет сейчас, полетит

[identity profile] alex-eastcoast1.livejournal.com 2016-05-20 01:35 pm (UTC)(link)
Очень интересно. Утащил про китайскую комнату.

Именно так работает HiTech корпорация: когда то физики разработали процесс. Теперь стоит рабочий и смотрит: такая то физическая величина поплыла - делаем то. (разумеется, понимания, что он делает- ноль).

Чуть сложнее проблема - собирается толпа инженеров, обсуждают в "физических терминах", смысл которых опять же никто из них не понимает.

Я именно так им и говорю (когда представляю новый метод, а они - ну как же, все работают с этим): а какая вам разница. Для вас этот термин - иероглиф (вск великие умы думают одинаково !), ну так будете использовать другой. Вам же только нужно от нас- полезло вверх - крути черную ручку по часовой.

[identity profile] old-radist.livejournal.com 2016-05-20 01:36 pm (UTC)(link)
Интересно, какова модальность пчелиного танца? Может ли нашедшая обильную еду пчела взять, и не станцевать другим дорогу?

Я к чему. Я бы тут сказал, чисто дилетантски, "по Поршневу". Зачем называть передачу, адекватный прием и обработку информации непременно языком и пониманием? Это технический антропоморфизм. Настоящие язык и понимание начинаются только с суггестии/контрсуггестии. Существо или устройство, не обладающее способностью обмануть, переубедить и повести за собой (а не просто отработать входной сигнал) не обладает ни языком, ни пониманием.

[identity profile] krazzzer.livejournal.com 2016-05-20 01:41 pm (UTC)(link)
Интересно, а может ли язык пчел быть рудиментом? То есть когда-то другие пчелы умели понимать танец сородичей, но теперь разучились?

[identity profile] cshe.livejournal.com 2016-05-20 01:47 pm (UTC)(link)
суть не в этом.
представьте, что всё происходит, как вы описываете, но вся эта активность никак не влияет на эффективность процесса, и даже физики тут не причем, потому что процесс давно течет по каким-то своим внутренним закономерностям, но систематически эффективно. И что делать, скажем, технологу или менеджеру, - да хоть бы и физику вашему, - и при таких делах?

[identity profile] mirdin-emris.livejournal.com 2016-05-20 01:48 pm (UTC)(link)
Рассказывать тому, кто может понять, но не понимать, что рассказываешь- как- то сразу сама собой напрашивается аналогия с изучением природы. Ведь можно сказать, что она тоже "излучает" информацию.

[identity profile] svet-ka.livejournal.com 2016-05-20 01:48 pm (UTC)(link)
Вот, я тоже об этом пришла написать!

Скажем, взять за образец "средний танец" по числу инструкций. Собрать в помещении людей и зачитать им инструкцию, сходную по числу операций/компонентов/поворотов в лабиринте. И посмотреть, какой процент ее сможет выполнить правильно. :)

[identity profile] alex-eastcoast1.livejournal.com 2016-05-20 02:00 pm (UTC)(link)
Разумеется, "процесс давно течет по каким-то своим внутренним закономерностям, но систематически эффективно".

Разумеется, из за того, что я сейчас придумаю, никто миллиардный бизнес переворачивать не будет.

Физику при таких делах - просто честно делать свою работу. Когда человечеству потребуется (вариант: покупатель обнаружил дефект) - работой физика воспользуются.

[identity profile] olaff67.livejournal.com 2016-05-20 02:03 pm (UTC)(link)
Сложность инструкции можно существенно понизить при количестве членов группы от трех и более - результат будет схожим.

[identity profile] wingover.livejournal.com 2016-05-20 02:07 pm (UTC)(link)
Еще одна невыдуманная ситуация: человек с его паттернами поведения и deep-learning-овые числодробилки.

Могла бы числодробилка (если бы она могла говорить), сказать, что человек своим поведением явно подает сигналы о том, что хочет что-то купить, его язык - звонки по таким-то адресам, задержка на таких-то сайтах?

А другие числодробилки бы ее опровергали: нет, человек далеко не всегда покупает то, что от него можно ожидать...
Edited 2016-05-20 14:08 (UTC)

[identity profile] p2004r.livejournal.com 2016-05-20 02:18 pm (UTC)(link)
Самый полный ответ на "парадокс китайской комнаты" это https://en.wikipedia.org/wiki/Emergence

Вот видео-иллюстрация такой модели "китайской комнаты" https://www.youtube.com/watch?v=xP5-iIeKXE8 . Совершенно очевидно, что "подложка" системы проявляющей эмерджентные свойства может быть любой (ну или вокруг "вопроса вычислимости" нужно "ломать копья").

PS собственно вот библиография http://philpapers.org/browse/emergence/

PPS Вот --- Physical interaction among higher-level entities is illusory. :)
Edited 2016-05-20 14:26 (UTC)

[identity profile] z-kir.livejournal.com 2016-05-20 02:28 pm (UTC)(link)
Вот типа такого.

Каждый день, по телевидению, радио и в газетах людей призывают переходить улицу только на зеленый. Но люди все равно переходят на красный. Вывод. Люди не понимают своего языка.

[identity profile] redreptiloid.livejournal.com 2016-05-20 02:30 pm (UTC)(link)
с китайской комнатой забавно то, что дискутирующие вокруг нее забыли про свободу воли.
сейчас мне нравится синий, через пять минут настроение поменялось и любимый цвет стал красным.
ну а там где голый детерминизм, там и разума быть не может.

[identity profile] kostya-h.livejournal.com 2016-05-20 02:33 pm (UTC)(link)
а настроение у вас отчего поменялось?

[identity profile] redreptiloid.livejournal.com 2016-05-20 02:36 pm (UTC)(link)
а от цепочки причинно-следственных связей, тянущихся с момента Большого Взрыва, если говорить в детерминистских моделях (правда тут квантовая неопределенность таки мешает )) ) а теперь попробуем ее посчитать...

[identity profile] kostya-h.livejournal.com 2016-05-20 02:37 pm (UTC)(link)
ну так если мы не можем посчитать, сие ж не значит, что кто-то другой не может. например, кхе, бог, а последний, как мы знаем, не играет в кости.

[identity profile] p2004r.livejournal.com 2016-05-20 02:39 pm (UTC)(link)
От уровня химии (нейромедиаторы + нейромодуляторы) в ЦНС :)

[identity profile] klausnick.livejournal.com 2016-05-20 02:48 pm (UTC)(link)
+1

[identity profile] turchin.livejournal.com 2016-05-20 02:54 pm (UTC)(link)
Вчера у меня был похожий случай. Мы с группой друзей гуляли по незнакомому городу, и я долго убеждал всех, что нужно пойти прямо, направо и за астраханский кремль, где есть классное кафе и другие друзья. Услышан не был - и мы долго бродили по темным переулкам, пока не пришли в совсем другое место.

Page 1 of 10