ПРОЦЕССЫ ПЕРЕРАБОТКИ СЕМАНТИЧЕСКОЙ ИНФОРМАЦИИ
Глава 2. ВТОРОЙ ЭТАП
(1962-1967)
ПРОЦЕССЫ ПЕРЕРАБОТКИ СЕМАНТИЧЕСКОЙ ИНФОРМАЦИИ
Для того чтобы определить место первого этапа в общей картине развития и дать представление о том, что ожидалось и что было сделано на втором этапе, начнем с того, что приведем цитату из краткого обзора истории работ по "машинному интеллекту", произведенного М.Минским:
"В начале 50-х годов, когда универсальные вычислительные машины стали доступным средством научных изысканий, кибернетика распалась... на три главных направления, В исследованиях, происходивших в рамках первого из них, продолжались поиски простых фундаментальных принципов. Целью этих поисков стало отыскание того, что мы могли бы назвать "минимальными самоорганизующимися системами". Для этого подхода характерна установка на построение большого набора, как правило, однотипных элементов, который, будучи организован в некоторую структуру с очень слабыми ограничениями и погружен в соответствующую внешнюю среду, начинает вести себя "адаптивным" образом. В конечном счете можно полагать, что разумное поведение возникает на основе эволюции такого рода систем"*.
Поскольку исследователи, до сих пор придерживающиеся этого направления (его иногда называют кибернетикой) 42, не создали ничего интересного - несмотря на то, что выразитель соответствующих идей Ф.Розенблат является автором самых фантастических предсказаний и заявлений**,- здесь мы не будем касаться их работ.
* М. Minsky. Introduction.-In: M. Minsky (ed). Semantic Information Processing, Cambridge, p, 6-7.
** Например, следующее сообщение, помещенное в "Chicago Tribune" от 7 июня 1963г.: "Вчера один из сотрудников Корнелльского университета, специалист по обучающимся машинам, сообщил о разработке машины, которая может выдавать на печать текст любого воспринимаемого ею выступления на уровне секретаря-машинистки. Ожидается, что к осени (Sic! - Х.Д-) устройство будет готово. Ф. Розенблат, руководитель проводимых в Корнелльском университете разработок по моделированию познающих систем, сказал, что эта машина станет самым крупным "мыслящим" устройством, известным на сегодняшний день, Розенблат выступил с этим заявлением на одном из совещаний по обучающимся машинам, которое проходило в Технологическом институте Северо-западного университета".
чающиеся машины" и как таковые обсуждались в многочисленных книгах, журнальных статьях и объемистых "отчетах". Большая часть этих творений», лишена научной ценности" [М, Минский, С. Пейперт. Перцептроны. М., 1971, с. 10); «схемы Розенблата [1958] быстро укоренились, и в скором времени буквально сотни групп, больших и малых, стали проводить опыты с этой моделью под видом либо "обучающейся машины", либо "адаптивной", то есть "самоорганизующейся" системы, либо систем! "автоматического управления".
Результаты этих сотен проектов и опытов, как правило, разочаровывали, а объяснения не убеждали. Машины обычно хорошо еели себя на очень простых задачах, но весьма быстро сдавали позиции, как только порученные им задания становились сложнее» (там же, с. 25) .
В свете этих практических трудностей и теоретических ограничений, обрисованных Минским и Пейпертом, энтузиазм по поводу ожидающего перцептроны будущего представляет собой идеальную иллюстрацию эффекта "обманчивости первого шага"43 (см. подстрочное примечание на с. 78), Характерное выражение подобная ошибочная экстраполяция нашла в заявлении Тофлера («Future Shock)), p, 186): "Эксперименты Фрэнка Розенблата и других доказывают, что машины могут учиться на своих ошибках, улучшать свои результаты, а в случае некоторых ограниченных типов процесса обучения они в состоянии превзойти человека". Тофлер ничего не говорит о том, насколько серьезны эти ограничения.
* M.Minsky. Introduction.-In: M. Minsky (ed.) Semantic Information Processing, p. 7,
** Ibid,, p. 8.
*** M.Minsky. Descriptive Languages and Problem Solving.-In: M.Minsky (ed.). Semantic Information Processing, p. 419.
80
ботку самоорганизующихся систем малообещающим или, лучше сказать, преждевременным делом. Даже если принять в качестве основной цели простоту изначальной организации, не исключено, что потребуется накопление предварительного опыта с действующими "разумными системами" (принцип действия которых, если нет другого выхода, может быть основан на приемах ad hoc ), прежде чем в конце концов удастся построить более экономичные модели"*.
Перейдем к рассмотрению этого третьего и сравнительно недавнего направления и попытаемся на основе результатов, опубликованных в книге М. Минского "Процессы переработки семантической информации", разобраться, что же в действительности было сделано. Сам Минский однажды предложил для оценки программ, представленных в его книге, пользоваться следующими пятью вопросами:
1.Почему были выбраны именно данные конкретные задачи?
2.Как работают данные программы?
3.Каковы пределы возможностей программ?
4.Что реально они делают?
5.Как может быть расширена область их применения?
Если в соответствии с этими вопросами мы проанализируем программы, которые Минский считает лучшими из всех написанных с 1962 г., мы увидим, что в отличие от работ, выполненных до 1961 г, (когда впечатление "разумности" создавалось в основном за счет моделирования простых механических аспектов разумного поведения), для предлагаемого подхода характерно следующее: с помощью специальных приемов, подбираемых ad hoc, решаются искусно подобранные задачи, создающие иллюзию сложной интеллектуальной деятельности. Однако проблемы, бывшие камнем преткновения на первом этапе, так и остаются нерешенными. Кроме того, мы еще раз убедимся в том, что лишь не допускающая никаких сомнений изначальная уверенность таких исследователей, как Минский, дает им возможность считать существующую ситуацию обнадеживающей.
Рассмотрим эти программы более подробно.
I. Анализ программ переработки семантической информации
Программа, "понимающая английский язык" - программа STUDENT, составленная Д. Бобровым.
STUDENT- это программа для решения алгебраических задач на составление уравнений. Она рассматривается в качестве лучшей из всех пяти программ переработки семантической информации, представленных в книге М. Минского. Программа Д. Боброва,
* М. Мinsky. Introduction.-in: M. Minsкy (ed.). Semantic Information Processing, p, 8.
81
говорит Минский -"блестящая демонстрация возможностей использования смысла при решении лингвистических задач"*. И действительно. Минский посвящает этой программе значительную часть своей статьи в журнале "Scientific American", где считает возможным утверждать даже, будто эта программа позволяет машине "понимать английский язык"**.
Поскольку эту программу на сегодняшний день считают наилучшей, начнем с детального ее анализа в соответствии с предложенными М. Минским пятью вопросами.
Почему были выбраны именно данные конкретные задачи?
Саги Д. Бобров говорит:
"При построении системы, отвечающей на вопросы, многие задачи значительно упрощаются, если ограничивать их контексты"***.
Более того:
"Существует несколько причин, в связи с которыми именно алгебраические задачи на составление уравнений были выбраны в качестве материала для развития методов, позволяющих машинной системе для решения задач воспринимать информацию, выраженную на естественном языке. Во-первых, уже существует хорошая структура данных, дающая возможность заносить в память машины сведения, необходимые для ответа на вопросы, которые относятся к контексту алгебраических задач, а именно алгебраические уравнения"****.
Существенно, что выбор данной задачи связан с тем, что ограниченность контекста облегчает ее решение. Вся важность этого ограничения станет очевидна только после рассмотрения следующих двух вопросов.
Как работает данная программа?
Программам попросту разбивает предложения, фигурирующие в тексте задачи, на отдельные блоки, пользуясь для этого такими ориентирами, как слова "больше чем", "равно", "во столько-то раз" и т. д.; затем, используя переменные х и у, она приравнивает друг к другу полученные куски предложений и пытается добиться одновременного выполнения получившегося равенства. Если полученные уравнения решить не удается, программа переходит к другим правилам разбиения данных предложений и предпринимает новую попытку решения. Вся эта схема может работать только потому, что выполняется некоторое ограничение (отсутствующее в задачах на понимание обычной разговорной речи), благодаря которому тот или иной способ замены кусков предложений переменными приводит к уравнениям, имеющим решение. По выражению Минского, "некоторая возможность синтакси-
* Ibid, р.5.
** См.: М. Минский, Искусственный разум. В кн.: Информация М., 1968, с. 210.
*** D. Вobrow. Natural Language Input for a Computer Problem Solving Sistem.ln: M.Minsky (ed). Semantic Information Processing p. 135
**** Ibid,, p. 137.
82
ческой неоднозначности на входе устраняется, исходя из общего принципа алгебраической непротиворечивости"*.
Существует также еще одна особенность задач на составление уравнений, благодаря которой выбор пал именно на них.
"В естественном языке неоднозначность возникает не только в связи с тем, что слова в предложении могут быть по-разному структурированы за счет разбиения на группы различными способами, но также в связи с тем, что каждому отдельному слову можно приписать разные значении, В программе STUDENT положение более или менее облегчается тем, что выполняется такое сильное семантическое ограничение, при котором рассматриваемые предложения выражают алгебраические соотношения между обозначаемыми сущностями"**.
Каковы возможности этой программы?
Использование алгебраического контекста, с одной стороны, несет с собой определенные преимущества; с другой же стороны, однако, оно существенно ограничивает область применения программы. Подобное "сильное ограничение" исключает из рассмотрения как раз тот аспект естественного языка (а именно его неоднозначность), который усложняет задачу машинной обработки естественного языка и, быть может, делает ее вообще неразрешимой. Подобные программы настолько далеки от семантического понимания как такового, что, как признает сам Бобров, "фраза the number of times I went to the movies, которая должна была бы интерпретироваться как последовательность, имеющая характер переменной, будет неправильно истолкована программой как результат применения оператора к двум переменным- number of и I went to the movies,- поскольку times всегда рассматривается как знак операции"***.
Что же, собственно, было достигнуто?
Д. Бобров довольно осторожен. Хотя его работа несколько опрометчиво озаглавлена "Программа решения задач на ЭВМ с вводом исходных данных на естественном языке", он с самого начала недвусмысленно говорит, что его программа способна "воспринимать достаточное, но ограниченное подмножество выражений английского языка"****. Затем он добавляет:
"В дальнейшем изложении я буду пользоваться фразами типа "программа понимает английский". Во всех подобных случаях под "английским" понимается ограниченное подмножество выражений английского языка, допустимое на входе обсуждаемой программы для вычислительной машины"*****
* М. Мinsky. Introduction.-In: M. Minsкy (ed). Semantic Information Processing, p. 18.
** Ibid., p. 20.
*** D. Воbrow. Op. cit., p. 1B345.
**** D. Bоbrоw. Natural Language Input for a Computer Problem Solving Program, MACTR-1, V.Y.T.,abstract of thesis, p. 3 (курсив мой.-Х-Д.).
***** D. Bobrow. Natural Language Input for a Computer Problem Solving System,-In: M. Minsky (edj. Semantic Information Processing, p. 135,
83
Достаточно прямолинейное заявление. Автор программы претендует только на то, что оправдано ограниченным выбором материала. Он подчеркивает, что "программа STUDENT воспринимает слова как символы и ограничивается лишь тем минимумом знания слов, который необходим для решения данной конкретной задачи"*.
Другими словами, эта программа воплощает в себе некий минимум семантического понимания, Бобров горд тем, что достиг столь многого при минимальных затратах. "В основу семантической модели системы STUDENT положено одно отношение (равенство) и пять основных арифметических функций**.
В равной степени осторожность Боброва проявляется в подчеркивании специфичности значения глагола "понимать".
Для целей данной работы я воспользовался следующим операциональным определением термина "понимание". Вычислительная машина понимает предложение из определенного подмножества предложений английского языка, если она воспринимает это предложение и отвечает на вопросы, касающиеся информации, в нем содержащейся. В этом смысле система STUDENT понимает английский язык"***.
В заключение Бобров осторожно пишет: "Я полагаю, что нам далеко еще до написания программы, которая могла бы понимать весь английский язык или хотя бы его достаточно большую часть. Однако в своей узкой специальной области программа STUDENT доказала, что "понимающие" машины могут быть построены"****.
Тем не менее в своей статье в журнале "Scientific American" М. Минский говорит, что "STUDENT -- понимает английский язык". Что же произошло?
Дело в том, что Бобров ставит слово "понимает" в кавычки. Следует все время помнить, что "понимает" для него значит просто "отвечает на вопросы, относящиеся к некоторой части английского языка, ограниченной контекстом задач на составление алгебраических уравнений". При этом он предпочитает говорить "понимает", а не "перерабатывает информацию"- Однако невольно возникает ощущение, что его программа имеет какое-то отношение к человеческому пониманию. Этим и воспользовался Минский: в своей риторической статье он просто опустил кавычки.
Еще более удивительны и чреваты ошибочными выводами
* D.Bobrow. Natural Language Input for a Computer Problem Solving System.- In: M. Minsky (ed.). Semantic Information Processing, p. 144.
** Ibid. p. 191.
*** Ibid,, p. 135, В том смысле, в каком Бобров употребляет слова "понимает" и "английский язык", даже машина, которая, будучи снабжена фразой "You are on" ("Вы включены"), только и может что ответить "Yes" на вопрос "Are you on?", уже "понимает английский язык
**** Ibid. 194.
84
заявления М.Минского, касающиеся «огромного потенциала обучения» программы Д. Боброва:
"Обратите внимание на то, как качественно меняется вся работа программы Боброва STUDENT после того, как ей скажут, что "расстояние равняется скорости, умноженной на время"! Уже этот единичный акт расширения ее опыта дает ей возможность решать новый род задач школьной алгебры, а именно физические задачи, в которых фигурируют расстояние, скорость и время. Не следует думать, что кривая научения всегда должна медленно ползти вверх на фоне тошнотворно частых повторений. Очень важно отвыкнуть от взгляда, что обучение есть только там, где имеет место этот процесс.
В программе Боброва нет никаких специально предусмотренных статистических механизмов, так что ей не нужно повторять что-то снова и снова; ее обучение настолько блестяще, что его и не назовешь обучением"*.
Однако в этом случае нетрудно показать, что процесс, который происходит в машине, никак нельзя назвать "пониманием". В машину действительно было введено еще одно уравнение, но машина не понимает, что это формула; иначе говоря, программа может, конечно, подставить в уравнение d- r-t одно значение расстояния, одно значение скорости и одно значение времени, но она ничего не понимает, так как не может использовать это уравнение дважды в одной и той же задаче, поскольку неспособна решать вопрос о том, какие величины связывают друг с другом те или иные уравнения. Как признает Бобров, "в задаче одна и та же переменная должна быть представлена одной и той же фразой"**. Итак, обучения не произошло.
Отбросив кавычки в слове "понимает", а в слове "обучение" сделав их символом сверхчеловеческого обучения. Минский переходит в область умозрительных рассуждений:
" Чтобы машины могли хотя бы улучшить свою работу, существенно необходимо иметь в машине элементарное понимание собственного процесса решения задач и некоторую способность распознавать улучшение, когда оно найдено. Я не вижу веских причин, почему это невозможно для машины. Если заложить в машину модель ее собственной работы, она наряду с решением других задач могла бы работать и над задачей самосовершенствования..,
После того как мы создадим программы, наделяющие машины подлинной способностью к самоулучшению, начнется быстро развивающийся процесс в этой области. Поскольку машина улучшает и самое себя и собственную модель, мы сумеем увидеть все те явления, которые мы связываем с такими понятиями, как "сознание", "интуиция" и даже "разум". Трудно сказать, насколько близко мы подошли к этому порогу, но когда-нибудь мир переступит через этот порог и ему уже невозможно будет остаться прежним"***
* М. Мinsky. Introduction.-In: М. Мinsky (ed). Semantic Information Processing, p, 14.
** D.Bobrow. Op. cit.-In: M.Minsky (ed.). Semantic Information Processing, p. 192.
*** M. Mинский. Искусственный разум. - В кн.: Информация,с. 214-215.
85
Однако не так уж трудно, вопреки мнению М. Минского, сказать, насколько близки мы к этому порогу. Поскольку считается, что в программе Д. Боброва реализованы те зачатки понимания и обучения, на которые рассчитывает Минский, нам остается только поставить вопрос: до какой степени могут быть обобщены и расширены методы, использованные Бобровым?
Это приводит нас к последнему вопросу; каким образом можно распространить рассматриваемую программу на более широкие области применения?
Здесь уже и Д. Бобров отбрасывает всякую осторожность: вопреки своему прежнему замечанию о том, что семантическая модель построена на единственном отношении (равенстве) и, следовательно, может составлять и решать уравнения только в тех случаях, когда удается использовать некоторое алгебраическое условие, он заявляет, что его "семантическая теория словесного общения может послужить основой для значительно более общей системы переработки языковых соотношений"*. Автореферат своей диссертации Бобров заключает уже знакомой нам вариацией на тему "первого шага". "Система STUDENT- это первый шаг к общению с вычислительной машиной на естественном языке. Дальнейшая работа над этой семантической теорией должна привести к гораздо более тонким и богатым системам"**.
Со времени этого заявления прошло пять лет, однако никакой более богатой возможностями семантической теории не появилось46.Трудно понять, почему Д.Бобров и М.Минский, отдавая себе отчет о всех специфических ограничениях, соблюдение которых необходимо для нормальной работы данной программы, считают тем не менее, что такое обобщение наверняка возможно. Я полагаю, что ни оправдать, ни хотя бы объяснить их оптимизм по отношению именно к этому, по общему признанию весьма ограниченному, подходу ad hoc нельзя ничем. Что же касается их "глобального" оптимизма в отношении того, что некоторый машинный подход в данной области обязательно будет реализован, то его истоки можно проследить вплоть до фундаментальной метафизической предпосылки, касающейся природы языка и разумного поведения человека, согласно которой любое упорядоченное поведение человека может быть в принципе формализовано и представлено в виде программы для цифровой вычислительной машины (см, гл. 5). Этим и объясняется уверенность М.Минского и Д.Боброва, позволяющая им расценивать все трудности, возникающие на их пути, как технологические затруд-
* D.Bobrow. Op.cit.-In: М.Мinsky. (ed.). Semantic Information Processmg, p. 194.
** D.Bobrow. Natural Language Input for a Computer Solving Program. Abstract of thesis, p, 3.
86
нения, связанные, в частности, с ограниченной емкостью запоминающих устройств современных ЭВМ*.
Не будь этой предпосылки, частичный успех работы Д.Боброва, которую М.Минский объявил наиболее многообещающей из существующих, был бы воспринят как искусный трюк, ничего не говорящий ни за, ни против возможности существования машинного понимания. Тот факт, что эта работа - лучшее, что сумел создать столь незаурядный человек, как Д.Бобров, пробудил бы сомнения в возможности достижения рубежа, за которым начинаются самосовершенствующиеся машины.
Программа определения аналогий, разработанная Т. Эвансом
Вся "коллекция" аргументов М. Минского сделана по одному шаблону: о решении с помощью приема ad hoc некоторой ограниченной задачи сначала сообщается с некоторой осторожностью, а затем это решение трактуется как первый шаг к развитию более общих методов. Но все работы, представленные в сборнике М. Минского, были закончены к 1964 г., и, хотя с той поры прошло еще семь лет, ни одно из прокламированных обобщений так и не было осуществлено.
Рассмотрим, к примеру, программу определения аналогий Т.Эвзнса - сложную, умело написанную программу для решения задач на обнаружение сходства типа тех, которые используются в тестировании интеллекта (рис.). Программа решает крайне специфическую задачу, и решает ее на уровне среднего десятиклассника, что, учитывая современный уровень таких программ, является выдающимся достижением. Что еще более существенно, Эванс отдает себе отчет в том, что эта удачная сама по себе работа мало что дает: ее можно признать успешной только в том случае, если методы, использованные в ней, допускают какое-то обобщение. Но в отличие от Д. Боброва он не удовлетворяется утверждением, что такое обобщение возможно- В заключении к своей работе он пытается набросать в общих чертах такое обобщение и описать те преимущества, которые при этом получат программы для решения задач (типа GPS) и распознавания образов:
* В статье, помещенной в журнале "Scientific American", М. Минский ставит вопрос: "Почему машины не более разумны, чем это есть на самом деле?" - и отвечает: "До настоящего времени были весьма ограничены ресурсы в людях, времени и сами возможности вычислительных машин. Некоторые наиболее тщательно продуманные и серьезные попытки разработки разумных машин уже приближаются к поставленным частным целям...; другие исследован ив были ограничены возможностями оперативной памяти вычислительной машины; третьи столкнулись с трудностями программирования" (М. Минский, Искусственный разум, - В кн.: Информация, с. 213-214) .
87
«На последних страницах этой главы мы опишем процесс "распознавания образов", главные идеи которого основываются на описанном выше понятии аналогии. Предлагаемый подход претендует на некоторые преимущества, глазным образом за счет того, что вводятся более мощные и более общие схемы описаний для рассматриваемых "объектов"».
"GPS трактует составные части некоторого данного объекта с помощью организации его в терминах целей и подцелей. Тем самым GPS уходит от рассмотрения сложных структур на каждом конкретном уровне путем разложения их на более мелкие структуры, связанные с подцелями. Таким образом, GPS никогда не воспринимает отдельную сложную структуру как таковую; когда какая-либо подструктура рассматривается на более глубоком уровне подцелей, она находится "вне контекста" в том смысле, что отсутствует необходимая информация о том, что даст достижение этой подцели для продвижения к цели более высокого уровня. Ньюэлл обсуждает одну из таких "бесконтекстных" задач и делает несколько довольно безуспешных попыток ее решения. Описанный нами в общих чертах механизм представляет собой систему распознавания образов, которая в состоянии воспринимать "глобальный" аспект задачи и в то же время имеет доступ ко всей ее структуре. "Глобальное" управление такого рода может оказаться полезным для GPS, давая возможность экономить время (поскольку при существующем варианте программы много времени тратится на выдвижение и достижение подцелей, не ведущих к целям самого высокого или близкого к нему уровня) . Уже одно это будет большим шагом вперед"**.
Т.Эванс выдвигает также некоторые предложения, касающиеся обучения:
* Th. Evans. A Program for the Solution of a Class of Geometnc-Analocy Intelligence Test Question.- In: M.M i n s k у (ed.). Semantic Information Processing, p.346-347.
** Ibid., p. 349.
88
"Разумеется, изучение этих проблем в относительно хорошо разработанной области языков со структурой непосредственных составляющих^ представляет собой естественный шаг вперед по направлению к созданию настоящего машинного "обучения обобщению"; кроме того, решение этих задач откроет путь к исследованию проблемы моделирования обучения в случае более сложно описываемых языков. Поскольку правила преобразования могут быть сами выражены в терминах структуры непосредственных составляющих, одна из интересных возможностей состоит в том, чтобы применить совокупный аппарат "структура непосредственных составляющих плюс GPS" для улучшения собственного набора правил преобразования"*.
Т.Эванс понимает, что "это, по-видимому, крайне трудная задача"**. Скорее всего, так оно и оказалось, поскольку с момента завершения в 1963 г. его работы над этим проектом о нем больше не было опубликовано ни слова. Как мы видели, Ньюэлл также забросил свою GPS, а распознающие программы, по словам М.Идена, в 1968 г. основывались по-прежнему на приемах ad hoc. Отсюда вновь следует знакомый вопрос: почему М.Минский и Т.Эванс так уверены, что метод ad hoc, приведший к решению этой специфической и довольно сложной задачи отыскания аналогий, может быть обобщен? Некоторый намек на причины этой уверенности можно найти в довольно неожиданном сравнении, которое проводит Минский между программой Эванса и человеческим способом решения задач, основанном на аналогии. Вопреки своим обычным заверениям о том, что ИИ не имеет отношения к моделированию познания, Минский дает следующее "менталистское" описание работы программы Эванса:
"Для изложения сущности этой работы лучше всего описать данную программу в менталистских терминах. Если задан некоторый набор фигур, то программа строит набор гипотез или теорий следующим образом:
1. Основываясь на описаниях D(A) и D(B) фигур А и В (см.рис.2, - Х-ДЛ, можно выбрать много путей преобразования D(A) в D(B); выбери ОДИН ИЗ НИХ,
2. Существует также много путей установления соответствия между частями фигуры А и частями фигуры С; каждое такое соответствие может стать основой некоторого отношения того типа, о котором шла речь в п.1, но на сей раз связывающего фигуру С с какими-то другими фигурами,
3. Маловероятно, что какое-нибудь из отношений, найденных в п.2, окажется полностью применимым к какой-нибудь фигуре-ответу. (Если оно окажется таковым, то соответствующая фигура и есть результат работы программы.) Для каждой фигуры-ответа каждое отношение должно быть "ослаблено" (то есть обобщено) ровно настолько, насколько это нужно для того, чтобы оно оказалось применимо к данной фигуре.
4. И наконец, программа учитывает степень ослабления каждого отношения. Она выбирает то из отношений, которое требует наименьшего изменения и выдает в качестве результата соответствующую фигуру из множества фигур-ответов.
Выбирая гипотезу, связанную с минимальным "ослаблением" исходного преобразования А ~^ В, программа тем самым отдает предпочтение
* Ibid., p. 350.
** Ibid.
89
тому объяснению, в котором заключено больше информации, общей для отношений А~> В и С^* D. Подробности правил выбора на этапах 1, 2, 3, 4 и составляют, в сущности, предложенную Эвансом теорию человеческого поведения в подобных ситуациях, Я совершенно убежден в том, что любое рассуждение по аналогии включает в себя нечто, имеющее именно такой общий характер"*.
В статье, опубликованной в журнале "Scientific American", М.Минский сформулировал это "нечто" более четко: "Я убежден, что все виды рассуждения по методу аналогии повинуются этим правилам"**. Это та же самая предпосылка, которая, как мы видели, лежит в основе работ Ньюэлла и Саймона в области моделирования процессов познания. При описании процедуры решения задачи Т.Эванс фактически повторяет Ньюэлла:
"Эти программы, в сущности, похожи. Их работа - процесс не простой, так что мы можем сказать, что обе программы действительно решают задачу, а не просто осуществляют шаг за шагом те процедуры поиска решения, которые придумал программист. Они имеют дело с формализованными задачами, хотя и трудными, но с "хорошей структурой". Программы строятся на единой системе понятий: они находят комбинаторную интерпретацию задачи, сводя ее к поиску правильной последовательности операций среди множества всех возможных последовательностей. Все программы порождают то или иное дерево возможностей и шаг за шагом исследуют все допустимые последовательности. Множество всех последовательностей слишком необъятно, его нельзя построить и просмотреть in toto, поэтому для сокращении числа возможностей до разумных пределов, поддающихся машинной обработке, используются различные ухищрения, называемые эвристиками".
В заключение Т.Эванс пишет:
"Программа геометрических аналогий также подпадает под это описание. Говоря очень кратко, при рассмотрении задач такого типа программа использует различные эвристики для выбора (за разумный срок) "адекватного" правила из очень широкого класса допустимых
Можно с уверенностью сказать, что если бы человек решал задачи поиска аналогий именно таким образом, то были бы все основании надеяться на улучшение и обобщение программы Эванса, поскольку человек, разумеется, далеко превосходит уровень, демонстрируемый существующими программами. Однако, как и в случае GPS, ничто не говорит в пользу того, что человек действует именно таким образом, а данные эмпирической психологии свидетельствуют как раз об обратном.
Р.Арнхейм, профессор психологии Гарвардского университета, анализируя работу Эванса, указал на иной подход, которым пользуется человек, решая задачи такого рода. Слова Арнхейма стоят того, чтобы привести их полностью:
* М.Мinsky - Introduction.-In: M.Minsky (ed). Semantic Information Processing, p.16 (курсив мой.-X.Д.)
** М.Минский. Искусственный разум. - В кн.: Информация, с. 206.
*** Th.Evans. Op.cit.-In: M. Minsky (ed.) Semantic Information Processing, p. 280
90
“Что происходит, когда человек сталкивается с фигурой, подобной той, которая изображена на рис. [2]? Реакция будет несколько меняться от человека к человеку, поскольку нет никакого конкретного контекста, способствующего концентрации внимания на тех или иных специфических структурных признаках. Однако в общем и целом испытуемый, вероятнее всего, заметит своего рода вертикальную организацию, состоящую из двух частей, верхняя из которых сложнее и больше по величине, чем нижняя48
он может заметить также различия в контурах. Другими словами, он воспримет качественные характеристики конфигурации, относительные величины и очертания, в то время как большинство метрических свойств, с учета которых должно начинаться восприятие образа вычислительной машиной, а именно абсолютные размеры и те или иные длины и расстояния, характеризующие данную конкретную фигуру, он вряд ли заметит. Если попросить испытуемых нарисовать фигуру, которую они воспринимают, то выяснится, что они обращают внимание на топологические особенности и пренебрегают точными размерами.
Если теперь испытуемый столкнется с сочетанием фигур Аи В, опыт его резко расширится и обогатится. Сначала у него появится смутное ощущение сходства между совершенно различными как будто изображениями. Конструкция, состоящая из двух данных фигур, в целом может показаться несоединимой, иррациональной, непостижимой. Налицо две вертикальные организации, сочетающиеся в своего рода симметрии, которая разрушается отношениями по диагонали между двумя большими "заполненными" кругами и двумя маленькими "незаполненными" фигурками. Многообразие структурных характеристик никак не складывается в единое, устойчивое и доступное пониманию целое. Не исключено, однако, что испытуемый внезапно уловит, что четыре меньших фигуры - два равных кружка вверху и два равных квадрата внизу - составляют вместе простую прямоугольную структуру. Как только эта структура станет доминирующим мотивом или организующей основой целого, остальные фигурки-два больших круга - добавятся к основному образу в качестве второстепенных "диагональных украшений". Иерархия структур установлена. Теперь конструкция из двух фигур устойчива, обозрима, доступна пониманию и потому готова к сравнению с другими фигурами. Первый акт поиска решения задачи произошел.
Когда после этого человек обратится к фигуре С, то новое в ней для него с самого начала будет определяться опытом, накопленным при рассмотрении фигур А и 6. Будучи сравниваема с фигурой А, фигура С обнаруживает аналогичную вертикальную структуру, отличающуюся от структуры А по существу второстепенным различием контуров фигурок. «Фамильное» сходство обеих фигур достаточно велико, и отношения между ними устанавливаются просто. Если же теперь С сопоставить с D-], то их сходство кажется избыточным, симметрия слишком совершенной. Сравнение с D2, напротив, дает слишком малое сходство. Если отношение между А и В было установлено правильно, то D3 сразу распознается как подходящая к С пара - недостающий четвертый элемент аналогии.
Этот пример из области перцептивного решения задач включает все характеристики подлинного мышления: проблемную ситуацию, продуктивный поиск, надежды и догадки, частичные решения, неприятное ощущение противоречия, внезапное озарение, ведущее к окончательному решению, адекватность которого очевидна, структурные преобразования, возникающие под давлением изменения ситуации в целом, обнаружение элементов сходства между различными образами. Все это, вместе взятое, представляет собой в небольшом масштабе живой опыт, достойный существа, которому дарован разум. Когда решение наконец найдено, мы ощущаем спад напряжения, удовлетворение, покой.
В вычислительной машине все происходит иначе, и не потому, что она не обладает сознанием, а потому, что принцип ее действия в корне иной. Мы
91
поражаемся, когда узнаем, что для того, чтобы научить машину решить задачу по аналогии, экспериментатору "пришлось разработать, пожалуй, одну из самых сложных из всех когда-либо написанных программ". Дли нас эта задача не сложна - она доступна начинающим студентам. Причина такого различия в том, что подобные процессы требуют рассмотрения топологических отношений, а это влечет за собой отбрасывание отношений чисто метрических. Мозг приводится в движение именно такими "топографическими" признаками, так как они дают нам информацию о типовых характеристиках вещей, а не об их конкретных количественных характеристиках"*
Как и в шахматах, глобальное перцептивное разбиение на группы обязательно предшествует управляемому правилами перебору - единственному виду деятельности, доступному машине. Как пишет Р.Арнхейм, "топология была открыта перцептивной мощью мозга и рассчитана на перцептивные, а не арифметические его возможности"**.
По-видимому, Минский и Эванс полагают, что человек находит аналогии с помощью правил преобразования, поскольку прогресс в развитии ИИ возможен только в предположении, что человек решает задачи именно таким образом. Но это рассуждение заведомо порочно, поскольку нельзя основывать свой оптимизм на гипотезе, которая в свою очередь подтверждается только тем фактом, что, окажись она верной, оптимизм ее сторонников был бы оправдан.
Программа организации семантической памяти, составленная Р. Кеиллианом
Последняя из рассматриваемых нами программ самая интересная, так как она наиболее обща и наименее претенциозна - по крайней мере ее автор (он работает под руководством Г.Саймона, а не М. Минского) не делает никаких огульных заявлений и обещаний***. Это программа подтверждает общее правило оценки качества эвристических программ (вспомним сдержанность А. Сэмюзля, когда он говорит о своей программе, и ее результативность, с одной стороны, и претенциозность Г. Саймона и X. Гелернтера при очень скромных успехах - с другой), которое заключается в следующем: значимость программы часто находится в обратной зависимости от обещаний и рекламных заявлений ее авторов.
* F.Arnheim. Intelligence Simulated. -"Midway", University of Chicago, June 1967, p.85-87.
** Ibid
*** В отличие от М. Минского Г. Саймон, по-видимому, не требует от своих учеников публичного обета верности, хотя сам принадлежит к числу "верующих".
92
Р.Квиллиан, как и Д.Бобров, занимается моделированием явления понимания естественного языка, но в отличие от Боброва и Минского он отдает себе отчет в том, что к этой задаче нет смысла подходить с позиции поиска решения с помощью приемов ad hoc.
"Прежде всего, мы полагаем, что авторы теорий переработки информации или машинных моделей, если они хотят добиться успеха, не должны игнорировать семантику или устранять ее, как это до сих пор имеет место в большинстве программ по переработке информации, заданной на естественном языке. Неважно, что именно по замыслу автора должна делать программа - производить грамматический анализ предложения, переводить с одного языка на другой или отвечать на вопросы, задаваемые на естественном языке,- если в ней не учитываются семантические характеристики, причем изначально и достаточно часто, то, я думаю, у нее нет шансов достичь уровня человека"*.
Предприняв обзор всех имеющихся в этой области работ, включая работу Д. Боброва,?. Квиллиан пишет:
"Программы, подобные программе Боброва, в состоянии составлять уравнения, соответствующие некоторым текстовым алгебраическим задачам, с помощью почти полностью "синтаксической" процедуры. ...Однако если попытаться расширить ту часть языка, которая доступна такой программе, то неизбежно придется вводить в нее все большее число семантических фактов"**.
В заключение Р.Квиллиан говорит:
"...вопрос о том, что должно храниться в общей долговременной памяти, подобной памяти человека, как должна записываться в ней информация, как память должна быть организована, в предшествующих моделирующих программах не был рассмотрен во всей его общности... Дальнейшее развитие моделирования решения задач, моделирования игр, а также речевого поведения, несомненно, потребует создания программ, организующих большие массивы памяти и взаимодействующих с ними"***.
Затем Квиллиан переходит к описанию своей сложной эвристической программы, обеспечивающей занесение в память и извлечение из нее значений слов и "всего того, что можно выразить в языке, почувствовать в восприятии или каким-либо иным путем постигнуть и запомнить"****, - программы, организующей содержание памяти в виде одной "огромной, взаимосвязанной сети"*****- По предположению Квиллиана, в этой программе воплощена "разумная точка зрения на то, как организована
* R.Quillian. Semantic Memory.- In: М.Мinsky (ed.). Semantic Information Processing, p,251.
** R. Quillian. Semantic Memory. Bolt, Beranek and Newman, Inc., Paper AFCRL-66-189, 1966, October, p. 54. (В сжатом варианте диссертации, приводимом в книге под редакцией М. Минского, этого нет.)
*** R. Quillian. Op. cit.-In: M. Minsky (ed.). Semantic Information Processing, p.219-220.
**** Ibid., p,221. *****lbid.,p.222.
93
семантическая информация в мозгу человека"*. Однако никаких доводов в пользу разумности этой точки зрения он не приводит, за исключением разве что того соображения, что если бы необходимость хранения семантической информации возникла перед вычислительной машиной, то предлагаемая программа оказалась бы для этого разумной моделью. В действительности человек не осознает того, как он проводит сложные процессы занесения в память и извлечения из нее, о которых говорит Р. Квиллиан, Однако последнего это мало волнует; он, как и его учитель Саймон, всегда может сказать, что эти процессы все же происходят, подсознательно,
"Хотя процесс кодирования текста, разумеется, не совпадает с тем скрытым от нас процессом, который приводит к пониманию текстового материала при обычном чтении, все же он... в каком-то смысле является его замедленной и доступной для обозрении версией**.
Тот факт, что подобная подсознательная переработка информации действительно имеет место и, более того, происходит в соответствии с эвристическими правилами, отнюдь не очевиден. Мы уже видели, что и в игре в шахматы, и при отыскании аналогий решающее значение имеет разбиение объектов на группы, основанное на целостном восприятии; очень может быть, что и в данном случае это так. Но создается впечатление, что Р. Квиллиан усвоил от Ньюэлла и Саймона безоговорочно принимаемое ими допущение, что человек действует по эвристическим программам.
"Эвристические методы, с помощью которых выбирается единственное конкретное осмысление текста, составляют центральную проблему для всякого, кто хочет объяснить "понимание"; точно так же эвристические методы, с помощью которых выбирается единственный конкретный ход из всех возможных ходов, составляют центральную проблему для всякого, кто хочет объяснить процесс игры в шахматы"***.
Приняв такое допущение, Квиллиан с неизбежностью должен предположить, что идеал программы должен состоять в том, чтобы задавать функционирование системы в направлении "от частей к целому",
"Выбирая задачу, в рамках которой можно было бы работать с моделью памяти, естественно начать со способности к пониманию незнакомых предложений- По-видимому, разумно предположить, что у человека нет другого пути понимания новых предложений, кроме извлечения из памяти хранящейся в ней информации о значениях отдельных слов и словосочетаний (и, возможно, небольшого изменения э~их значений) с последующим комбинированием значений в целях формирования смысла предложения. В
* Ibid., р. 216. **Ibid., р. 247.
*** R. Quillian. Semantic Memory, Bolt, Beranek and Newman, Inc., Paper AFCRb66-189, p. 113.
94
соответствии с этим в нашу задачу входит построение модели хранения семантических сведений и формулирование правил комбинирования, по которым из хранящихся в памяти смыслов слов происходит построение значений предложений"*.
Квиллиан также ждет от своей системы многого:
"Далее, вполне правдоподобно, что если бы удалось адекватно закодировать и вложить в память ЭВМ хотя бы несколько значений слое, а затем формализовать на уровне машинной программы работоспособный набор правил их комбинирования, то можно было бы слово за словом наращивать запас закодированных значений наподобие шнуровки на ботинках; тогда вычислительная машина сама бы "понимала" предложения, которые ею построены, и использовала их для формулировки определений других слов. А это значит, что если новое, еще не закодированное слово может быть определено с помощью предложения, в которое входят только слова с уже закодированными значениями, то машина в состоянии построить объект, представляющий смысл этого предложения, исходя из уже имеющихся у нее сведений и правил комбинирования;объект этот - представитель смысла - и будет тем соответствующим предложению кодом, который следует добавить к содержимому в памяти в качестве значения нового слова"**.
С откровенностью, столь редкой в публикациях на данную тему, Р. Квиллиан сообщает также и о своих разочарованиях;
"К сожалению, два года работы над данной проблемой показали, что для нынешнего уровня знаний эта задача слишком трудна. Процессы, происходящие в мозгу человека, когда он "понимает" предложение и включает его смысл в свою память, очень сложны, и происходят они практически без участия сознания"***.
Масштабы задачи, стоящей перед Р.Квиллианом, станут яснее, если мы заметим, что
" определение восьмисот пятидесяти слое вмещает в себя больше информации, чем в состоянии вместить магнитные запоминающие устройства современных вычислительных машин"****.
Эти трудности наводят на мысль, что, быть может, ошибка кроется в самой модели, то есть в идее о том, что наше понимание естественного языка включает в себя построение структурированного целого из огромного числа точно описанных частей. Работа Р. Квиллиана скорее ставит, чем решает вопрос о запоминании этого колоссального множества фактов, - вопрос, возникающий в связи с тем, что в проводимом анализе отсутствуют перцептивные гештальты. Если структура данных по мере добавления новых определений будет расти слишком быстро, то и без того не слишком обнадеживающую работу Квиллиана можно считать reductio ad absurdum всего машинно-ориентированного
* R.Quillian. Semantic Memory.- In: M.Minsky (ed.). Semantic Information Processing, p,235. Ibid, p.235.
95
подхода. Прежде чем решить, дает ли работа Квиллиана основание для оптимизма, любопытно получить ответ на коренной вопрос: как с увеличением числа элементов растет база данных у Квиллиана - линейно или экспоненциально?
По поводу этого основного вопроса, как это ни удивительно, можно встретить массу обнадеживающих заверений, но мало информации. Программа Квиллиана имеет дело только с 50 - 60 словами. М. Минский в сборнике, вышедшем в 1968 г., то есть спустя три года после завершения этой программы, вынужден признать, что «пока мы еще мало знаем о том, насколько эффективными станут методы Квиллиана при использовании более содержательных "банков знаний"»*. И опять о дальнейшем развитии сообщений не имеется.
II. Значение сегодняшних трудностей
Каковы разумные перспективы? По оценке М. Минского, в настоящее время программа Квиллиана содержит несколько сотен фактов, в то время как "для мощного интеллекта потребуется миллион фактов"**. Он также признает, что каждая из "рассмотренных (в его книге,- ХД) программ лучше всего будет работать при условии обеспечения ее только необходимыми фактами, ибо по мере роста массивов информации программы безнадежно увязают в массе фактов"***.
Если так, то возникает вопрос, существуют ли хотя бы какие-нибудь основания для уверенности в том, что эти программы приближают нас к тем "эвристикам высшего уровня, управляющим познавательной структурой", которыми, как считает Минский, располагает человек? Можно ли согласиться со следующим заявлением Минского, сделанным в другой его работе:
"При жизни нашего поколения... останется лишь немного интеллектуальных задач, которые будут не под силу машинам: проблема создания "искусственного интеллекта" будет в основном решена"****.
Во всяком случае, труд "Процессы переработки семантической информации" не дает оснований для такой уверенности.1 М. Минский, как мы видели, критикует более ранние программы за недостаточную общность. "Каждая программа работает только в соответствующей специальной области, и стыковать две разные программы оказывается совершенно невозможно"*****. Однако
* M. Мinsky (ed.). Semantic Information Processing, p. 1.
** Ibid., p. 26. *** Ibid.rP; 18.
**** M.Minsky. Computation: Finite and Infinite Machines. Engluwood Cliffs, N J., Prentice-Hall, 1967, p. 2.
***** M.Minsky (ed.). Semantic Information Processing, p. 13.
96
предлагаемые Минским решения остаются, как правило, на уровне приемов ad hoc, и тем не менее с некоторой долей беспечности он пишет далее:
"Рассмотренные в данной книге программы все еще страдают этим недостатком, но их авторы уже не игнорируют этой проблемы. Их основная задача фактически состоит в том, чтобы решить ее"*.
Но как-то незаметно, чтобы хоть одна из представленных М, Минским работ что-нибудь решала. Ни одной общей характеристики способности человека к разумному поведению найти не удалось. Все, что предлагает Минский, - это частные решения отдельных задач, как у Боброва и Эванса, или предельно упрощенные модели, как у Квиллиана, которые работают именно потому, что проблема структурирования и хранения необходимого объема данных была исключена из рассмотрения. Минский, конечно, уже ответил на эти очевидные обвинения новой вариацией на тему "первого шага":
"Хотя область применения предлагаемого пакета программ see еще производит впечатление довольно узкой, это не доказывает отсутствия прогресса в движении к более общим результатам. Каждая из этих программ - шаг вперед к управлению знанием"**.
По-видимому, на втором этапе игра заключается в следующем: выяснить, в какой мере можно наращивать видимость сложного, оставаясь в то же время на безопасном расстоянии от подлинной проблемы сложности, а затем, убедившись, что обобщение невозможно, объявить, что сделан только первый шаг49.
Такой подход неизбежен до тех пор, пока исследователи в области ИИ будут стремиться к эффективным результатам, не решив практической задачи хранения в памяти большого объема данных, необходимого - хотя, быть может, и недостаточного - дли всесторонней гибкой переработки семантической информации. Оглядываясь на достигнутые результаты, М. Минский с удовлетворением отмечает: "Трудно сдержать изумление, видя, как много все-таки достигнуто при столь ограниченной семантике"***. И. Бар-Хиллел в беседе с представителями SIGART (Special Interest Group in Artificial Intelligence of the Association for Computing Machinery} подчеркнул, что такого рода заявления лишь вводят в заблуждение:
"Существует немало людей во всех областях знания и особенно в сфере ИИ, которые расценивают любой первый шаг в использовании ЭВМ там, где
* Ibid.
** Ibid, (курсив мой,- Х.Д.)
*** Ibid., p. 26.
97
они ранее не применялись, как такое достижение, которое делает оставшиеся шаги делом "простой техники". В сущности, такая точка зрения равносильна утверждению, что если какая-то работа может быть вообще передана вычислительной машине, то она будет выполняться ею хорошо. Дело обстоит как раз наоборот: шаг, ведущий от полной невозможности выполнить что-то к возможности выполнить это хоть как-нибудь, значительно короче следующего шага, приводящего к умению выполнить это хорошо. В исследованиях в области ИИ подобное заблуждение встречается постоянно"*.
Однако И.Бар-Хиллел, пожалуй, излишне простодушен, если полагает, что это непонимание является простым следствием недооценки трудностей, связанных с прогрессом в данной области. Для того чтобы иметь основание утверждать, что первый, пусть даже маленький шаг уже сделан, надо быть уверенным в том, что последующие шаги в конце концов достигнут желаемой цели. Как мы видели, книга М. Минского таких оснований не дает. Вполне возможно, что вышеупомянутые шаги окажутся семимильными шагами в противоположном направлении. Ограниченность результатов, описываемых Минским, в сочетании с тем фактом, что за последние пять лет ни одно из множества прокламированных обобщений не было реализовано, наводят на мысль, что человек в отличие от ЭВМ вовсе не имеет дела с массой изолированных фактов, поэтому ему нет необходимости накапливать и извлекать из памяти эти факты, пользуясь эвристическими правилами. Судя по его поведению, человек обходит те трудности, с которыми на каждом шагу сталкиваются исследователи в области моделирования процесса познания и создания искусственного интеллекта, он делает это, избегая дискретного метода переработки информации, который эти трудности вызывает. Таким образом, весьма сомнительно, чтобы тот сдвиг, который М. Минский называет шагом к управлению "знанием" (пусть незначительным шагом), вообще вел к искусственному интеллекту.
ЗАКЛЮЧЕНИЕ
Как мы видели, первый этап - этап, провозглашенный "первым шагом", - не привел к успеху. Это относится как к GPS, так и вообще ко всем программам моделирования доказательства теорем, игры в шахматы и перевода с одного естественного языка на другой, созданным на этом этапе, М. Минский и сам признает неудачу; его диагноз точен, хотя он и пытается свести понесенные потери к минимуму:
* Y.Bar-Hillel. Critique of June 1966 Meeting, SIGART Newsletter, p.1.
98
Несколько исследований, по существу, не оправдали возлагавшихся на них надежд- Я имею в виду весьма нашумевшие проекты по переводу с одного языка на другой и доказательству математических теорем. Я думаю, что в обоих случаях это были незрелые попытки комплексной формализации, не подкрепленные достаточно глубоким постижением смысла самих объектов формализации"*.
Второй этап - новый "первый шаг" - начался где-то в 1961 г., когда в Массачусетсом технологическом институте ученики Минского начали работать над диссертациями, темы которых были определены задачей преодоления этих трудностей. Его конец можно отнести к 1968 г., когда вышла в свет книга под редакцией М. Минского "Процессы переработка семантической информации" - своего рода отчет об этих попытках, завершенных уже к 1964 г. Учитывая, по общему признанию, узкий -ad hoc - характер соответствующих программ, которые Минский считает наиболее удачными, и отмечая отсутствие дальнейшего их развития за последние пять лет, мы можем сделать единственный вывод: второй этап тоже не привел к успеху.
Авторы большинства работ, посвященных описанию состояния дел в этой области, не подчеркивают этот факт. Р.Соломонов в своем обзоре, опубликованном в "Трудах Института инженеров по электротехнике и радиоэлектронике" в 1966 г. и посвященном обзору работ в области ИИ, вышедших после 1960 г., первые три страницы уделяет программе GPS и другим достижениям прошлого, уже завершенным к 1960 г.; на следующих трех страницах обсуждается блестящее будущее работы С.Амареля, посвященной индукции: "Хотя Амарель не представил ни одну из своих теорий в виде программы, важность его идей и проведенного им анализа несомненна"**. О программах для переработки семантической информации, которым М. Минский придает такое значение, почти ничего не говорится. Все надежды возлагаются на индукцию и обучение. К сожалению, "во всех упомянутых обучающихся системах машина может самосовершенствоваться только в очень ограниченных пределах... Перед нами все еще стоит вопрос о том, какого типа эвристики требуются для нахождения эвристик; неизвестно также, в каких языках удобнее их описывать"***.
Поскольку не нашлось никого, кому удалось бы хоть что-нибудь сделать для нахождения таких эвристик, Р.Соломонов возлагает свои последние надежды на искусственную эволюцию;
"Перспективность искусственной эволюции объясняется тем, что о механизмах естественной эволюции мы знаем очень много и о многом
* М.Минский. Искусственный разум. - В кн.: Информация, с.214.
** R.Sоlоmоnоff. Some Recent "Work in Artificial Intelligence.-Pro ceedings of the IEEE, vol.54, No. 12, 1966, December, p. 1689.
*** Ibid., p. 1691.
99
догадываемся. А ведь эти механизмы могут быть прямо или косвенно использованы для решения тех проблем, которые возникают в их искусственных аналогах. Моделирование эволюции предоставляет исследователям в области "искусственного интеллекта" несравнимо более богатые возможности, чем моделирование нейронных сетей, поскольку о нейронных сетях почти ничего не известно из того, что могло бы хоть сколько-нибудь помочь в решении сложных проблем"*.
Однако такого рода работа по искусственной эволюции только начинается. "Исследования в области моделирования эволюции до сих пор чрезвычайно ограничены как количественно, так и качественно"**.
Когда статья, предназначенная для подведения итогов работы, проделанной с 1960 г., начинается с упоминания достижений предшествующих лет и кончается общими рассуждениями без единого примера, подтверждающего действительный прогресс, то между строк с отчетливостью проступают признаки застоя.
Подчас и в самих строках можно уловить оттенок разочарования. Так, например, Ф.Тонг в своей серьезной, без претензий статье об эвристическом алгоритме балансирования работы сборочного конвейера, опубликованной в 1968 г, и позднее вошедшей в коллективный труд "Вычислительные машины и мышление”, заканчивает обзор работ по "искусственному интеллекту" следующими славами;
"Несмотря на создание множества интересных программ (и нескольких любопытных устройств), прогресс в области "искусственного интеллекта" нельзя назвать ни волнующим, ни блестящим... По крайней мере в некоторой степени это связано с тем, что во многих публикациях, и в прошлом, и в настоящем, отсутствует четкое различение того, что достигнута, и того, что еще предстоит сделать. В этой области, как и во многих других, существует огромная разница между утверждением, что то или иное усовершенствование "по всей вероятности может быть" реализовано, и его действительной реализацией.
Очень мало ощутимых, значительных переломных достижений"***.
Затем Тонг перечисляет те достижения, которые он считает "переломными". Сюда входят: программа Ньюэлла, Шоу и Саймона "Логик-теоретик", шашечная программа Сэмюэля и распознающая программа Л.Юра и Ч.Фосслера. Но все три работы закончены задолго до 1961 г. и все три - тупиковые, если об этом позволительно судить по дальнейшим работам.
Чтобы отклонить возможные упреки в пристрастности моей оценки этой обзорной работы Тонга, сошлюсь для сравнения на следующий принадлежащий П. Гринвуду реферат, помещенный в реферативном журнале "Computing Reviews": "Из этого сжатого описания сегодняшнего состояния дел по
* Ibid. p. 1693.
** Ibid.
*** F.M.Tonge. A View of Artificial Intelligence.- In: Proceedings, A.CM.National Meeting, 1966, p. 37950.
100
проблеме " искусственного интеллекта можно сделать вывод, что за период, истекший с 1960 г., прогресс в этой области был весьма незначителен, а перспективы на ближайшее будущее оставляют желать лучшего"*.
Остается непонятным, почему эти трудности не смущают исследователей, работающих в области моделирования процесса познания, которые полагают, что переработка информации, производящаяся вычислительной машиной, проливает свет на скрытые от нас информационные процессы у человека, и почему те, кто занимается "искусственным интеллектом", считают, что должен существовать дискретный метод решения тех задач, которые разрешимы для человека. Насколько мне известно, в этой области исследований не нашлось никого, кто задумался бы над этими вопросами. Фактически во всем конгломерате естественных наук "искусственный интеллект" представляет собой наименее самокритичную область. Должна же существовать какая-то причина, объясняющая тот факт, что все эти разумные люди почти единогласно сводит к минимуму или вообще отказываются видеть возникающие на их пути трудности и продолжают догматически верить в успех. Очевидно, какая-то сила, заключающаяся в их исходных допущениях (а отнюдь не в успехах их работ), заставляет их игнорировать необходимость оправдания этой уверенности. Теперь нам необходимо разобраться, почему, несмотря на всевозрастающие трудности, исследователи в области "искусственного интеллекта" сохраняют столь непоколебимую твердость.
* Computing Reviews, vol. 8, No, 1, 1967, January-February, p. 31
101
Часть II
ДОПУЩЕНИЯ, ЛЕЖАЩИЕ В ОСНОВЕ "СТОЙКОГО ОПТИМИЗМА
ВВЕДЕНИЕ
Несмотря на серьезные трудности, исследователи, работающие в области моделирования процесса познания и создания "искусственного интеллекта", не пали духом. Более того, они настроены на редкость оптимистично. Их оптимизм основан на убеждении, что у человека переработка информации, вне всякого сомнения, носит дискретный характер, подобно тому как это происходит в цифровой машине, Коль скоро природа, основываясь на этом принципе, уже реализовала разумное поведение, то, составив соответствующую программу, мы имеем возможность наделить такой же способностью и вычислительные машины. При этом мы можем идти по пути имитации природы, либо программирования ее внешних проявлений.
Предположение, согласно которому как у человека, так и у машины переработка информации в конечном счете основана на одних и тех же элементарных действиях, высказывается порой с наивной откровенностью. А.Ньюэлл и Г.Саймон начинают одну из своих статей следующим замечанием:
"Ясно, что при таком подходе не делается каких-либо предположений о сходстве конструкции машины и мозга, за исключением того, что обе эти системы представляют собой универсальные устройства символьной переработки информации, и того, что должным образом запрограммированная вычислительная машина может выполнять элементарные информационные процессы в функциональном отношении точно так же, как они происходят в мозгу"*.
Это предположение, однако, не столь невинно и очевидно, как представляется на первый взгляд. Что такое "универсальное устройство символьной переработки информации"? Каковы те "элементарные информационные процессы", которые, как утверждается, одинаковы для человека и машины? Все работы по "искусственному интеллекту" осуществляются на цифровых машинах, поскольку это единственное универсальное устройство переработки информации, которое мы в настоящее время умеем конструировать и вообще можем себе представить. Вся информа-
A.Newell, H.A.Simоn. Computer Simulation of Human Thinking.- The RAND Corporation, P-2276, 1961, April 20, p. 9
105
ция, с которой работают эти ЦВМ, должна быть выражена в терминах дискретных элементов. Для современных цифровых машин информация представляется в двоичной форме, то есть в виде последовательностей сигналов "да" и "нет" либо "включено" и "выключено". Машина должна обрабатывать строчки определенных элементов конечной длины как последовательности объектов, отношения между которыми задаются строгими правилами. Таким образом, предположение, согласно которому человек действует подобно устройству для символьной обработки информации, связано со следующими допущениями.
1. Биологическое допущение: на некотором уровне - обычно полагают, что на уровне нейронов, -операции по переработке информации носят дискретный характер и происходят на основе некоторого биологического эквивалента переключательных схем,
2. Психологическое допущение: мышление можно рассматривать как переработку информации, заданной в бинарном (двоичном) коде51, причем переработка происходит в соответствии с некоторыми формальными правилами. Таким образом, в психологии вычислительная машина служит в качестве модели рассудка, каким его представляли эмпирики, такие, например, как Д.Юм (в этом случае информационным "битам" соответствуют атомарные впечатления), или идеалисты вроде И.Канта {в этом случае программа реализует правила мыслительного процесса) . Они подготовили почву для модельного представления мышления в виде процесса переработки информации - безличного процесса, в котором "процессор" не играет существенной роли52.
3. Эпистемологическое допущение: все знания могут быть формализованы, то есть все, что может быть понято, может быть выражено в терминах логических отношений, точнее, в терминах булевых функций - логического исчисления, задающего правила обращения с информацией, заданной в двоичном коде53.
4. Наконец, поскольку вся информация, которая вводится в машину, должна быть представлена в двоичной форме - в битах,- машинная модель мышления предполагает, что все сведения о мире, все, что составляет основу разумного поведения, должно в принципе допускать анализ в терминах множества элементов, безразличных к ситуациям. Таково онтологическое допущение: все, происходящее в мире, можно представить в виде множества фактов, каждый из которых логически не зависит от остальных. В следующих главах мы перейдем к анализу правдоподобия каждого из этих допущений. Мы убедимся, что, как правило, то, что исследователям, работающим в области моделирования процесса познания и создания "искусственного интеллекта", представляется аксиомой, гарантирующей получение результатов, в действительности является лишь одной из возможных гипотез, подлежащих проверке в ходе дальнейшей работы. Более того, ни
106
одно из этих четырех допущений не может быть оправдано ни эмпирически, ни a priori. Наконец, последние три допущения - носящие скорее философский, чем эмпирический характер,- можно подвергнуть критике с философских позиций. Каждое из них при последовательном применении к осмыслению разумного поведения ведет к затруднениям концептуального характера.
После анализа каждого из этих допущений нам будет легче понять устойчивый оптимизм специалистов в области "искусственного интеллекта", а также оценить действительную значимость результатов, полученных ими к настоящему времени.