Возможности вычислительных машин и человеческий разум

       

Вычислительная машина и естественный язык


Мы выделили три режима исследований в области искусственного интеллекта: так называемая ориентация на результат, имитация и теоретическая деятельность. Однако границы между ними не абсолютно четкие. Мы также пришли к выводу, что слово "теоретическая" в термине "теоретическая деятельность" не следует воспринимать совсем буквально. Использование идей, заимствованных из сферы вычислительных машин и теории вычислений, в попытках постичь человеческий разум имеет более метафорический характер, чем, скажем, использование механистических идей в познании физического мира. Если мы не станем затрагивать то безбрежное множество работ, посвященных современным проблемам информатики, касающихся либо теоретических аспектов собственно вычислительных процедур (например, теория конечных автоматов или теория структур языков программирования), либо непосредственного использования вычислительных машин для решения конкретных задач независимо от того, будет ли считаться выполнение подобных заданий человеком проявлением разумного поведения (например, решение систем дифференциальных уравнений или управление каким-либо сложным химическим процессом с помощью вычислительной машины), то в нашем распоряжении останется подобласть информатики, по крайней мере одной из основных целей которой является имитация человека машиной. Выделение различных способов, при помощи которых работа, проводимая в этой области, может быть непосредственно связана с психологией, лингвистикой или какой бы то ни было традиционной дисциплиной, не будет способствовать достижению целей, ради которых эта глава написана. Таким образом, в данном случае я не стану обращать внимание на соответствующее разделение.

Очевидны две вещи: если мы хотим, чтобы машина что-то сделала, нужно сообщить ей, что она должна сделать, а машина должна быть в состоянии понять, что мы ей сообщаем. Самый обычный способ сообщить вычислительной машине, что ей следует делать, - это, по крайней мере на сегодняшний день, задать ей специальную программу, обеспечивающую решение интересующей нас задачи, и, естественно, данные, с которыми эта программа должна работать.
Можно, например, задать вычислительной машине программу извлечения квадратных корней и число 25, рассчитывая, что ЭВМ выдаст число 5.
Вычислительная машина "понимает" программу извлечения квадратного корня в таком смысле, что в состоянии интерпретировать ее именно тем способом, который мы имели в виду, составляя программу. Однако в таком случае подобная программа преобразовывает вычислительную машину в некоторую чрезвычайно специализированную машину для извлечения квадратных корней, и не более того. Люди, если они вообще являются машинами, представляют собой машины чрезвычайно универсальные и, что важнее всего, они понимают сообщения, выраженные с помощью естественных языков (например, английского), лишенных, причем в очень значительной степени, точности и однозначности обычных языков программирования.
Поскольку абсолютная цель искусственного интеллекта заключается в создании машин, "способных воспринимать в полноте всех подробностей библиотеку энциклопедий", необходимо работать над тем, чтобы сделать их способными понимать естественный язык. Но и независимо от подобных грез существуют как практические, так и научные основания для работы над задачей понимания естественного языка. Чтобы люди, не принадлежащие миру вычислительной техники, могли полезно взаимодействовать с вычислительными машинами, либо они сами должны изучить языки вычислительных машин, либо вычислительные машины должны овладеть их языком. Уже сейчас проще снабдить вычислительную машину изобилующими жаргонными выражениями языками специалистов отдельных направлений (например, врачей определенной специальности или исследователей, работающих с образцами лунной породы), чем обучить специалистов стандартным языкам вычислительных машин. С одной стороны, некоторые ученые-информатики считают свои теории, связанные с языком, как бы не совсем "законными" до тех пор, пока они остаются "чистой теорией" (так пренебрежительно называет их широкая публика), т. е. пока не будет показано, что их можно преобразовать в модели, реализованные в виде программ вычислительных машин.


Но представим себе картину, изображающую взрослого человека и ребенка на качелях. Некоторые аспекты этой сцены мы понимаем, ориентируясь на форму, хотя даже и это понимание зависит от того, что вначале мы приняли определенную концептуальную схему, некоторый набор соглашений. Эти соглашения имеют синтаксический характер в том смысле, что они служат в качестве критериев, позволяющих отделять "правильные" изображения от, так сказать, абсурдных. Соглашения, применяемые обычно к изображениям, будут квалифицировать как грамматически неправильное, например, большинство гравюр Эсхера. Мы понимаем картину с качелями, однако также с помощью семантических намеков. Нам известно, скажем, что взрослый, изображенный на картинке внизу, тяжелее ребенка, сидящего на противоположной стороне качелей и находящегося наверху. И эти знания приобретаются нами не благодаря форме изображения, поскольку включают наше собственное знание отдельных свойств реального мира.
На это похоже также и понимание языка, неважно кем - человеком или машиной. У всех нас есть определенные критерии, интериоризованная грамматика английского языка, позволяющая сказать, что цепочка слов "The house blue it" [Прим. перев.: "Дом голубой это" (буквально). Синтактическая неправильность этого предложения вызвана тем, что прилагательное "blue" (голубой) употреблено здесь в роли сказуемого] - грамматически неправильна. Это сугубо синтаксическое суждение. С другой стороны, мы понимаем, что предложение "The house blew it" ("Дом продулся") с грамматической точки зрения правильно, хотя пытаясь решить, что же оно значит, т.е. каким образом его следует понимать, мы можем столкнуться с определенными трудностями. Мы говорим, что понимаем эту фразу только в том случае, если можно сконструировать какую-то ситуацию, в которой она приобретает смысл, - когда мы можем привести некоторую концептуальную схему, в рамках которой это предложение является осмысленным, быть может, даже "очевидным".


Например, в рассказе о том, что система, используемая игорным домом для нейтрализации системы, применяемой игроком, провалилась, фраза "The house blew it" имеет совершенно очевидное значение, по крайней мере для американца. Итак, снова приходится обращаться к знаниям о реальном мире, причем не просто для устранения неоднозначности предложения, а именно для того, чтобы понять его значение.
Безусловно, заниматься проблемой машинного понимания естественного языка намного легче, чем соответствующей проблемой применительно к машинному зрению, прежде всего потому, что язык допускает письменное представление, т. е. можно работать с определенной цепочкой символов, выбираемых из очень ограниченного алфавита. Более того, подобные цепочки можно предъявлять вычислительной машине последовательно, точно так же, как они предстают перед читающим человеком. К тому же эти цепочки можно без малейших искажений сохранять в памяти. Но вопрос о том, что составляет визуальный символ, пусть даже самый примитивный, приводит к существенным проблемам из области синтаксиса и семантики.


Исследователь, задача которого - понять машинные английские тексты, выбирая определенные символы в качестве непроизводных элементов, т. е. не поддающихся анализу, не связывает себя в значительной степени с какой-либо исследовательской гипотезой или стратегией. Исследователь, занимающийся проблемами зрения, по существу, определяет основные черты своей исследовательской стратегии в тот момент, когда он, скажем, решает выбрать границы и углы в качестве элементов своего словаря непроизводных. Кроме того, он сталкивается с очень трудной задачей даже в том случае, когда ему просто требуется установить, что его машина "видит" границу. Поэтому, а также и потому, что лишь недавно телевизионные камеры были сочленены с вычислительными машинами, исследования, связанные с пониманием естественного языка вычислительными машинами, имеют в рамках искусственного интеллекта гораздо более длинную историю, чем работа по проблемам машинного зрения.


В современной истории вычислений много раз случалось так, что какое-то техническое достижение, связанное с аппаратной частью или программным обеспечением вычислительных машин, порождало эйфорию, фактически близкую к сущему помешательству. Когда системы, которые считались тогда большими вычислительными машинами, впервые стали работать более или менее надежно, многие вполне разумные во всех остальных отношениях люди пали жертвой того, что я назвал бы синдромом "теперь, поскольку у нас (наконец) есть X, мы можем сделать Y". В той ситуации X считались запоминающие устройства (память) очень большой емкости и с очень высокими скоростями вычислений, а Y был машинный перевод. (Я не буду приводить здесь ссылки - ведь эта лихорадка, поразившая "оступившихся", уже давно спала).
Первоначальное представление заключалось, как несколько позже сформулировал Роберт К. Линдсей, в том, что
"высококачественный перевод может осуществляться лишь машиной, оснащенной достаточно детализированными синтаксическими правилами, большим словарем и обладающей достаточной скоростью для изучения контекста неоднозначных слов на несколько слов в каждом направлении"1.
Вычислительные машины все еще не обеспечивают "высококачественный перевод".
Твердолобый догматик старой школы (если они еще сохранились) мог бы возразить, что мы все еще не располагаем "достаточно детализированными синтаксическими правилами" или "достаточной скоростью", позволяющими добиться желаемого результата. Однако истинная проблема состоит в том, возможна ли вообще подобная "достаточность". Позволят ли любой набор синтаксических правил, сколь детализированы бы они ни были, любая скорость вычислений и словарь любого размера добиться получения высококачественного перевода? Каждый серьезный исследователь согласится сегодня, что ответом на этот вопрос является "нет".
Перевод следует рассматривать как процесс, включающий два различных, но не вполне разделимых элемента: 1) переводимый текст должен быть понят; 2) должен быть получен текст на выходном языке.


Применительно к нашим текущим задачам можно пренебречь вторым элементом. Проблема предстает почти во всей своей сложности, если предположить, что выходной язык является тем самым, что и входной, и, таким образом, преобразовать задачу перевода в задачу "обычного" пересказа. Мы видим, что понимание даже одного предложения может потребовать как тщательно разработанной контекстуальной схемы (например, сценария, в котором речь идет об игорных домах, системах, применяемых игроками, и тому подобных вещах), так и знания реального мира (например, чем занимаются игроки, что значит сорвать банк и т. д.).
Вернемся снова к приведенному ранее примеру. Допустим, что фраза "The house blew it" появляется в первой главе детективного романа. Раскрытие детективом преступления может зависеть от того, поймет ли он связь этой фразы с игорными домами. Улики, ведущие к именно такой интерпретации этого предложения, могли бы появляться лишь постепенно, скажем, по одной в каждой главе. И, таким образом, нельзя было бы рассчитывать, что какой-нибудь человек или какая-нибудь вычислительная машина смогут понять, а следовательно, и пересказать это предложение при его первом появлении. Никоим образом не смогло бы помочь здесь и изучение нескольких слов по обе стороны этого предложения. И человек, и вычислительная машина должны были бы прочесть весь детективный роман за исключением последней главы, чтобы оказаться в состоянии сделать то, что в конце концов сделал детектив, - понять ключевое предложение. (Мы предполагаем, что последняя глава романа нужна лишь тем, кто пропустил какую-нибудь улику или по каким-то иным причинам не смог прийти к правильным выводам.) И даже тогда с этим справиться смогут лишь те, кто обладает необходимыми знаниями о реальном мире.
Осознание того обстоятельства, что контекстуальная схема существенна для понимания текста на естественном языке, впервые было использовано в так называемых вопросно-ответных системах. В 1961 г. Б. Ф. Грин с сотрудниками создали систему, способную понимать вопросы, связанные, например, с бейсболом, и отвечать на них2.


У нее не возникало затруднений при понимании вопроса "Where did each team play in July?" (Где каждая команда играла в июле?), так как в ее сфере коммуникации такие, быть может, неопределенные слова, как "team" [Прим. перев.: Английское слово "team" имеет несколько значений ("спортивная команда", "бригада", "группа", "экипаж", "упряжка", "вереница", "выводок"), так что единственность в данном случае значения "спортивная команда" определяется исключительно тем, что речь идет о спортивной игре] и play [Прим. перев.: Сказанное в предыдущем примечании полностью относится и к английскому глаголу "play", выбор одного из значений которого - "играть в какую-то спортивную игру" определяется также спортивным контекстом]), имеют единственные значения. Она может отвечать, поскольку любой однозначно понятый вопрос легко преобразуется в небольшую программу поиска соответствующей информации в базе данных системы.
Тот же самый принцип использован и в программе "Student" "Студент") Боброу, хотя с ней и связаны значительно более амбиционные претензии3. Эта программа позволяла решать так называемые словесные алгебраические задачи типа "Tom has twice as many fish as Mary has guppies. If Mary has three guppies, what is the number of fish Tom has"? ("У Тома рыб в два раза больше, чем у Мэри - гуппи. Если у Мэри есть три гуппи, то сколько рыб у Тома?")
И снова контекстуальное пространство, для работы в котором создавалась программа, определяло, каким образом слова и предложения должны пониматься, преобразовываться (в алгебраические формулы) и подвергаться прочим видам обработки. Заметим, например, что "понимание" приведенной задачи вовсе не требует "понимания" слов типа "fish" "рыба" и "guppies" [Прим. перев.: Гуппи - небольшая рыбка; водится в пресных водах острова Тринидад и северной части Южной Америки.


Очень распространено ее разведение в аквариумах (в русском языке слово "гуппи" не склоняется)]; вместо них с тем же успехом можно было бы использовать X и У. А слово "has" [Прим. перев.: Английский глагол "to have" ("has" - форма 3-го лица единственного числа) может употребляться в качестве смыслового глагола со значением "иметь", "обладать" (в предложении "Tom has twice as many fish as Mary has guppies") и в качестве вспомогательного глагола (в сочетании "to have a cold"-"простудиться"), где он утрачивает свое основное значение "иметь" и выражает в сочетании с существительным (в данном случае "cold" - "простуда") единое понятие] не имеет здесь той коннотации, которую оно имело бы в предложении "Тот has a cold".
Задание очень сильно ограниченного пространства контекста чрезвычайно упрощает задачу понимания - и это, естественно, справедливо и для случая коммуникации между людьми.
Конечно, в большинстве реальных ситуаций понимание должно быть взаимным. В случае общения человека с вычислительной машиной мы хотим, чтобы машина понимала нас с определенной целью: могла сделать для нас что-то, скажем, ответить на вопрос, решить математическую задачу или пилотировать летательный аппарат; причем мы, в свою очередь, рассчитываем на понимание ее действий. Только что приведенные примеры не проливают света на этот аспект общения человека и машины. Ответы, выдаваемые программами "Baseball" ("Бейсбол") и "Student", не дают достаточной свободы интерпретаций, чтобы их считать неясными. Невозможно представить себе, что с этими программами можно было бы вести интересную беседу. Наиболее существенно то, что сами эти программы вопросов не задают.
Первая программа, осветившая этот второй аспект проблемы общения человека и машины, - моя собственная программа "Элиза"4[прим. авт.: Я выбрал для программы имя Элиза потому, что, как и Элизу Дулиттл из знаменитого "Пигмалиона" Д.


Б. Шоу, программу можно обучать "говорить" все лучше и лучше, хотя так же, как в случае с мисс Дулиттл, не стало вполне ясно, стала ли она умнее]. "Элиза" представляла собой программу, в основном реализовывающую универсальные методы анализа предложений и их частей, выделения так называемых ключевых слов в тексте, сопоставления предложений из отдельных частей и т. д. Другими словами, у нее не было какой-либо встроенной контекстуальной системы или дискурсивного пространства. Последнее придавалось ей при помощи "сценария". В некотором смысле "Элиза" являлась актрисой, обладавшей определенной "техникой", но сказать самой ей было нечего. Сценарий, в свою очередь, представлял собой некоторый набор правил, позволявший актеру импровизировать на любом имевшемся у него материале.
Первый большой сценарий, подготовленный мной для "Элизы", позволял ей пародировать реплики недирективного психотерапевта в процессе первичного обследования пациента. Я выбрал этот сценарий потому, что он давал мне возможность временно обойти проблему задания программе базы данных, содержащей знания о реальном мире. В конечном счете я полагал, что на замечание пациента "My mommy took my teddy bear away from me" ("Моя мамочка забрала у меня моего плюшевого медвежонка") психиатр может прореагировать, сказав, например, "Tell me more about your parents" ("Расскажите мне подробнее о своих родителях"), не имея на самом деле ни малейшего понятия, в частности, о плюшевых медвежатах. Чтобы воспроизвести этот ответ, программа должна знать, что "mommy" ("мамочка") означает "mother" ("мама") и что "пациент" сообщил ей что-то об одном из своих родителей, В действительности, она извлекала из реплик пациента больше информации, часть которой могла использоваться, например, в ее дальнейших репликах. И все же можно было сказать, что программа "понимала" нечто, лишь в самом слабом изо всех возможных смыслов5.


Тем не менее "Элиза" породила у множества беседовавших с ней людей поразительную иллюзию, будто она их понимает. Люди, отлично знавшие, что разговаривают с машиной, вскоре забывали об этом подобно театралам, которые, освободившись от неверия, быстро забывают о том, что действие, наблюдаемое ими, "не настоящее". Эта иллюзия сильнее всего захватила людей, знавших мало или совсем ничего не знавших о вычислительных машинах; они с наибольшим упорством цеплялись за эту иллюзию, часто настаивали на том, чтобы им разрешили разговаривать с системой без свидетелей, и, побеседовав с ней некоторое время, утверждали, несмотря на мои объяснения, что машина действительно поняла их.
Это явление можно сравнить с уверенностью многих людей в том, что предсказателям действительно доступны какие-то глубокие откровения, что они действительно "ведают" и т. п. Эта вера не является выводом, полученным в результате тщательного изучения фактических данных. Скорее, это гипотеза, подтверждениями которой для тех, кто ее придерживается, служат претензии предсказателей. В этом качестве она выполняет роль упоминавшегося выше уличного фонаря, под которым пьяный что-то ищет: любое свидетельство, которое могло бы противоречить гипотезе, тщательно скрывается от обнародования, и, естественно, любой факт, который незаинтересованный наблюдатель мог бы посчитать таковым, интерпретируется так, чтобы он служил развитию и укреплению гипотезы.
В определенных пределах это вполне нормальный и даже необходимый процесс. Никакая "информация" не может являться данными, кроме как в рамках определенной гипотезы. Таким образом, даже в обычном диалоге каждый из собеседников использует какие-то собственные представления в процессе понимания другого. Другими словами, у каждого имеется некая рабочая гипотеза, т. е. опять же определенная концептуальная система, учитывающая, кто именно является собеседником и чему посвящена беседа. Эта гипотеза выполняет роль прогноза: что собирается сказать второй участник разговора и (это существеннее) что он хочет сказать тем, что он собирается сказать.


Например, Виноград признает, что его система использует лишь тончайший пласт соответствующего знания. Знания же, о которых он говорит, - это знания о "фактах", имеющиеся в распоряжении человека. Проблематичность его подхода заключается в том, что его эвристики не представляют интересных общих принципов. Более того, такие принципы нельзя установить просто расширением диапазона возможностей системы, чтобы она могла получать. больше знаний о внешнем мире. Даже самый искусный создатель часов семнадцатого века никогда не смог бы открыть законы Ньютона, создавая все более причудливые и замысловатые часы!
Искусственный интеллект, как было документально подтверждено нами, выдвигает в качестве своей цели построение машин с мыслительными возможностями, соизмеримыми с мыслительными возможностями самого человечества. (Сейчас неважно, будет эта цель достигнута в "обозримом будущем" или нет.) Теории, которые должны составить основу этого триумфа искусственного интеллекта, должны быть применимы и к человеку в целом. В таком случае очевидно, что ограничения, присущие существующим в настоящее время системам и часть которых с истинным смирением признал Виноград, рассматриваются в искусственном интеллекте в целом как сугубо временные, трудности, которые согласно Ньюэллу и Саймону в обозримом будущем можно преодолеть.
Следовательно, особенно остро возникают два вопроса. Во-первых, поддается ли, хотя бы в принципе, полной формализации концептуальный базис, лежащий в основе лингвистического понимания, что предлагает Шенк и во что верит большинство работающих в области искусственного интеллекта? Во-вторых, существуют ли такие идеи, которые, как я считаю "ни одна машина никогда не поймет, потому что они связаны с целями, неуместными применительно к машинам"?
Эти два вопроса имеют колоссальное значение. Они проникают в самую суть проблемы: существует ли какая-либо существенная разница между человеком и машиной? И целесообразно ставить эти вопросы в контексте обсуждения проблемы понимания машинами естественного языка, так как главным образом именно с помощью своего языка человек обнаруживает свой разум и, по мнению некоторых, свою уникальность как человеческой личности.


Кроме того, эти вопросы неразрывно связаны друг с другом и их следует задавать вместе. Если действительно весь человеческий опыт и порождаемая им структура взглядов не поддаются формализации, то на самом деле существуют цели, уместные для человека и неуместные для машин. И если бы мы пришли к выводу (к чему я и веду), что такие цели действительно существуют, то мы могли бы говорить и о том, какую деятельность следует и какую не следует возлагать на машины.
Сам факт превращения этих вопросов в существенные характеризует глубину проникновения метафоры информационного подхода в академическое сознание и сознание широкой публики. Если мы проведем "инвентаризацию", то быстро обнаружится, как мало на самом деле до сих пор сделано. В книге Ньюэлла и Саймона "Решение задач человеком" (Human Problem Solving) детально обсуждается только три типа задач: криптоарифметические, доказательство теорем в простейшем логическом исчислении и шахматные. Достижения управляемых вычислительными машинами машин "рука - глаз", созданных в Массачусетском технологическом институте и Станфордском университете (постройка конструкций из кубиков по моделям, предъявляемым системе, и навинчивание гаек на болты), справедливо провозглашаются триумфом теми, кто понимает невероятную сложность задач, которые необходимо было решить предварительно. Были и другие подобные триумфы. Однако то, что подобные достижения заслуженно встречаются с таким восхищением, свидетельствует о том, насколько примитивны наши нынешние знания о человеческом мозге. Джордж А. Миллер, подобно представителям современной вычислительной лингвистики, также говорит о концептуальных структурах, составляющих основу мышления и языка человека, но он замечает при этом:
"Сегодня просто абсурдно претендовать на то, что нам известно, каким образом, можно заложить хоть в какую-нибудь машину эти сложные концептуальные структуры"11.
Виноград действительно говорит от имени всего искусственного интеллекта, независимо от того, признают это его коллеги или нет: наши системы затрагивают лишь тончайший пласт соответствующего знания.


Как в XVII в. было бы неправильно доказывать невозможность вывода объекта, сделанного человеком, на земную орбиту, опираясь на то обстоятельство, что в те времена никто не имел даже малейшего понятия о том, как это можно сделать, так и в наши дни неправильно основывать доказательства невозможности какой-либо деятельности вычислительных машин на нашем сегодняшнем незнании. С другой стороны, уместно, особенно учитывая имеющиеся достижения, оценить мощь обсуждавшихся нами теорий. Сопоставимы ли они, например, с результатами Ньютона по диапазону выводимых из них следствий?
Что нового дает утверждение: "существует межъязыковая концептуальная основа, на которую отображаются во время реализации процесса понимания лингвистические структуры заданного языка и из которой подобные структуры появляются в процессе порождения [высказывания на языке]"?12 Абсолютно ничего. Ибо термин "концептуальная основа" вполне можно заменить словом "нечто", И кто смог бы оспаривать утверждение, измененное подобным образом? Вклад Шенка подобно вкладу остальных возделывающих ныне те же благодатные поля состоит в том, что он пытается найти некое формальное представление для этой концептуальной основы. Он хочет с максимальной доскональностью растолковать нам, что представляет собой это нечто, "лежащее в основе всех естественных языков", и как оно функционирует и при порождении, и при понимании языковых высказываний. Но даже и при таком подходе Шенку не удается показать, что его схема представляет собой нечто большее, чем просто набор эвристик, оказавшийся работоспособным применительно к специфическим классам примеров. Решающим научным результатом стало бы создание какой-то конечной программы* подбирающей подходящие концептуальные структуры для бесконечного множества предложений, которые могут встречаться в естественном языке. Эта задача все еще находится в первозданном виде. Представим себе суммирующую машину, которая складывает некоторые, но не все числа правильно, причем мы не в состоянии указать, что отличает числа, суммируемые ею правильно.


Едва ли мы посчитали бы эту машину механизацией арифметики. А в каком же виде должны быть нам представлены гипотетические концептуальные структуры Шенка, операции на них, связи между ними и так далее? Конечно, в виде программ вычислительной машины.
"Что нам необходимо, и чего у нас нет, - это стройной теории понимания людьми естественного языка, посвященной не отдельным частям этой проблемы, а именно всей проблеме в целом. Эта теория ... должна также служить основой программы вычислительных машин, понимающих естественный язык ... Будет обсуждаться именно теория, лежащая в основе такой программы ..."
"Мы надеемся, что сможем создать программу, обучающуюся подобно тому, как обучается ребенок, вместо того, чтобы получать с ложечки колоссальное количество необходимой ей информации. Чтобы осуществить это намерение, может оказаться необходимым дождаться появления эффективных систем "рука - глаз" и процессора обработки изображений."13
Теперь мы начинаем обнаруживать связь, существующую между обсуждавшимися выше работами по решению задач и работами, посвященными пониманию машиной естественного языка. Предложение представляет собой некоторый "заданный объект", концептуальная структура, являющаяся его значением, - "искомый объект", цель состоит в преобразовании первого во вторую, а средства, с помощью которых это осуществляется, определяются возможностями понимающей программы. Самое важное в обоих случаях - возможность перевода соответствующих теорий в программы вычислительной машины.
Следуя процедурам, предложенным Шенком, может оказаться возможным создать некоторую концептуальную структуру, соответствующую значению предложения "Will you come to dinner with me this evening?" ("He пообедаете ли вы со мной сегодня?"). Однако трудно понять (я сознаю, что это не служит доказательством невозможности), каким образом с помощью шенковских схем можно было бы установить, что это самое предложение в устах застенчивого молодого человека означает страстное признание в безнадежной любви.


Даже если вычислительная машина могла бы имитировать чувства отчаяния и любви, разве в этом случае вычислительная машина была бы способна испытывать отчаяние или любовь? Могла бы вычислительная машина в данном случае понять отчаяние и любовь? В той степени, в какой эти вопросы вообще являются правомерными, а эта степень на самом деле очень ограничена, ответом является "нет". При таком ответе смысл, в котором даже наиболее модные системы шенковского типа "понимают", является столь же слабым, как и тот, в котором "понимала" система "Элиза".
То, что мы здесь обнаруживаем, - это в лучшем случае еще один пример поиска пьяным под фонарем. Теория претендует на описание концептуальных структур, составляющих основу понимания человеком языка. Но законными она признает лишь те концептуальные структуры, которые допускают представление в виде структур данных, пригодных для обработки на вычислительной машине. При этом провозглашается, что они образуют все концептуальные структуры, составляющие основу мышления человека. Задав такую программу, т. е. сузив до такой степени значение слова "все", действительно можно доказывать, что данная теория объясняет "все" лингвистическое поведение человека.
Естественно, любая теория сама образует некоторую концептуальную систему и устанавливает, что должно и что не должно квалифицироваться как факт. Теории (или, быть может, лучше сказать - укоренившиеся метафоры) , загипнотизировавшие "искусственную интеллигенцию", а также и значительную часть широкой публики, давным-давно установили, что жизнь - это то, что может быть вычислено, и ничто иное. Как заявил профессор Джон Маккарти, руководитель Лаборатории искусственного интеллекта Станфордского университета, "единственная причина, то которой мы еще не достигли успеха в моделировании всех аспектов реального мира, - это отсутствие достаточно мощного логического исчисления. Я в настоящее время занимаюсь этой проблемой"14[Прим.перев.: Stanford University's Artificial Intelligence Laboratory].
Иногда, когда наши дети были еще маленькими, мы с женой стояли над ними, глядя, как спят они в своих кроватках. Мы разговаривали в тишине, воспроизводя сцену, столь же древнюю, как само человечество. Как сказал Ионеско: "Не все невозможно выразить словами - только живую истину".

Содержание раздела