Вернемся теперь к правилам построения свойств. Мы уже
говорили, что они должны содержать две обязательные
<стрелки. Ясно, что первая из них указывает на какой-то ат-
рибут, а вторая на значение этого атрибута. Первая стрелка,
<определяющая свойство клиента (рис. 8.1), указывает на
<пользуется услугами> (атрибут), а вторая-на <профес-
сиоиала> (значение). Таким образом мы узнаем, что свой-
ство клиентов состоит в использовании услуг профессиона-
-лов. Помимо этих двух обязательных стрелок, соответствую-
щих атрибуту и его значению, свойство может содержать
любое число стрелок, ведущих к другим свойствам. Рассма-
триваемое нами свойство имеет такую дополнительную стрел-
ку; она указывает на свойство <клиентом> (на характеристи-
ку, в данном случае отвечающую на вопрос: кем использу-
ются услуги профессионала?). Таким образом, выясняется,
что клиент-это лицо, которое пользуется услугами профес-
сионала; профессионал используется (кем?) клиентом. Не-
трудно было бы расширить приведенную схему до размеров
всей этой книги. Мы могли бы отобразить свойства элемен-
та <лицо> и свойства тех элементов и свойств, которые вхо-
дят в определение понятия <лицо>. В это определение может,
например, входить элемент <живое существо>; представьте
Глава 8
себе все стрелки, которые потребуются для определения это-
го нового элемента, а также iBcex тех объектов, на которые
они указывают. В результате получилось бы огромное взаи-
мосвязанное множество понятий-это и есть память системы
ОСПЯ.
Итак, все это приводит к созданию колоссальной сети
понятий. Они бывают двух типов-элементы и свойства, а
связи между ними придают им смысл. Элементы определя-
ются .при помощи других элементов и свойств, свойства -
при помощи других свойств и элементов. Следует также от-
метить (хотя в модели ОСПЯ это специально не выделено),
что понятия должны определяться также своими связями с
внешним миром, осуществляемыми через органы чувств. ДП
не может быть полностью замкнута в себе. Какую пользу,.
например, может принести определение такого понятия, как
<белый>, через его связи с такими понятиями, как больница,
ландыши, простыни и т. п., если у нас нет воспоминаний о
том, что мы все это видели? Таким образом, в конечном сче-
те модели долговременной памяти должны объяснить не-
только взаимосвязи между ее внутренними частями, но и ее-
взаимодействие с внешним миром. Те из ее внутренних взаи-
мосвязей, которые определяют понятия через их отношения
к другим понятиям, придают ДП большое сходство с толко-
вым словарем. Как мы видели, в таких словарях определе-
ния слов даются при помощи других слов, а если мы начнем
искать эти другие слова, то обнаружим, что и они определя-
ются при помощи слов. Каждое слово в словаре приобретает
смысл только благодаря сложным взаимосвязям между объ-
ясняемыми словами и довольно редким картинкам, которые
позволяют связать слова со зрительным сенсорным опытом,
Мы могли бы оказать, что предложенная Куиллианом мо-
дель ДП дает картину обширной ассоциативной сети. Ассо-
циируются здесь понятия - такие, например, ка.к <клиент>,
или <иметь окраску>, или <действовать тем или иным обра-
зом>. Понятия связаны друг с другом стрелами, которые по
существу и отображают ассоциации. Эти ассоциации отли-
чаются от традиционных связей <стимул - реакция> тем, что
они бывают нескольких различных типов: иерархические ас-
социации, ассоциации через свойства, атрибуты и их значе-
ния. Изображение ДП как набора ячеек, связанных помечен-
ными ассоциациями, - главная черта сетевых моделей ДП.
МОДЕЛЬ АНДЕРСОНА И БОУЭРА
Модель Куиллиана была одной из первых, в которых дол-
говременная память изображалась как сеть, содержащая
все, что известно данному человеку об окружающем мире,
ДП: структура и семантическая переработка информации
и делалась попытка имитировать язык человека путем со-
здания детализированной программы для вычислительной
машины. Позже появились и другие сетевые модели, у каж-
дой из которых были свои особенности. Для того чтобы рас-
ширить представление о сети, полезно рассмотреть еще одну
модель такого типа, созданную Андерсоном и Боуэром (Ап-
derson a. Bower, 1973) и названную АПЧ, т. е. <Ассоциатив-
ная память человека> (НАМ--Human Associative Memory)
Хотя модель АПЧ обладает общим сходством с куиллиа-
новской ОСПЯ, она сильно отличается по предполагаемой
детальной структуре долговременной памяти. Конечно, будучи
сетевой моделью, АПЧ описывает долговременную память
как обширное собрание ячеек и помеченных ассоциаций.
Однако основной компонент АПЧ - <молекула> ДП - назы-
вается высказыванием. Эти высказывания сходны с предло-
жениями, с той разницей, что они более абстрактны. Иными
словами, высказывание может отображать какую-то линг-
вистическую структуру, например предложение, но это не
есть само предложение. (В высказываниях может быть пред-
ставлена не только лингвистическая информация; они могут
также представлять нелингвистичеокую информацию в ДП.
Например, согласно Андерсону и Боуэру, описания визуаль-
ных сцен могут быть представлены в ДП высказываниями.)
Обычно высказывание-это небольшая группа ассоциа-
ций и ячеек (подобно тому как единица в модели ОСПЯ -
это небольшой набор элементов и свойств). Каждая ассоциа-
ция - бинарная; это означает, что в ней связаны, или ассо-
циированы, два понятия. Ассоциации бывают нескольких ти-
пов. Типы ассоциаций и способы их соединения при построе-
нии высказываний представлены на рис. 8.2. Следует рассмо-
треть четыре основных типа ассоциаций, каждая из которых
объединяет две более простые идеи.
1. Ассоциация, соединяющая некоторый контекст с опре-
деленным фактом. Контекст сообщает, где и когда имел мес-
то факт, а факт несет информацию о том, что произошло в
данном контексте.
2. Ассоциация, соединяющая место и время; это сочета-
ние образует определенный контекст. Место сообщает нам
о том, <где>, а время - о том, <когда>.
3. Ассоциация, соединяющая подлежащее со сказуемым.
Такое сочетание образует некоторый факт. Подлежащее со-
Сходная модель, созданная Румельхартом, Линдсеем и Норманом
(Rumelhart а. о., 1972), подробно рассматривается в книге Линдсея и Нор-
мана (Lindsay a. Norman, 1972). Эту книгу можно рекомендовать для до-
полнительного чтения тем, кто заинтересуется сетевыми моделями.
Глава 8
общает нам о том, к чему относится данный факт, а сказуе-
мое - о том, что происходит с подлежащим.
4. Само сказуемое может быть ассоциацией, состоящей
из двух частей: сказуемое нередко сообщает нам о взаимо-
отношениях между подлежащим и каким-либо объектом. Так,
можно сказать, что сказуемое связывает какое-то отношение-
(глаголоподобную форму, вроде <есть выше, чем>, <ударил>
или <есть отец такого-то>) и его объект.
В надлежащих сочетаниях эти четыре типа ассоциаций
(.контекст-факт, место-время, подлежащее-сказуемое, от-
ношение-объект) образуют высказывание. Высказывание-
лучше всего проиллюстрировать при помощи дерева - раз-
ветвленной схемы, из которой видно, каким образом различ-
ные понятия могут объединиться в высказывание. В нижней
части рис. 8.2 изображено такое дерево для высказывания.
<В классе учитель спрашивал Билла>. В вершине дерева
буквой А обозначено понятие, соответствующее данному вы-
сказыванию в целом. Точка А, так же как и все другие точ-
ки, в которых соединяются два ассоциированных элемента,.
называется <узлом>. Узел высказывания представляет собой
результат бинарной (двучленной) ассоциации между кон-
текстом и фактом. Последние представлены на следующем
уровне схемы. Еще ниже мы видим, что контекстный узел
(.6)-это ассоциация между определенным местом (D, в.
классе) и временем {Е, в прошлом, поскольку учитель спра-
шивал Билла). Узел факта (С), подобно другим, может быть.
разбит на две части-подлежащее (.F) и сказуемое (G).
Но узел сказуемого тоже состоит из двух частей: в нем ассо-
циируются отношение (Я, глагол <спрашивать>) и объект-
(/, <Билл>).
Такова структура высказывания. Оно состоит из некото-
рого контекста и некоторого факта (хотя иногда, например-
в таких высказываниях, как <Мыши едят сыр>, контекст мо-
жет отсутствовать). Контекст (если он есть) слагается в.
свою очередь из места и времени. Факт-это подлежащее
плюс сказуемое, а сказуемое - отношение плюс объект. В са-
мой нижней строке схемы стоят единицы, не поддающиеся:
дальнейшему разложению. Они называются <терминальными
узлами> (терминальными - потому, что здесь ветвление за-
канчивается) . Эти узлы соответствуют основным понятиям
ДП, представленным здесь словами (точно так, как мы мог-
ли представить словами единицы и свойства в модели
ОСПЯ). Они служат для того, чтобы <привязать> высказы-
вание к ДП; это те фиксированные, точки, к которым можно
присоединить любое число деревьев. Таким образом, мы ви-
дим. что ДП подобна сети из таких деревьев (высказыва-
Ассоциация
Примеры
Контекст-Факт
вчера, дясон плакал
о школе
Место-Время -
дома
Париж
школа
мы едим
Ж2
вчера
Подлежащее-
Сказуемое
Отношение-
Объект
цезарь умер
моя тетка есть учительница
выше,чем Билл
любит суп
Класс Прошлое Преподаватель Спрашивать Билл
Рис. 8.2. Различные типы ассоциаций и их примеры (вверху) и схема вы-
сказывания <В классе учитель спрашивал Билла> (внизу) в соответствии
с моделью АПЧ (Anderson a. Bower, 1973).
Глава 8
ний), которые служат для ассоциации различных ячеек (со-
ответствующих терминальным узлам деревьев).
ПРОЦЕССЫ, ПРОТЕКАЮЩИЕ В МОДЕЛЯХ ОСПЯ И АПЧ
Итак, мы теперь знаем, что в сетевых моделях ДП обла-
дает структурой, основанной на ассоциациях. Но это лишь
часть дела. Эти модели, равно как и любая другая модель
ДП, немногого достигнут, если все сведется к одной лишь
структуре. Для того чтобы имитировать поведение человека
или предсказывать результаты экспериментов, касающихся
семантической памяти (которые будут рассмотрены несколь-
ко позже), модель должна отображать также и процессы.
Процессы действуют на структуру и участвуют вместе с ней
в кодировании, хранении и извлечении информации.
Например, в случае модели Куиллиана необходимо объ-
яснить, каким образом ОСПЯ приобретает новую информа-
цию, т. е. истолковывает лингвистические входы (что суще-
ственно для приобретения новой информации), и отвечает на
вопросы. Самый важный процесс, используемый с этой
целью, называется <поиском по пересечению>. Допустим, что
ОСПЯ пытается понять следующее предложение, подавае-
мое на вход: <Волк может укусить>. В этом предложении
названы некоторые понятия (<волк> и <укусить>). Процесс
поиска одновременно входит в ячейки ДП для каждого из
названных понятий, а затем следует по стрелкам, т. е. отхо-
дящим от этих ячеек путям. Всякий раз, когда какая-та
стрелка приводит к новому понятию, это понятие получает
метку, которая означает, что процесс поиска прошел через
данный пункт, и указывает, от какого понятия он сюда при-
шел. Возможно, что в какой-то момент один из путей поиска
приведет к понятию, которое уже было помечено (т. е. поиск
уже приводил к нему раньше). Эта точка представляет собой
пересечение. Если найдено пересечение, это значит, что дан-
ной точки можно достигнуть, ведя поиск от двух разных по-
нятий, и, следовательно, эти два понятия как-то связаны
между собой. Проверив, имеется ли в данной точке метка
и пройдя в обратном направлении путь, приведший к пере-
сечению, можно установить, какие именно понятия пересека-
ются и как они связаны между собой. Если связь между по-
нятиями в ДП совместима с их отношением во входном пред-
ложении, то можно сказать, что данное предложение понято.
Поиск по пересечению в модели ОСПЯ иллюстрирует
рис. 8.3. На нем изображена часть сетевой структуры ДП
(несколько более четко, чем .на рис. 8.1, с указанием всех
ДП: структура и семантическая переработка информации
элементов и свойств), содержащая понятия о некоторых жи-
вотных и их свойствах. Допустим, что мы ввели в ОСПЯ
предложение <Канарейка есть рыба>. Процесс поиска начнет-
ся в точках, соответствующих элементам <канарейка> и <ры-
ба>. На пути от <канарейки> будут помечены понятия <пти-
[ ] = Элемент
( ) = Свойство
-> = Стрелка
[Животное]
(Имеет крылья)
[Птица1+- (Летает)
(Имеет перья)
Гканореика] с "о) ,
- ~~ (Желтая)
(Лкла]
(Имеет колец)
(Может перемещаться)
( Ест)
(Дышит)
у (Имеет плавники)
[Рыба) - (Плавает)
~-(Имеет жабры)
Глпгпгь] - (Розовый)
" -(СьедоОвн)
(Кусается)
(Опасна)
Рис. 8.3. Фрагмент иерархической системы в модели памяти ОСПЯ; пока-
заны взаимоотношения между единицами и свойствами в пределах класса
<животные> (Collins a. Quillian, 1969).
ца>, <петь> и <желтый>; на пути от <рыбы>-понятия <плав-
ники>, <плавать> и <животное>. Наконец, когда поиск, иду-
щий от понятия <канарейка>, достигнет понятия <животное>,
там будет обнаружена метка с указанием на стрелку, веду-
щую сюда от понятия <рыба>. Пройдя в обратном направле-
нии пути, .приведшие к <животному>, можно выяснить отно-
шение между понятиями <рыба> и <канарейка>. Оно несов-
местимо с их отношением в высказывании, которое утверж-
дает, что <канарейка есть рыба>. Если бы, однако, это вы-
сказывание гласило, что <канарейка родственна рыбе>, то
оно подтвердилось бы. Сходным образом результаты поиска
могли бы подтвердить, что <канарейка имеет кожу> (был бы
найден путь от <канарейки> к <птице>, от <птицы> к <жи-
вотному> и от <животного> к <коже>), или привести к выво-
ду, что <канарейка может летать> (<канарейка есть птица>,
а <птица может летать>).
Рис. 8.4. Схема процесса соетоставлеиид в модели А.ПЧ, показывающая,
каким образом входное сообщение <Собака кусает Билла> сравнивается
с информацией, содержащейся в ДП.
В модели АПЧ процесс, соответствующий поиск) по пере-
сечению !B ОСПЯ, называется процессом <сопоставления>. Он
изображен на рис. 8.4. Этот процесс имеет своей целью свя-
зывать входную информацию с памятью, в результате чего
модель получает возможность интерпретировать эту инфор-
ДП: структура и семантическая переработка информации
мацию. Сначала система АПЧ пытается закодировать вход-
ную информацию (например, какое-либо предложение), пред-
ставив ее в виде дерева,-процесс кодирования, называе-
мый <разбором> входного сообщения. Затем она сопоставля-
ет терминальные-самые нижние-узлы схемы с соответ-
ствующими ячейками в ДП. (Если во входном сообщении
окажется незнакомое слово, оно не сможет быть сопоставле-
но с определенной ячейкой ДП; тогда в ДП образуется но-
вый узел, представляющий в ней это слово, и начинается
сбор информации об этом узле: каково правописание этого
слова, с какими словами оно ассоциируется в предложении
и каким образом.) Затем делается попытка найти в ДП де-
рево, сходное с входным деревом. Такой поиск начинается от
каждой ячейки ДП, соответствующей одному из слов вход-
ного предложения; это .поиск в сети ДП путей, соединяющих
терминальные узлы таким же образом, как они соединены
во входном сообщении. Иными словами, требуется найти та-
кое дерево ДП, которое соединяло бы те же понятия и таким
же образом, как и во входном сообщении. Когда такое дере-
во найдено, это значит, что соответствие между входным со-
общением и сетью ДП установлено и предложение понято.
Тот же процесс может быть использован при входных со-
общениях многих различных типов, например при вопросах.
Получив вопрос <Кто ударил Билла?>, система произведет
грамматический разбор вопроса и построит входное дерево,
в котором местоимение <кто> будет рассматриваться как про-
пуск, подлежащий заполнению. Она будет пытаться устано-
вить соответствие между остальными частями дерева и ин-
формацией, имеющейся в памяти. Если в памяти найдутся
сведения о том, что <Билла ударил Джон>, система сможет
заполнить пропуск и дать ответ на вопрос. (Этот пример не-
сколько тривиален, но описанный метод можно распростра-
нить на более сложные случаи ответов на вопросы.) Другая
важная особенность метода сопоставления в модели АПЧ
состоит в том, что его можно распространить на нелингвисти-
ческие входы, например <зрительные> (сцены). Некоторые
процессы в системе АПЧ предназначены для разбора или
описания таких входов путем построения деревьев, позволя-
ющих выяснять, что это за входы. С данным входом можно
сопоставить имеющиеся в памяти описания, в результате
чего система получает возможность распознать предъявлен-
ную картину. Короче говоря, процесс сопоставления выполня-
ет много функций, так как это основной механизм, который
позволяет связывать текущий опыт с приобретенными ранее
знаниями об окружающем мире и играет тем самым главную
роль в кодировании информации и IB ее извлечении.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43