Программирование на языке ПРОЛОГ для искуственного интеллекта

       

Разработка оболочки


Если мы посмотрим на правила наших двух маленьких баз знаний рис. 14.5 и 14.7, мы сразу увидим, что они по своему смыслу эквивалентны правилам Пролога. Однако, с точки зрения синтаксиса Пролога, эти правила в том виде, как они написаны, соответствуют всего лишь фактам. Для того, чтобы заставить их работать, самое простое, что может прийти в голову, это переписать их в виде настоящих прологовских правил. Например:

        Животное это млекопитающее :-
                Животное имеет шерсть;
                Животное 'кормит детенышей' молоком.

        Животное это хищник :-
                Животное это млекопитающее,
                Животное ест мясо.
        . . .

Теперь эта программа сможет подтвердить, что тигр по имени Питер - это действительно тигр, если мы добавим в нее некоторые из свойств Питера (в виде прологовских фактов):

        питер имеет шерсть.
        питер ленив.
        питер большой.
        питер имеет 'рыжевато-коричневый цвет'.


        питер имеет 'черные полосы'.
        питер ест мясо.

Тогда мы можем спросить:

        ?-  питер это тигр.
        yes

        ?-  питер это гепард.
        no

Хотя пролог-система и отвечает на вопросы, используя для этого нашу базу знаний, нельзя сказать, что ее поведение вполне соответствует поведению эксперта.
Это происходит по крайней мере по двум причинам:

(1)        Мы не можем попросить систему объяснить свой ответ; например, как она установила, что Питер это тигр, и почему Питер это не гепард.

(2)        Прежде, чем задать вопрос, нужно ввести в систему всю необходимую информацию (в виде прологовских фактов). Но тогда пользователь, возможно, введет какую-нибудь лишнюю информацию (как в нашем примере) или же упустит какую-нибудь информацию, имеющую решающее значение. В первом случае будет проделана ненужная работа, а во втором - система будет давать неверные ответы.

Для того, чтобы исправить эти два недостатка, мы нуждаемся в более совершенном способе взаимодействия между пользователем и системой во время и после завершения процесса рассуждений. Поставим себе целью добиться того, чтобы система взаимодействовала с пользователем так, как в следующем примере диалога (ответы пользователя даются полужирным шрифтом, реплики пролог-системы - курсивом):

        Пожалуйста, спрашивайте:
        питер это тигр.

        Это правда: питер имеет шерсть?
        да.

        Это правда: питер ест мясо?
        нет.

        Это правда: питер имеет острые зубы?
        да.

        Это правда: питер имеет когти?
        почему.

        Чтобы проверить по прав3, что питер это хищник,
        Чтобы проверить по прав5, что питер это тигр
        Это был ваш вопрос

        Это правда: питер имеет когти?
        да.



        Это правда: питер имеет глаза, направленные вперед?
        да.

        Это правда: питер имеет рыжевато-коричневый цвет?
        да.

        Это правда: питер имеет черные полосы?
        да.

        (питер это тигр) это правда
        Хотите узнать, как?
        да.

       

        питер это тигр
          было выведено по прав5 из
            питер это хищник,
              было выведено по прав3 из
                питер это млекопитающее
                  было выведено по прав1 из
                    питер имеет шерсть
                      было сказано
                и
                питер имеет острые зубы
                  было сказано
                и
                питер имеет когти


                  было сказано
                и
                питер имеет глаза, направленные вперед
                  было сказано
            и
            питер имеет рыжевато-коричневый цвет
              было сказано
            и
            питер имеет черные полосы
              было сказано

Как видно из диалога, система задает пользователю вопросы, касающиеся "примитивной" информации, например:

        Это  правда:   питер  ест  мясо?

Эту информацию нельзя отыскать в базе знаний или вывести из другой информации. На подобные вопросы пользователь может отвечать двумя способами:

(1)        сообщив системе в качестве ответа на вопрос необходимую информацию или

(2)        спросив систему, почему эта информация необходима.

Последняя из двух возможностей полезна, поскольку она позволяет пользователю заглянуть внутрь системы и увидеть ее текущие намерения. Пользователь спросит "почему" в том случае, когда вопрос системы покажется ему не относящимся к делу либо когда ответ на вопрос системы потребует от него дополнительных усилий. Из объяснений системы пользователь поймет, стоит ли информация, которую запрашивает система, тех дополнительных усилий, которые необходимо приложить для ее приобретения.Предположим, например, что система спрашивает: "Это животное ест мясо?" Пользователь, не знающий ответа на этот вопрос, поскольку он никогда не видел, как это животное ело что-либо, может решить, что не стоит ждать, пока он застанет животное за едой и убедится, что оно действительно ест мясо.

Для того, чтобы заглянуть внутрь системы и до какой-то степени представить себе протекающий в ней процесс рассуждений, можно воспользоваться прологовскими средствами трассировки. Но эти средства в большинстве случаев окажутся недостаточно гибкими для наших целей. Поэтому, вместо того, чтобы воспользоваться собственным механизмом интерпретации Пролога, который не сможет справиться с нужным нам способом взаимодействия с пользователем, мы создадим свое средство интерпретации в виде специальной надстройки над пролог-системой. Этот новый интерпретатор будет включать в себя средства для взаимодействия с пользователем.


Содержание раздела