Следуя моему предыдущему сообщению в блоге Высокоуровневый обзор вероятностной программной логики, мы рассмотрим суть PSL.

Примеры правил (атомов), которые мы обсуждали в предыдущем блоге, состоят из переменных и имеют обобщенный формат.

E.g.

2.0: Имя (A, имя_A) и имя (B, имя_B) и подобное (имя_A, имя_B) → samePerson (A, B)

Следовательно, мы называем эти правила «снятыми правилами». Если вы помните, что означает заземление, мы можем повторить и упомянуть, что эти правила еще не закреплены. Итак, первый шаг - заменить эти атомы фактическими значениями и получить набор основных правил, над которыми мы будем работать в дальнейшем.

Теперь нам нужно понять, как эти основные правила, основанные на «И» и «ИЛИ», интерпретируются таким образом, чтобы PSL могла их обрабатывать. С помощью булевой логики легко наблюдать преобразование основных правил в логические правила. Но с PSL, который имеет дело с Soft Logic, это немного сложнее, чем простые «1» или «0».

Давайте начнем с оценки того, будет ли правило «счастливым» или нет.

(Мы выясним, что именно означает счастье в правиле, после рассмотрения некоторых предварительных концепций).

«Счастье» правила будет мерой, основанной на значениях истинности тела правила (часть правила «если») и головы (часть правила «тогда»). Поскольку правила ведут себя как логическая логика, правила всегда будут истинными, если значения истинности тела низкие.

Если тело имеет высокие ценности истины, то счастье правила будет зависеть от того, счастлива ли голова.

В (1) правило считается счастливым, если Рэйчел и Моника на самом деле друзья. Поскольку мы упоминали если (Рэйчел, Фиби) друзья, и (Фиби, Моника) друзья то (Рэйчел, Моника) дружим, так и вышло.

Но в (2),, поскольку мы рассматриваем отношения «если и тогда», мы рассматриваем сценарий, в котором Рэйчел и Моника не друзья. Итак, поскольку эта голова будет низкой, правило не будет выполняться.

Так что мы все еще пытаемся передать здесь интуицию. Но нам нужно математически указать, что на самом деле делают эти функции. Для этого воспользуемся T-нормой Лукасевича.

Лукасевич Т-норма

T-нормы Лукасевича берут значения истинности тела логического правила (A и B) и оценивают минимально необходимое значение истинности головы для выполнения правила.

Здесь приведенное выше приведет к истинным значениям тела.

Согласно вышеизложенному, они могут вести себя точно так же, как логическая логика. Он способен выдавать 1 или 0, когда все значения истинности тела равны 1 и 0, и будет варьироваться в пределах от 0 до 1 для других значений мягкой истинности.

Здесь приведенное выше приведет к истинной ценности тела.

Согласно вышеизложенному, они могут вести себя точно так же, как логическая логика. Он способен выдавать 1 или 0, когда все значения истинности тела равны 1 и 0, и будет варьироваться в пределах от 0 до 1 для других значений мягкой истинности.

Счастье правила

Теперь, возвращаясь к правилу «Счастье», это также можно назвать удовлетворением правила. Но что на самом деле значит для правила быть счастливым или удовлетворенным?

Чтобы сказать, что правило выполняется, истинная ценность головы должна быть как минимум такой же большой, как у тела.

Пример:

Рассмотрим следующий пример, где B1 и B2 - это части тела основного правила, а H1 - заголовок.

Устанавливая значения истинности для атомов в теле, нам нужно найти минимальное значение истинности головы для выполнения правила.

Мы можем воплотить вышеизложенное в реальный сценарий:

(Рэйчел, Фиби) дружат с истинностью 0,7. (Фиби, Моника) дружат с истинностью 0,8. Итак, при каких условиях это правило будет выполняться?

Чтобы ответить на этот вопрос, мы решаем T-нормы Лукасевича, где B1 и B2 соответствуют A и B.

Согласно этому истинная ценность тела 0,5. Итак, правило будет удовлетворительным или удовлетворительным при любом значении головы ≥5. Это означает, что если истинность дружбы (Рэйчел, Моника) составляет не менее 0,5, то это правило транзитивности будет выполнено.

Поэтому, когда правило должно быть удовлетворено или удовлетворено, значение истинности головы должно быть или превышать 0,5 в приведенном выше случае. Но что происходит, когда значение истинности головы не превышает этого значения? Что происходит, когда правило не может быть удовлетворительным или удовлетворительным?

Здесь в контекст входит еще один показатель - «Расстояние до удовлетворения».

Расстояние до удовлетворения

«Расстояние» в общем смысле означает, насколько далеко человек от чего-то. Переходя к «расстоянию до удовлетворения», это просто означает, насколько далеко правило от выполнения. Когда ценность головы не превышает ценность тела, расстояние до удовлетворения может дать представление о том, как далеко правило от достижения такого удовлетворения.

Расстояние до удовлетворения зависит от следующего, что приведет либо к 0, либо к разнице между телом и головой.

В приведенных выше оценках счастья по нашему правилу удовлетворенность правилом была 0,5. Если мы присвоим голове значение истинности 0,7, это означает, что

Поскольку фактическое истинное значение тела было 0,5, а головы было 0,7, ясно, что это правило принесет счастье или удовлетворение, поскольку истинное значение головы больше, чем у тела. Таким образом, вычисляя расстояние до удовлетворения здесь, мы получаем 0,0 расстояние до удовлетворения, так как правило всегда будет выполняться, и в данном случае это не так далеко от удовлетворения.

Но теперь давайте рассмотрим негативный пример, когда истинность головы равна 0,3, а истинность тела остается прежней.

Эти расчеты позволяют определить, выполняется ли правило и насколько далеко от него. Но мы можем улучшить эти правила, добавив вес к каждому правилу, который даст нам «взвешенное расстояние до удовлетворения».

Подводя итог к этому моменту,

  • Есть набор известных отношений, которые обнаруживаются как предикаты. У них фиксированные значения истинности.
  • Но некоторые, возможно, не знали значений истинности, и в этом случае мы получаем взвешенное расстояние от удовлетворения. Вот где в игру вступает теория вероятностей.

Теория вероятности

Все возможные назначения могут быть представлены в виде распределения вероятностей и помещены в вероятностную модель. И вероятность будет определяться этими взвешенными расстояниями до удовлетворения.

Итак, продолжая, с возможными значениями веса от 0 до бесконечности, как мы решаем, какой вес будет присвоен каждому основному правилу?

Эта вероятностная модель воспроизводит дискриминационные модели. Итак, здесь мы определяем распределение вероятностей для различных присвоений значений истинности, которые дают нам различные интерпретации неизвестных атомов.

Это оставляет нам 1 заземление или 1 функцию для каждого основного правила в модели. Функция принимает расстояние до удовлетворения как свою ценность. Вес правила будет весить как параметр расстояния до удовлетворения.

Таким образом, согласно этой плотности вероятности, мы будем терять больше вероятностей по мере увеличения расстояния до удовлетворения. Кроме того, по мере увеличения веса правил мы начнем быстрее терять вероятности.

Чем выше вес правила → тем важнее выполнить это правило.

Эта модель является обобщением особого типа модели, называемой «Марковские случайные поля с потерей шарниров».

Марковские случайные поля с потерей шарниров

Функции Hinge-Loss - это способ представления затрат, понесенных в результате неправильной классификации или неточных прогнозов в машинном обучении. Потери на шарнирах широко используются в машинах опорных векторов (SVM) для классификации с максимальной маржой. Следовательно, марковское случайное поле с шарнирными потерями ответвляется от дискретных марковских случайных полей, за исключением того, что его функции являются шарнирными потерями [1].

Модели PSL всегда основаны на марковских случайных полях без шарниров.

Ссылки

[1] Бах, С. Х., Брохелер, М., Хуанг, Б., и Гетур, Л. (2015). Марковские случайные поля и вероятностная мягкая логика. Препринт arXiv arXiv: 1505.04406.