Sztuczna inteligencja/SI Moduł 4 - Wnioskowanie na podstawie wiedzy niepewnej i niepełnej: Różnice pomiędzy wersjami

Z Studia Informatyczne
Przejdź do nawigacjiPrzejdź do wyszukiwania
(Początkowa zawartość)
 
m (Zmiana numeracji wzorów)
Linia 73: Linia 73:
  
 
<!-- equation 1 -->
 
<!-- equation 1 -->
:<math>
+
<div style="float:right; vertical-align=middle;"><p>''(1)''</p></div><div style="text-align:center; vertical-align=middle;"><math>
 
\mathrm{Pr}(A|B) = \frac{\mathrm{Pr}(A)\mathrm{Pr}(B|A)}
 
\mathrm{Pr}(A|B) = \frac{\mathrm{Pr}(A)\mathrm{Pr}(B|A)}
 
{\mathrm{Pr}(B)}
 
{\mathrm{Pr}(B)}
  \,</math>''(1)''
+
  \,</math></div>
  
 
Zobaczymy, jak w najbardziej bezpośredni sposób można zależność taką
 
Zobaczymy, jak w najbardziej bezpośredni sposób można zależność taką
Linia 93: Linia 93:
  
 
<!-- equation 2 -->
 
<!-- equation 2 -->
:<math>
+
<div style="float:right; vertical-align=middle;"><p>''(2)''</p></div><div style="text-align:center; vertical-align=middle;"><math>
 
\mathrm{Pr}(h|F) = \frac{\mathrm{Pr}(h)\mathrm{Pr}(F|h)}
 
\mathrm{Pr}(h|F) = \frac{\mathrm{Pr}(h)\mathrm{Pr}(F|h)}
 
{\mathrm{Pr}(F)}
 
{\mathrm{Pr}(F)}
  \,</math>''(2)''
+
  \,</math></div>
  
 
gdzie <math>h \,</math> oznacza pewna hipoteze a <math>F \,</math> pewien zbiór faktów. Tak
 
gdzie <math>h \,</math> oznacza pewna hipoteze a <math>F \,</math> pewien zbiór faktów. Tak
Linia 124: Linia 124:
  
 
<!-- equation 3 -->
 
<!-- equation 3 -->
:<math>
+
<div style="float:right; vertical-align=middle;"><p>''(3)''</p></div><div style="text-align:center; vertical-align=middle;"><math>
 
\mathrm{Pr}(F) = \mathrm{Pr}(h_1)\mathrm{Pr}(F|h_1)+\dots+
 
\mathrm{Pr}(F) = \mathrm{Pr}(h_1)\mathrm{Pr}(F|h_1)+\dots+
 
\mathrm{Pr}(h_n)\mathrm{Pr}(F|h_n)
 
\mathrm{Pr}(h_n)\mathrm{Pr}(F|h_n)
  \,</math>''(3)''
+
  \,</math></div>
  
 
czyli:
 
czyli:
  
 
<!-- equation 4 -->
 
<!-- equation 4 -->
:<math>
+
<div style="float:right; vertical-align=middle;"><p>''(4)''</p></div><div style="text-align:center; vertical-align=middle;"><math>
 
\mathrm{Pr}(h_i|F) = \frac{\mathrm{Pr}(h_j)\mathrm{Pr}(F|h_i)}
 
\mathrm{Pr}(h_i|F) = \frac{\mathrm{Pr}(h_j)\mathrm{Pr}(F|h_i)}
 
{\sum_{j=1}^n\mathrm{Pr}(h_j)\mathrm{Pr}(F|h_j)}
 
{\sum_{j=1}^n\mathrm{Pr}(h_j)\mathrm{Pr}(F|h_j)}
  \,</math>''(4)''
+
  \,</math></div>
  
 
Oczywiście dla takich hipotez mamy:
 
Oczywiście dla takich hipotez mamy:
  
 
<!-- equation 5 -->
 
<!-- equation 5 -->
:<math>
+
<div style="float:right; vertical-align=middle;"><p>''(5)''</p></div><div style="text-align:center; vertical-align=middle;"><math>
 
\sum_{i=1}^n \mathrm{Pr}(h_i|F) = 1
 
\sum_{i=1}^n \mathrm{Pr}(h_i|F) = 1
  \,</math>''(5)''
+
  \,</math></div>
  
  
Linia 150: Linia 150:
 
<!-- begin{align}  TODO: kolumny-->
 
<!-- begin{align}  TODO: kolumny-->
 
:{| width="100%"
 
:{| width="100%"
|<!-- equation 6 --><math>\mathrm{Pr}(h|F) =  \frac{\mathrm{Pr}(h)\mathrm{Pr}(F|h)} {\mathrm{Pr}(h)\mathrm{Pr}(F|h)+ \mathrm{Pr}(\neg h)\mathrm{Pr}(F|\neg h)} \,</math>|| ''(6)''
+
| width="100%" align="center"|<!-- equation 6 --><math>\mathrm{Pr}(h|F) =  \frac{\mathrm{Pr}(h)\mathrm{Pr}(F|h)} {\mathrm{Pr}(h)\mathrm{Pr}(F|h)+ \mathrm{Pr}(\neg h)\mathrm{Pr}(F|\neg h)} \,</math>
 +
| align="right" | ''(6)''
 
|-
 
|-
|<!-- equation 7 --><math>\mathrm{Pr}(\neg h|F) =  \frac{\mathrm{Pr}(\neg h)\mathrm{Pr}(F|\neg h)} {\mathrm{Pr}(h)\mathrm{Pr}(F|h)+ \mathrm{Pr}(\neg h)\mathrm{Pr}(F|\neg h)} \,</math>|| ''(7)''
+
| width="100%" align="center"|<!-- equation 7 --><math>\mathrm{Pr}(\neg h|F) =  \frac{\mathrm{Pr}(\neg h)\mathrm{Pr}(F|\neg h)} {\mathrm{Pr}(h)\mathrm{Pr}(F|h)+ \mathrm{Pr}(\neg h)\mathrm{Pr}(F|\neg h)} \,</math>
 +
| align="right" | ''(7)''
 
|-
 
|-
  
Linia 185: Linia 187:
  
 
<!-- equation 8 -->
 
<!-- equation 8 -->
:<math>
+
<div style="float:right; vertical-align=middle;"><p>''(8)''</p></div><div style="text-align:center; vertical-align=middle;"><math>
 
\mathrm{Pr}(h|f_1) = \frac{\mathrm{Pr}(h)\mathrm{Pr}(f_1|h)}
 
\mathrm{Pr}(h|f_1) = \frac{\mathrm{Pr}(h)\mathrm{Pr}(f_1|h)}
 
{\mathrm{Pr}(f_1)}
 
{\mathrm{Pr}(f_1)}
  \,</math>''(8)''
+
  \,</math></div>
  
 
Jeśli teraz dokładając kolejny znany fakt <math>f_2 \,</math> rozważymy
 
Jeśli teraz dokładając kolejny znany fakt <math>f_2 \,</math> rozważymy
Linia 194: Linia 196:
  
 
<!-- equation 9 -->
 
<!-- equation 9 -->
:<math>
+
<div style="float:right; vertical-align=middle;"><p>''(9)''</p></div><div style="text-align:center; vertical-align=middle;"><math>
 
\begin{split}
 
\begin{split}
 
\mathrm{Pr}(h|f_1\land f_2)
 
\mathrm{Pr}(h|f_1\land f_2)
Linia 204: Linia 206:
 
{\mathrm{Pr}(f_1\land f_2)}
 
{\mathrm{Pr}(f_1\land f_2)}
 
\end{split}
 
\end{split}
  \,</math>''(9)''
+
  \,</math></div>
  
  
Linia 212: Linia 214:
 
<!-- begin{align}  TODO: kolumny-->
 
<!-- begin{align}  TODO: kolumny-->
 
:{| width="100%"
 
:{| width="100%"
|<!-- equation 10 --><math>\mathrm{Pr}(f_2|f_1\land h) =  \mathrm{Pr}(f_2|h) \,</math>|| ''(10)''
+
| width="100%" align="center"|<!-- equation 10 --><math>\mathrm{Pr}(f_2|f_1\land h) =  \mathrm{Pr}(f_2|h) \,</math>
 +
| align="right" | ''(10)''
 
|-
 
|-
|<!-- equation 11 --><math>\mathrm{Pr}(f_1|f_2\land h) =  \mathrm{Pr}(f_1|h) \,</math>|| ''(11)''
+
| width="100%" align="center"|<!-- equation 11 --><math>\mathrm{Pr}(f_1|f_2\land h) =  \mathrm{Pr}(f_1|h) \,</math>
 +
| align="right" | ''(11)''
 
|-
 
|-
  
Linia 223: Linia 227:
  
 
<!-- equation 12 -->
 
<!-- equation 12 -->
:<math>
+
<div style="float:right; vertical-align=middle;"><p>''(12)''</p></div><div style="text-align:center; vertical-align=middle;"><math>
 
\mathrm{Pr}(h|f_1\land f_2)
 
\mathrm{Pr}(h|f_1\land f_2)
 
= \frac{\mathrm{Pr}(h)\mathrm{Pr}(f_1|h)\mathrm{Pr}(f_2|h)}
 
= \frac{\mathrm{Pr}(h)\mathrm{Pr}(f_1|h)\mathrm{Pr}(f_2|h)}
 
{\mathrm{Pr}(f_1\land f_2)}
 
{\mathrm{Pr}(f_1\land f_2)}
  \,</math>''(12)''
+
  \,</math></div>
  
 
Wyprowadzenie to można analogicznie powtórzyć dla dowolnej liczby
 
Wyprowadzenie to można analogicznie powtórzyć dla dowolnej liczby
Linia 233: Linia 237:
  
 
<!-- equation 13 -->
 
<!-- equation 13 -->
:<math>
+
<div style="float:right; vertical-align=middle;"><p>''(13)''</p></div><div style="text-align:center; vertical-align=middle;"><math>
 
\mathrm{Pr}(h|f_1\land f_2\land\dots\land f_m)
 
\mathrm{Pr}(h|f_1\land f_2\land\dots\land f_m)
 
= \frac{\mathrm{Pr}(h)\prod_{k=1}^m\mathrm{Pr}(f_k|h)}
 
= \frac{\mathrm{Pr}(h)\prod_{k=1}^m\mathrm{Pr}(f_k|h)}
 
{\mathrm{Pr}(f_1\land f_2\land\dots\land f_k)}
 
{\mathrm{Pr}(f_1\land f_2\land\dots\land f_k)}
  \,</math>''(13)''
+
  \,</math></div>
  
 
Aby posłużyć się nim w celu obliczenia bezwzględnych prawdopodobieństw
 
Aby posłużyć się nim w celu obliczenia bezwzględnych prawdopodobieństw
Linia 247: Linia 251:
  
 
<!-- equation 14 -->
 
<!-- equation 14 -->
:<math>
+
<div style="float:right; vertical-align=middle;"><p>''(14)''</p></div><div style="text-align:center; vertical-align=middle;"><math>
 
\mathrm{Pr}(f_1\land f_2\land\dots\land f_m)
 
\mathrm{Pr}(f_1\land f_2\land\dots\land f_m)
 
= \sum_{i=1}^n\mathrm{Pr}(h_i)\prod_{k=1}^m\mathrm{Pr}(f_k|h_i)
 
= \sum_{i=1}^n\mathrm{Pr}(h_i)\prod_{k=1}^m\mathrm{Pr}(f_k|h_i)
  \,</math>''(14)''
+
  \,</math></div>
  
 
W szczególności dla zbioru dwóch wykluczających się hipotez
 
W szczególności dla zbioru dwóch wykluczających się hipotez
Linia 257: Linia 261:
 
<!-- begin{align}  TODO: kolumny-->
 
<!-- begin{align}  TODO: kolumny-->
 
:{| width="100%"
 
:{| width="100%"
|<!-- equation 15 --><math>\mathrm{Pr}(f_1\land f_2\land\dots\land f_m) = \mathrm{Pr}(h)\prod_{k=1}^m\mathrm{Pr}(f_k|h) + \mathrm{Pr}(\neg h)\prod_{k=1}^m\mathrm{Pr}(f_k|\neg h) \,</math>|| ''(15)''
+
| width="100%" align="center"|<!-- equation 15 --><math>\mathrm{Pr}(f_1\land f_2\land\dots\land f_m) = \mathrm{Pr}(h)\prod_{k=1}^m\mathrm{Pr}(f_k|h) + \mathrm{Pr}(\neg h)\prod_{k=1}^m\mathrm{Pr}(f_k|\neg h) \,</math>
 +
| align="right" | ''(15)''
 
|-
 
|-
  
Linia 302: Linia 307:
 
<!-- nonumber -->
 
<!-- nonumber -->
 
:{| width="100%"
 
:{| width="100%"
|<!-- equation 15 --><math>\mathrm{Pr}(h) =  \;  0.1  \;  \mathrm{Pr}(\neg h) =  \;  0.9 \,</math>
+
| width="100%" align="center"|<!-- equation 15 --><math>\mathrm{Pr}(h) =  \;  0.1  \;  \mathrm{Pr}(\neg h) =  \;  0.9 \,</math>
 
|-
 
|-
|<!-- equation 15 --><math>\mathrm{Pr}(f_1|h) =  \;  0.5  \;  \mathrm{Pr}(f_1|\neg h) =  \;  0.3 \,</math>
+
| width="100%" align="center"|<!-- equation 15 --><math>\mathrm{Pr}(f_1|h) =  \;  0.5  \;  \mathrm{Pr}(f_1|\neg h) =  \;  0.3 \,</math>
 
|-
 
|-
|<!-- equation 15 --><math>\mathrm{Pr}(f_2|h) =  \;  0.3  \;  \mathrm{Pr}(f_2|\neg h) =  \;  0.3 \,</math>
+
| width="100%" align="center"|<!-- equation 15 --><math>\mathrm{Pr}(f_2|h) =  \;  0.3  \;  \mathrm{Pr}(f_2|\neg h) =  \;  0.3 \,</math>
 
|-
 
|-
|<!-- equation 15 --><math>\mathrm{Pr}(f_3|h) =  \;  0.8  \;  \mathrm{Pr}(f_3|\neg h) =  \;  0.4 \,</math>
+
| width="100%" align="center"|<!-- equation 15 --><math>\mathrm{Pr}(f_3|h) =  \;  0.8  \;  \mathrm{Pr}(f_3|\neg h) =  \;  0.4 \,</math>
 
|-
 
|-
  
Linia 320: Linia 325:
 
<!-- nonumber -->
 
<!-- nonumber -->
 
:{| width="100%"
 
:{| width="100%"
|<!-- equation 15 --><math>\mathrm{Pr}(f_1) =  \mathrm{Pr}(h)\mathrm{Pr}(f_1|h) + \mathrm{Pr}(\neg h)\mathrm{Pr}(f_1|\neg h) = 0.1\cdot 0.5+0.9\cdot 0.3 = 0.32 \,</math>
+
| width="100%" align="center"|<!-- equation 15 --><math>\mathrm{Pr}(f_1) =  \mathrm{Pr}(h)\mathrm{Pr}(f_1|h) + \mathrm{Pr}(\neg h)\mathrm{Pr}(f_1|\neg h) = 0.1\cdot 0.5+0.9\cdot 0.3 = 0.32 \,</math>
 
|-
 
|-
|<!-- equation 15 --><math>\mathrm{Pr}(f_2) =  \mathrm{Pr}(h)\mathrm{Pr}(f_2|h) + \mathrm{Pr}(\neg h)\mathrm{Pr}(f_2|\neg h) = 0.1\cdot 0.3+0.9\cdot 0.3 = 0.3 \,</math>
+
| width="100%" align="center"|<!-- equation 15 --><math>\mathrm{Pr}(f_2) =  \mathrm{Pr}(h)\mathrm{Pr}(f_2|h) + \mathrm{Pr}(\neg h)\mathrm{Pr}(f_2|\neg h) = 0.1\cdot 0.3+0.9\cdot 0.3 = 0.3 \,</math>
 
|-
 
|-
|<!-- equation 15 --><math>\mathrm{Pr}(f_3) =  \mathrm{Pr}(h)\mathrm{Pr}(f_3|h) + \mathrm{Pr}(\neg h)\mathrm{Pr}(f_3|\neg h) = 0.1\cdot 0.8+0.9\cdot 0.4 = 0.44 \,</math>
+
| width="100%" align="center"|<!-- equation 15 --><math>\mathrm{Pr}(f_3) =  \mathrm{Pr}(h)\mathrm{Pr}(f_3|h) + \mathrm{Pr}(\neg h)\mathrm{Pr}(f_3|\neg h) = 0.1\cdot 0.8+0.9\cdot 0.4 = 0.44 \,</math>
 
|-
 
|-
  
Linia 337: Linia 342:
 
<!-- nonumber -->
 
<!-- nonumber -->
 
:{| width="100%"
 
:{| width="100%"
|<!-- equation 15 --><math>\mathrm{Pr}(h|f_1) =  \frac{\mathrm{Pr}(h)\mathrm{Pr}(f_1|h)}{\mathrm{Pr}(f_1)} = \frac{0.1\cdot 0.5}{0.32} = 0.15625 \,</math>
+
| width="100%" align="center"|<!-- equation 15 --><math>\mathrm{Pr}(h|f_1) =  \frac{\mathrm{Pr}(h)\mathrm{Pr}(f_1|h)}{\mathrm{Pr}(f_1)} = \frac{0.1\cdot 0.5}{0.32} = 0.15625 \,</math>
 
|-
 
|-
|<!-- equation 15 --><math>\mathrm{Pr}(h|f_2) =  \frac{\mathrm{Pr}(h)\mathrm{Pr}(f_2|h)}{\mathrm{Pr}(f_2)} = \frac{0.1\cdot 0.3}{0.33} = 0.1 \,</math>
+
| width="100%" align="center"|<!-- equation 15 --><math>\mathrm{Pr}(h|f_2) =  \frac{\mathrm{Pr}(h)\mathrm{Pr}(f_2|h)}{\mathrm{Pr}(f_2)} = \frac{0.1\cdot 0.3}{0.33} = 0.1 \,</math>
 
|-
 
|-
|<!-- equation 15 --><math>\mathrm{Pr}(h|f_3) =  \frac{\mathrm{Pr}(h)\mathrm{Pr}(f_3|h)}{\mathrm{Pr}(f_3)} = \frac{0.1\cdot 0.8}{0.44} = 0.18182 \,</math>
+
| width="100%" align="center"|<!-- equation 15 --><math>\mathrm{Pr}(h|f_3) =  \frac{\mathrm{Pr}(h)\mathrm{Pr}(f_3|h)}{\mathrm{Pr}(f_3)} = \frac{0.1\cdot 0.8}{0.44} = 0.18182 \,</math>
 
|-
 
|-
  

Wersja z 08:43, 1 lip 2006

\maketitle

Niedoskonała wiedza we wnioskowaniu

Metody wnioskowania w logice predykatów są - pod warunkiem korzystania z poprawnego systemu wnioskowania - niezawodne jeśli chodzi o prawdziwość wyciąganych wniosków. Oparte są one jednak na koniecznym założeniu, że stwierdzenia zawarte w początkowej bazie wiedzy i uznawane za prawdziwe są rzeczywiście prawdziwe. Pod warunkiem ich prawdziwości prawdziwe są także stwierdzenia wyprowadzane w wyniku wnioskowania. Założenie to może często nie być spełnione w odniesieniu do wiedzy, którą posiada człowiek - a przecież od niego musi pochodzić początkowa zawartość bazy wiedzy. Wiedza pochodząca od człowieka może być niedoskonała. Stosując do takiej wiedzy metody zakładające doskonałą wiedzę jesteśmy narażeni na uzyskiwanie wniosków, które nie muszą być prawdziwe i o których prawdziwości nie potrafimy nic powiedzieć. Celowe jest w związku z tym wyposażanie systemów wnioskujących na podstawie niedoskonałej wiedzy w specjalne mechanizmy jej przetwarzania, dzięki którym będzie możliwe charakteryzowanie rodzaju i stopnia niedoskonałości wiedzy pochodzącej od człowieka, a także nowej wiedzy wyprowadzonej na jej podstawie przez system wnioskujący.

Rodzaje niedoskonałości wiedzy

Wnikając głębiej w naturę niedoskonałości ludzkiej wiedzy można wskazać przynajmniej jej trzy podstawowe rodzaje:

  • niepewność: prawdziwość niektórych stwierdzeń nie jest pewna,
  • niepełność: niektóre prawdziwe stwierdzenia nie są znane, lecz nie można z tego powodu zakładać ich nieprawdziwości,
  • niedokładność: przynależność do niektórych relacji, odpowiadających predykatom występującym w stwierdzeniach, nie jest znana dokładnie.

W przypadku wiedzy niepewnej mamy do czynienia ze stwierdzeniami , o których w ogólnym przypadku nie można powiedzieć z pewnością, że są prawdziwe albo fałszywe. Potrzebne są w tym celu jakieś metody charakteryzowania stopnia przekonania o prawdziwości stwierdzeń - zarówno należących do początkowej bazy wiedzy, jak i uzyskiwanych w wyniku głosowania. Niepełność wiedzy oznacza, że status prawdziwości pewnych stwierdzeń potrzebnych do wnioskowania nie jest znany. Może to wymagać założenia ich prawdziwości w celu przeprowadzenia wnioskowania, lecz z pozostawieniem możliwości rewizji tego wnioskowania, gdyby następnie pojawiła się wiedza zaprzeczająca temu założeniu. Niedokładność polega na niemożliwości precyzyjnego odróżnienia w dziedzinie, na temat której zapisujemy wiedzę, obiektów należących do pewnej relacji od obiektów do niej nienależących.

Metody przetwarzania niedoskonałej wiedzy

Istnieje wiele technik przetwarzania wiedzy obarczonej różnymi rodzajami niedoskonałości w taki sposób, aby prowadzone na jej podstawie wnioskowanie prowadziło do wniosków, których „jakość” można w pewien sposób scharakteryzować, czyli odpowiedzieć na pytanie, jak bardzo doskonałe bądź niedoskonałe wnioski można wyciągnąć na podstawie niedoskonałej wiedzy. Do najbardziej znanych metod należą:

  • wnioskowanie probabilistyczne: metoda przetwarzania wiedzy niepewnej oparta na bezpośrednim wykorzystaniu rachunku prawdopodobieństwa, w której poszczególnym stwierdzeniom przypisuje się prawdopodobieństwo ich prawdziwości,
  • stopnie pewności: metoda przetwarzania wiedzy niepewnej, w której poszczególnym stwierdzeniom przypisuje się liczbowe stopnie pewności wyrażające subiektywne przekonanie człowieka o ich prawdziwości,
  • teoria Dempstera-Schaffera: metoda przetwarzania wiedzy niepewnej, w której prawdopodobieństwa prawdziwości przypisuje się tylko wybranym stwierdzeniom bazowym, a ocenę wiarygodności innych stwierdzeń przeprowadza się na podstawie ich związków ze stwierdzeniami bazowymi,
  • Logika rozmyta: metoda przetwarzania wiedzy niedokładnej, w której rozważa się „częściową” przynależność do relacji,
  • Logiki niemonotoniczne: metody przetwarzania wiedzy niepełnej, w których dopuszcza się, że pojawienie się nowych stwierdzeń może anulować wyprowadzenie wcześniejszych formuł.

W dalszym ciągu skupimy się na dwóch podejściach: wnioskowaniu probabilistycznym i logice rozmytej.

Wnioskowanie bayesowskie

Wnioskowanie probabilistyczne nazywamy także wnioskowaniem bayesowskim, ze względu na kluczową rolę, jaką w nim pełni wzór Bayesa - jeden z klasycznych wyników rachunku prawdopodobieństwa. Dla dowolnych dwóch zdarzeń i wzór opisuje następującą zależność prawdopodobieństw warunkowych:


(1)

Zobaczymy, jak w najbardziej bezpośredni sposób można zależność taką wykorzystać do wnioskowania.

Uprawdopodobnianie hipotez przez fakty

Przyjmijmy, że wśród stwierdzeń, jakie są przetwarzane przy wnioskowaniu, wyróżnimi dwie kategorie:

  • fakty: stwierdzenia dotyczące dziedziny, których prawdziwość jest znana,
  • hipotezy: stwierdzenia o nieznanym prawdopodobieństwie prawdziwości.

Interesuje nas wnioskowanie o prawdziwości możliwych hipotez przy założeniu prawdziwości pewnego zestawu faktów. Aby zademonstrować, jak to jest możliwe, zapiszmy wzór Bayesa ze zmienionymi oznaczeniami:

(2)

gdzie oznacza pewna hipoteze a pewien zbiór faktów. Tak interpretowany wzór Bayesa mówi, w jaki sposób na prawdopodobieństwo rozważanej hipotezy wpływa znajomość faktów. Zwróćmy szczególną uwagę na dwa występujące w nim prawdopodobieństwa dotyczące hipotezy:

  • : prawdopodobieństwo a priori hipotezy (bez znajomości lub uwzględniania żadnych faktów),
  • : prawdopodobieństwo a posteriori hipotezy po uwzglednieniu faktow .

Możemy powiedzieć, że wzór Bayesa, podając przepis na wyznaczenie prawdopodobieństwa a posteriori, określa wpływ faktów na uprawdopodobnienie (albo unieprawdopodobnienie) hipotezy. Bezpośrednie zastosowanie w przedstawiony sposób wzoru Bayesa można traktować jako elementarny krok wnioskowania bayesowskiego, który jest w pewnym sensie odpowiednikiem zastosowania reguły wnioskowania w logice.

Zauważmy, że prawdopodobieństwo występujące w mianowniku ułamka nie zależy od rozważanej hipotezy. Wynika z tego, że gdyby interesowało nas wyłącznie wybranie hipotezy najbardziej prawdopodobnej z pewnego zestawu, wystarczy ograniczyć się do obliczenia licznika ułamka. Aby poznać dokładne, bezwzględne wartości prawdopodobieństw \emph{a posteriori} poszczególnych hipotez, należy wziąć pod uwagę sytuację, w której mamy skończoną liczbę możliwych hipotez wykluczających się parami i~wyczerpujących wszystkie możliwości (czyli takich, że dokładnie jedna z nich jest prawdziwa). Wówczas:

(3)

czyli:

(4)

Oczywiście dla takich hipotez mamy:

(5)


W szczególności biorąc pod uwagę dwie wykluczające się hipotezy i dostajemy w ten sposób:

(6)
(7)


Uwzględnianie pojedynczych faktów

Dotychczas pokazaliśmy, jak można wyznaczyć prawdopodobieństwo \emph{a posteriori} hipotezy na podstawie zbioru znanych faktow , pod warunkiem znajomości prawdopodobieństwa a priori i prawdopodobieństwa faktów przy założeniu prawdziwości hipotezy . Koniecznośc ustalenia prawdopodobieństwa a priori jest naturalną właściwością wnioskowania bayesowskiego - za pomocą tego prawdopodobieństwa wyrażamy aprioryczne przekonanie o prawdziwości hipotezy, bez uwzględniania jakichkolwiek faktów. Bardziej problematyczne jest określanie prawdopodobieństwa , gdyz może oznaczać dowolny zbiór znanych faktów. Jeśli mamy ustalony pewien zbiór wszystkich możliwych faktów, które mogą być uwzględniane przy wnioskowaniu, to może być jego dowolnym podzbiorem. Bezpośrednie przypisanie każdemu podzbiorowi prawdopodobieństwa na ogół przekraczałoby możliwości eksperta czy użytkownika systemu wnioskującego.

Szczęśliwie przy pewnych założeniach można uniknąc konieczności określania dla dowolnego , opierając się wyłącznie na prawdopodobieństwach dla pojedynczych faktów , gdzie . Dla dowolnego faktu możemy stosując wzór Bayesa uzyskać:

(8)

Jeśli teraz dokładając kolejny znany fakt rozważymy dwuelementowy zbiór faktów , otrzymujemy:

(9)

Parser nie mógł rozpoznać (nieznana funkcja „\begin{split}”): {\displaystyle \begin{split} \mathrm{Pr}(h|f_1\land f_2) = & \frac{\mathrm{Pr}(h|f_1)\mathrm{Pr}(f_2|f_1\land h)} {\mathrm{Pr}(f_2|f_1)} = & \frac{\mathrm{Pr}(h)\mathrm{Pr}(f_1|h)\mathrm{Pr}(f_2|f_1\land h)} {\mathrm{Pr}(f_1)\mathrm{Pr}(f_2|f_1)} = & \frac{\mathrm{Pr}(h)\mathrm{Pr}(f_1|h)\mathrm{Pr}(f_2|f_1\land h)} {\mathrm{Pr}(f_1\land f_2)} \end{split} \,}


Jeśli teraz założymy, że pojedyncze fakty są warunkowo niezależne względem hipotezy, czyli:

(10)
(11)

to możemy dalej uzyskać:

(12)

Wyprowadzenie to można analogicznie powtórzyć dla dowolnej liczby pojedynczych faktów, co prowadzi do ogólnego wzoru:

(13)

Aby posłużyć się nim w celu obliczenia bezwzględnych prawdopodobieństw a posteriori, należy tak jak poprzednio wziąć pod uwagę zbiór hipotez wykluczających się parami i wyczerpujących wszystkie możliwości. Wówczas, przy założeniu warunkowej niezależności faktów względem każdej hipotezy, mianownik powyższego ułamka może być wyznaczony w następujący sposób:

(14)

W szczególności dla zbioru dwóch wykluczających się hipotez dostajemy w ten sposób:

(15)


W ten sposób uzyskaliśmy prosty mechanizm wnioskowania bayesowskiego, w którym możemy wyznaczać prawdopodobieństwa a posteriori dowolnych hipotez na podstawie znajomości dowolnych zbiorów faktów, pod warunkiem określenia prawdopodobieństw a priori każdej hipotezy oraz prawdopodobieństw każdego pojedynczego faktu pod warunkiem prawdziwości każdej hipotezy. Prawdopodobieństwa te stanowią reprezentację niepewnej wiedzy o dziedzinie wnioskowania, która musi być dostarczona systemowi wnioskującemu. Określenie tych prawdopodobieństw w rozsądny sposób jest często możliwe, chociaż oczywiście może niekiedy być trudne.

Ogólność przedstawionego mechanizmu wnioskowania bayesowskiego ogranicza przyjęte założenie o warunkowej niezależności faktów względem hipotez. Założenie to nie musi być spełnione w wielu praktycznych sytuacjach, a co gorsza - może być ono niekiedy1 niemożliwe do weryfikacji. Znane są bardziej zaawansowane algorytmy wnioskowania bayesowskiego odstępujące od tego założenia, oparte na tzw. sieciach bayesowskich.

Przykład: diagnostyka grypy. Rozważmy następującą prostą ilustrację przedstawionego mechanizmu wnioskowania, traktując rozważane w niej przykładowe fakty i hipotezy z należnym dystansem. Weźmiemy pod uwagę sytuację, w której diagnozując dolegliwości pacjenta ograniczono zbiór możliwych diagnoz do następujących dwóch wykluczających się hipotez:

  • : pacjent jest chory na grypę,
  • : pacjent nie jest chory na grypę.

Podstawą do wnioskowania mogą być następujące pojedyncze fakty:

  • : pacjent ma katar,
  • : pacjent ma kaszel,
  • : pacjent ma gorączkę.

Przyjmijmy, że dostarczający wiedzę do systemu diagnostycznego ekspert ustalił następujące wartości prawdopodobieństw:


Na tej podstawie możemy obliczyć prawdopodobieństwa faktów:

Aby wyznaczyć prawdopodobieństwa a posteriori rozważanych hipotez na podstawie każdego z pojedynczych objawów stosujemy bezpośrednio wzór Bayesa:

Przeprowadzenie obliczeń prawdopodobieństw a posteriori rozważanych hipotez na podstawie dowolnych dwóch objawów oraz wszystkich trzech objawów pozostawiamy jako ćwiczenie.

Wnioskowanie rozmyte