ED-4.2-m08-1.0-Slajd27

Z Studia Informatyczne
Wersja z dnia 10:05, 10 wrz 2006 autorstwa ALesniewska (dyskusja | edycje)
(różn.) ← poprzednia wersja | przejdź do aktualnej wersji (różn.) | następna wersja → (różn.)
Przejdź do nawigacjiPrzejdź do wyszukiwania

Przykład 2 (4)

Przykład 2 (4)


Entropia podziału zbioru S na partycje wg atrybutu A zgodnie ze wzorem ze slajdu 21 wynosi 0.694. Zauważmy, że wagi wyrażeń I we wzorze na entropię są równe: 5/14 ponieważ partycja S1 składa się z 5 rekordów natomiast cały zbiór treningowy zawiera 14 rekordów, 4/14 – partycja S2 składa się z 4 rekordów i partycja S3 składa się z 5 rekordów. Zysk informacyjny wynikający z podziału zbioru S wg atrybutu wiek wynosi 0.246 i jest równy różnicy wartości oczekiwanej ilości informacji niezbędnej do zaklasyfikowania dowolnego przykładu ze zbioru S minus entropia atrybutu Wiek.


<< Poprzedni slajd | Spis treści | Następny slajd >>