Typ tekstu: Książka
Autor: Szaniawski Klemens
Tytuł: O nauce, rozumowaniu i wartościach
Rok: 1994
p(x, s) . Można to zilustrować na dwóch konkretnych przykładach.
Jeśli dla danego U istnieje działanie o największej użyteczności, tzn. jeśli spełnione jest: to spełnione jest także (12) i C(X, S; U) = 0 dla dowolnego rozkładu prawdopodobieństwa p(x, s) .
Ponadto, jeśli zmienne X i S są stochastycznie niezależne, tzn. jeśli zachodzi: to S jest niezależne od X z uwagi na U oraz C(X, S; U) = 0 dla dowolnego U . Dowód jest prosty: zakładając (15) otrzymujemy:.

3. Informacja statystyczna

Miarę Shannona, często nazywaną informacją statystyczną, definiuje się jako:. W powyższym wyrażeniu H(S) jest entropią zmiennej S , czyli wartością
p(x, s) . Można to zilustrować na dwóch konkretnych przykładach.<br> Jeśli dla danego U istnieje działanie o największej użyteczności, tzn. jeśli spełnione jest:&lt;gap&gt; to spełnione jest także (12) i C(X, S; U) = 0 dla dowolnego rozkładu prawdopodobieństwa p(x, s) .<br> Ponadto, jeśli zmienne X i S są stochastycznie niezależne, tzn. jeśli zachodzi:&lt;gap&gt; to S jest niezależne od X z uwagi na U oraz C(X, S; U) = 0 dla dowolnego U . Dowód jest prosty: zakładając (15) otrzymujemy:&lt;gap&gt;.<br><br>&lt;tit&gt;3. Informacja statystyczna&lt;/&gt;<br><br> Miarę Shannona, często nazywaną informacją statystyczną, definiuje się jako:&lt;gap&gt;. W powyższym wyrażeniu H(S) jest entropią zmiennej S , czyli wartością
zgłoś uwagę
Przeglądaj słowniki
Przeglądaj Słownik języka polskiego
Przeglądaj Wielki słownik ortograficzny
Przeglądaj Słownik języka polskiego pod red. W. Doroszewskiego