Rachunek prawdopodobieństwa i statystyka/Wykład 6: Rozkłady prawdopodobieństwa i zmienne losowe

From Studia Informatyczne

Zajmiemy się tak zwanymi zmiennymi losowymi. Ponieważ każda taka zmienna generuje przestrzeń probabilistyczną na zbiorze liczb rzeczywistych, najpierw przyjrzymy się miarom probabilistycznym na {\Bbb R}, czyli tak zwanym rozkładom. Zajmiemy się dwiema klasami rozkładów: rozkładami dyskretnymi i rozkładami ciągłymi. Zdefiniujemy pojęcie niezależności zmiennych losowych.

Spis treści

Rozkład prawdopodobieństwa



Prawie wszystkie wielkości, z którymi mamy do czynienia, mają (mniej lub bardziej) losowy charakter. Wzrost pierwszej osoby spotkanej po wyjściu z domu, ocena otrzymana na najbliższym egzaminie, cena kostki masła w najbliższym sklepie oraz wiele innych wielkości stanowi przykład tak zwanych zmiennych losowych. Każda taka zmienna ma swój specyficzny charakter. Wzrost mężczyzny może przybierać wszystkie wartości z przedziału (150, 230), a nawet spoza tego przedziału, przy czym, przykładowo, przedział (174,176) jest bardziej prawdopodobny niż następujące przedziały o tej samej długości: (154,156) czy (210,212). Podobnie ocena z najbliższego egzaminu może przyjmować skończenie wiele wartości, na przykład 2, 3, 4 lub 5, przy czym dla danego studenta (i egzaminatora) nie są one na ogół jednakowo prawdopodobne - dla stypendysty MEN oceny 5 i 4 są dużo bardziej prawdopodobne niż 3, zaś ocena 2 jest niemal nieprawdopodobna. Tak więc każda zmienna losowa ma swój rozkład, który najłatwiej jest przedstawić graficznie. Przykładowo, hipotetyczny rozkład zmiennej losowej będącej wzrostem mężczyzny mógłby odpowiadać polu pod wykresem funkcji z następującego rysunku:



przy czym pole całkowite figury ograniczonej osią 0X i wykresem funkcji wynosi 1, zaś prawdopodobieństwo (na przykład) tego, że wzrost ten zawiera się w przedziale (180,185), jest równe polu zakreskowanej figury. Natomiast rozkład spodziewanej oceny dla dobrego studenta może wyglądać tak:


zaś dla studenta słabego - nieco inaczej:


Tutaj prawdopodobieństwo uzyskania danej oceny odpowiada długości danego odcinka. Każdy rozkład zmiennej losowej można scharakteryzować pewnymi standardowymi parametrami, co z kolei umożliwia porównywanie rozkładów między sobą. Ważnym zagadnieniem jest także badanie i mierzenie współzależności zmiennych losowych - wiadomo, że wzrost i waga studenta są ze sobą silniej związane niż wzrost studenta i jego ocena na najbliższym egzaminie.


Miary probabilistyczne w {\Bbb R}^n

Prosta rzeczywista, płaszczyzna i ogólniej przestrzeń {\Bbb R}^n, są często traktowane jako zbiór zdarzeń elementarnych \Omega pewnej przestrzeni probabilistycznej. Przyjmuje się najczęściej, że \sigma-sigma algebrę \Sigma stanowią zbiory borelowskie {\cal B}({\Bbb R}^n) (patrz przykład 3.4), natomiast miary P określone na tej \sigma-algebrze mogą być bardzo różne. Mówi o tym następująca:

Definicja 6.1 [rozkład prawdopodobieństwa]

Rozkładem prawdopodobieństwa (n-wymiarowym) nazywamy miarę P taką, że trójka ({\Bbb R}^n,  {\cal  B}({\Bbb R}^n),P) jest przestrzenią probabilistyczną.

Omówimy teraz dwa podstawowe rodzaje rozkładów n-wymiarowych: rozkłady dyskretne oraz rozkłady ciągłe. Chociaż najczęściej mamy do czynienia z takimi właśnie rozkładami, należy wyraźnie podkreślić, że nie wyczerpują one wszystkich możliwych rozkładów.

Rozkład dyskretny

Zaczniemy od rozkładu dyskretnego, poznanego już w szkole.

Definicja 6.2 [Rozkład dyskretny]

Rozkład n-wymiarowy P nazywamy rozkładem dyskretnym, jeżeli istnieje zbiór borelowski K \subset {\Bbb R}^n taki, że:


P(K) = 1 \;\;\mbox{ oraz } \;\; x \in  K  \Rightarrow P(x) > 0.


Uwaga 6.3

Występujący w powyższej definicji zbiór K jest skończony lub przeliczalny. Żeby to stwierdzić, zauważmy, że K można przedstawić jako przeliczalną sumę zbiorów skończonych. Dokładniej:


K = \bigcup_{i=1}^{\infty} K_i,


gdzie


K_i  =  \{x \in {\Bbb R}^n : P(x)  \ge  \frac{1}{i}\}.


Widzimy, że 1 \ge P(K_i) \ge \#K_i\cdot \frac{1}{i}, a więc \#K_i \le i.

Z powyższej uwagi wynika, iż możemy zbiór K ustawić w ciąg, powiedzmy K =  \{x_i:  i = 1,\dots ,m\}, gdzie m jest liczbą naturalną lub m = \infty, i oznaczyć p_i = P(x_i). Mamy wtedy:


\sum_{i=1}^m p_i = 1  \;\;\mbox{  oraz  }\;\;p_i  >  0 \mbox{ dla wszystkich } i.


Zdefiniowane w ten sposób ciągi \{x_i\} i \{p_i\} wyznaczają jednoznacznie rozkład P. Mianowicie, dla każdego zbioru borelowskiego A mamy P(A) = P(A\cap K) (dlaczego?) i dalej:


P(A) = \sum_{i: x_i \in A} p_i.      (6.1)


W związku z powyższym, często używa się sformułowania: rozkład dyskretny zadany przez ciągi \{x_i\} i \{p_i\}.

Przykładami rozkładów dyskretnych są wspomniane już rozkłady przewidywanej oceny, jaką otrzyma student na zbliżającym się egzaminie. Są one skupione w punktach 2, 3, 4 i 5, jak (przykładowo) pokazano na ostatnich dwóch rysunkach.

Podamy teraz dwa inne, na pozór trochę banalne przykłady rozkładów dyskretnych.



Przykład 6.4 [Rozkład jednopunktowy]

Rozkład P jest jednopunktowy, jeżeli istnieje punkt c  \in {\Bbb R}^n taki, że P(c) = 1.

Przykład 6.5 [Rozkład dwupunktowy]

Rozkład P jest rozkładem dwupunktowym, jeżeli istnieją punkty a,\, b \in {\Bbb R}^n oraz liczby p, q\in (0,1) takie, że p+q=1 oraz:


P(a) = q \;\;\mbox{ i } \;\;P(b) = p.


Najczęściej mówiąc o rozkładzie dwupunktowym, mamy na myśli rozkład jednowymiarowy skupiony w punktach a= 0 i b = 1 - będziemy go oznaczać jako (0,1,p).

Przykład 6.6 [Rozkład dwumianowy]

Wiemy już, że zajście k sukcesów w schemacie Bernoulliego z n doświadczeniami wyraża się wzorem 5.2. Mamy tu do czynienia z rozkładem prawdopodobieństwa skupionym w punktach 0,1,\dots, n, przy czym:


P(k) = \left(\begin{array} {@{}c@{}}n\\k\end{array} \right) p^k(1 -p)^{n-k}\;\;\textrm{dla}\;\;k= 0,1,\dots, n.

Rozkład ciągły

Drugą bardzo ważną klasą rozkładów są rozkłady ciągłe (nazywane przez niektórych rozkładami absolutnie ciągłymi, co z formalnego punktu widzenia jest bardziej poprawne, niemniej mało używane).

Definicja 6.7 [Rozkład ciągły]

Rozkład n-wymiarowy P nazywamy rozkładem ciągłym, jeżeli istnieje funkcja całkowalna f\colon {\Bbb R}^n \longrightarrow  {\Bbb R} taka, że dla każdego zbioru borelowskiego A \subset {\Bbb R}^n:


P(A) = \int_Af(x)\, dx,      (6.2)


gdzie \int_Af(x)\, dx oznacza całkę wielokrotną po zbiorze A z funkcji f (patrz wykład z Analizy matematycznej 2). Funkcję f nazywamy wówczas gęstością rozkładu P.

Przykład rozkładu ciągłego pokazano na rysunku 61.eps. Prawdopodobieństwo dowolnego zbioru A jest, jako całka, równe polu figury pod wykresem funkcji f i nad zbiorem A. Na wspomnianym rysunku, zakreślony obszar odpowiada prawdopodobieństwu przedziału (180, 185).

Zauważmy, że gęstość jest funkcją przyjmującą jedynie wartości nieujemne oraz taką, że całka z tej funkcji po całej przestrzeni (pole pod wykresem) jest równa 1. Na odwrót, można udowodnić, że każda funkcja spełniająca te dwa warunki jest gęstością pewnego rozkładu prawdopodobieństwa.

Na wykładzie 8 omówimy kilka interesujących rozkładów ciągłych - tym miejscu ograniczymy się jedynie do najprostszego przypadku.

Przykład 6.8 [Rozkład jednostajny]

Niech G będzie zbiorem borelowskim o dodatniej mierze Lebesgue'a, to znaczy \mu(G) > 0. Określmy funkcję:


f(x) = \left\{\begin{array} {rll} 0, & \mbox{ gdy } & x \notin G\\[0,3cm] \displaystyle \frac{1}{\mu(G)}, & \mbox{ gdy } & x \in A. \end{array}  \right.


Jest oczywiste, że f spełnia warunki wymagane od gęstości, jest więc gęstością pewnego rozkładu prawdopodobieństwa. Rozkład ten nazywamy rozkładem jednostajnym (porównaj ten przykład z definicją 4.1, gdzie określiliśmy prawdopodobieństwo geometryczne).

Jeżeli G=(a,b), to mówimy o rozkładzie jednostajnym na odcinku (a,b). Tak, na przykład, wygląda gęstość rozkładu jednostajnego na odcinku (2,4):



Jak już zauważyliśmy poprzednio, w przypadku rozkładów jednowymiarowych, znając wykres gęstości rozkładu ciągłego, można łatwo "zobaczyć", ile wynosi prawdopodobieństwo danego zdarzenia A - jest to mianowicie miara zbioru:
\{(x,y) \in {\Bbb R}^{n+1}: x \in A,\, 0\le y \le f(x)\}.


Interpretacja ta wskazuje, że prawdopodobieństwo zbiorów jednopunktowych (a więc również skończonych i przeliczalnych) w rozkładzie ciągłym wynosi 0. Wynika to formalnie w sposób oczywisty z warunku 6.2, gdyż całka liczona po zbiorze miary zero równa się 0.

Dystrybuanta

Podstawową pozycję wśród rozkładów zajmują rozkłady jednowymiarowe, czyli miary probabilistyczne określone na {\cal B}({\Bbb R}). Mówiąc: rozkład, będziemy mieć zwykle na myśli rozkład jednowymiarowy.

Okazuje się, że zamiast rozkładów można rozpatrywać pewnego typu funkcje zmiennej rzeczywistej o wartościach rzeczywistych, co w wielu przypadkach upraszcza sytuację. Funkcje te są nazywane dystrybuantami.

Definicja 6.9 [dystrybuanta]

Dystrybuantą nazywamy funkcję F\colon{{\Bbb R}}\longrightarrow  {\Bbb R}, spełniającą następujące cztery warunki:

1. F jest funkcją niemalejącą, to znaczy:


x < y \Rightarrow F(x) \le F(y),


2. F jest prawostronnie ciągła, to znaczy:


\lim_{x\rightarrow  a^+} F(x) = F(a)


dla każdego a \in {\Bbb R},

3. \lim_{x\rightarrow \infty} F(x) = 1,

4. \lim_{x\rightarrow -\infty} F(x) = 0.

Związek dystrybuant z rozkładami wyjaśnia następujące:

Twierdzenie 6.10

Jeżeli P jest rozkładem prawdopodobieństwa, to funkcja F zdefiniowana wzorem:


F(x) = P(-\infty,x]=P((-\infty,x]),      (6.3)


jest dystrybuantą. Mówimy wtedy, że rozkład P ma dystrybuantę F, co często zaznaczamy pisząc F_P zamiast F.


Należy podkreślić, że wielu autorów definiuje dystrybuantę zastępując w definicji 6.9 warunek 2 założeniem, że F jest lewostronnie ciągła w każdym punkcie. Wtedy w powyższym twierdzeniu 6.3 ma postać:


F(x) = P(-\infty,x)=P((-\infty,x)).


Oczywiście oba podejścia są jednakowo dobre.

Zachodzi także twierdzenie odwrotne do twierdzenia 6.10.

Twierdzenie 6.11

Jeżeli F jest dystrybuantą, to istnieje dokładnie jeden rozkład P, dla którego zachodzi wzór 6.3.

Jest oczywiście ciekawe, w jakich przypadkach dystrybuanta jest ciągła i co to oznacza, że jest ona ciągła w danym punkcie. Okazuje się, że nieciągłość ma miejsce dokładnie w punktach, w których rozkład jest "skupiony", a wielkość "skoku" dystrybuanty w danym punkcie zależy od prawdopodobieństwa skupionego w tym punkcie.

Twierdzenie 6.12

Niech P będzie rozkładem prawdopodobieństwa, zaś F - jego dystrybuantą. Wówczas dla dowolnego a \in {\Bbb R}:


F \; \textrm{jest ciągła w punkcie}\;  a\: \Longleftrightarrow  \: P(a) = 0.


Bardziej ogólnie:


P(a) = F(a) - F(a)^-,


gdzie F(a)^- oznacza lewostronną granicę funkcji F w punkcie a (ponieważ F jest niemalejąca, więc granica ta istnieje).

Dowód .

Weźmy ciąg x_n \nearrow a (to znaczy, że \{x_n\} jest ciągiem rosnącym, zbieżnym do a). Wtedy (-\infty,a) = \bigcup (-\infty,x_n], a więc (patrz twierdzenie 3.2, warunek 8):


F(a)^-  =  \lim_{n\rightarrow  \infty} F(x_n) = \lim_{n\rightarrow \infty} P(-\infty,x_n] = P(-\infty,a).


Stąd:


P(a) =   P((-\infty,a]\setminus (-\infty,a))   =   P(-\infty,a]    - P(-\infty,a) = F(a) - F(a)^-.
image:End_of_proof.gif


W przypadku gdy rozkład jest dyskretny lub ciągły, dystrybuanta tego rozkładu posiada dość prostą postać.

Uwaga 6.13

Niech rozkład dyskretny P będzie zadany przez ciągi \{x_n\} oraz \{p_n\}. Wtedy, ze wzoru 6.1, otrzymujemy:


F_P(x) = \sum_{i:x_i \le x} p_i.


Uwaga 6.14
Niech rozkład ciągły P ma gęstość f. Wtedy wprost z definicji 6.7 otrzymujemy:


F(x) = \int_{-\infty}^x f(t)\,dt.      (6.4)


W tym przypadku dystrybuanta jest ciągła we wszystkich punktach. Zauważmy natomiast, że jeżeli pewna funkcja mierzalna spełnia wzór 6.4, to jest ona gęstością rozkładu, którego dystrybuantą jest F. Jeżeli więc wiemy, że dystrybuanta jest funkcją różniczkowalną, ewentualnie poza skończoną liczbą punktów, to jej pochodna jest gęstością rozważanego rozkładu. Wiadomo ponadto (patrz wykład z Analizy matematycznej), że w każdym punkcie x, który jest punktem ciągłości f, funkcja górnej granicy całkowania, a więc dystrybuanta, jest różniczkowalna oraz zachodzi wzór:


F'(x)  = f(x).


Przykład 6.15

Niech F będzie dystrybuantą rozkładu jednostajnego na odcinku (a,b). Jak łatwo się przekonać, korzystając ze wzoru 6.4, otrzymujemy:


F(x) =\left\{ \begin{array} {rl} 0, &  x < a\\[0.2cm] \displaystyle \frac{x-a}{b-a}, & a\le x < b\\[0.3cm] 1, & b \le x. \end{array}  \right.


Można się pytać, czy to, że dystrybuanta rozkładu jest ciągła w każdym punkcie oznacza, że rozkład jest ciągły. Odpowiedź jest jednak negatywna, co można stwierdzić, analizując tak zwaną funkcję Cantora.

Dystrybuantę można także definiować dla rozkładów n-wymiarowych, gdzie n >1. Otrzymuje się wówczas podobne związki między dystrybuantami i rozkładami, jak dla przypadku jednowymiarowego. Podobne są także wzory na obliczanie dystrybuant rozkładów dyskretnych i ciągłych. Jednak definicja dystrybuanty w wyższym wymiarze nie może być bezpośrednim przeniesieniem definicji 6.9, gdyż w definicji tej wykorzystywana jest w sposób istotny struktura porządkowa zbioru liczb rzeczywistych.

Zmienne i wektory losowe

Podamy najpierw definicję zmiennej losowej, a następnie znacznie ogólniejszą definicję wektora losowego. Niech (\Omega,\Sigma ,P) będzie przestrzenią probabilistyczną.

Definicja 6.16 [zmienna losowa]

Funkcję X\colon \Omega \longrightarrow {\Bbb R} nazywamy zmienną losową, jeżeli jest ona funkcją mierzalną względem \sigma-algebry \Sigma, to znaczy:


X^{-1}(B) = \{\omega \in \Omega : X(\omega) \in B \} \in \Sigma


dla każdego zbioru borelowskiego B \in {\cal B}({\Bbb R}).
Uwaga 6.17

Zbiory X^{-1}(B), gdzie B \in {\cal B}({{\Bbb R}}), będziemy nazywać zbiorami opisywanymi przez zmienną losową X. Podkreślamy wyraźnie, że są to zbiory postaci \{\omega \in \Omega : X(\omega)\in B\}, co skrótowo będziemy zapisywać \{X  \in B\}. Tak więc, na przykład,


P(X  < \varepsilon)


oznacza:


P(\{\omega \in \Omega: X(\omega) < \varepsilon\}).


W definicjach "typu szkolnego" często nie zakłada się mierzalności zmiennej losowej - każda funkcja określona na przestrzeni probabilistycznej i przyjmująca wartości liczbowe jest nazywana zmienną losową, niemniej rozpatrywane funkcje były mierzalne względem \sigma-algebry {\cal P}(\Omega), tak więc założenie o mierzalności było zbędne. Istotę tego założenia można, mówiąc niezbyt precyzyjnie, częściowo wyjaśnić w następujący sposób: założenie mierzalności względem wyróżnionej \sigma-algebry odpowiada żądaniu, że zmienna losowa ma opisywać tylko "ciekawe" zdarzenia - w szczególności wiemy co oznacza prawdopodobieństwo takich zbiorów.

Rozkład zmiennej losowej

Każda zmienna losowa indukuje pewien rozkład prawdopodobieństwa w następującym sensie:

Definicja 6.18 [rozkład zmiennej losowej]

Niech (\Omega,\Sigma ,P) będzie przestrzenią probabilistyczną, zaś X\colon \Omega \longrightarrow {{\Bbb R}} - zmienną losową. Wówczas rozkładem zmiennej X nazywamy rozkład P_X, zdefiniowany następująco:


P_X(B) = P(X^{-1}(B))\;\;\mbox{ dla }\;\; B\in {\cal B}({\Bbb R}).


Zauważmy, że mierzalność X gwarantuje sensowność tej definicji - ponieważ P jest określone na zdarzeniach z \Sigma, musimy mieć gwarancję, że X^{-1}(B) \in \Sigma.

Na początki tego wykładu podaliśmy przykłady kilku zmiennych losowych i powiedzieliśmy nawet, jaki mogą mieć one rozkład. Nie mówiliśmy wtedy jednak nic o przestrzeniach probabilistycznych, na których zmienne te są określone. Jest to typowa sytuacja - najczęściej nie wskazuje się wyraźnie przestrzeni probabilistycznych, a obserwuje się jedynie rozkład zmiennej losowej (i to nam musi wystarczyć).

Jest więc naturalnym pytanie, czy mając rozkład, powiedzmy Q, można tak dobrać przestrzeń probabilistyczną oraz zmienną losową X, określoną na tej przestrzeni, że P_X  =Q. Mówi o tym bardzo proste, niemniej pożyteczne twierdzenie.

Twierdzenie 6.19

Niech Q będzie rozkładem prawdopodobieństwa. Wówczas istnieje przestrzeń probabilistyczna (\Omega,\Sigma ,P) oraz zmienna losowa X :\Omega \longrightarrow {\Bbb R} taka, że:


Q = P_X.


Dowód .

Wystarczy położyć:


(\Omega,\Sigma ,P)  =  (  {\bf R},{\cal B}({\Bbb R}),Q)


oraz


X(x) = x\;\;\textrm{ dla }\;\; x \in {\Bbb R}.
image:End_of_proof.gif


Twierdzenie to jest bardzo wygodne, gdyż rozważając jakikolwiek rozkład, mamy gwarancję, że jest on rozkładem pewnej zmiennej losowej, a to pozwala wykorzystać w wielu przypadkach język zmiennych losowych w badaniu samych rozkładów.

Uwaga 6.20
Okazuje się, że zmienne losowe posiadają wiele pożytecznych własności. Można mianowicie udowodnić, że suma, iloczyn, kresy górne i dolne, granice górne i dolne, granice (o ile istnieją) zmiennych losowych są zmiennymi losowymi.

Wektor losowy

Uogólnieniem zmiennych losowych są wektory losowe.

Definicja 6.21 [wektor losowy]

Funkcję X\colon \Omega \longrightarrow {\Bbb R}^n nazywamy wektorem losowym, jeżeli jest ona funkcją mierzalną względem \sigma-algebry \Sigma, to znaczy:


X^{-1}(B) = \{\omega \in \Omega : X(\omega) \in B \} \in \Sigma


dla każdego zbioru borelowskiego B \in {\cal B}({\Bbb R}^n).

Widzimy, że zmienna losowa jest jednowymiarowym wektorem losowym. Wyróżnianie zmiennych losowych nie ma więc formalnego uzasadnienia, natomiast zrobiono to tutaj ze względu na tradycję oraz na szczególne znaczenie wektorów jednowymiarowych - zmiennych losowych.

Podobnie jak dla zmiennych losowych, określa się rozkład wektora losowego X\colon \Omega \longrightarrow {\Bbb R}^n wzorem:


P_X(B) = P(X^{-1}(B)),\mbox{ dla } B\in {\cal B}({\Bbb R}^n).


Niezależność

Można sprawdzić, że zestawienie (patrz wykład z Logiki i teorii mnogości) (X,Y) wektorów losowych X i Y określonych na tej samej przestrzeni, w szczególności zestawienie zmiennych losowych, jest wektorem losowym. Można się więc pytać: czy jest jakiś związek pomiędzy rozkładami tych wektorów. W ogólnym przypadku taki związek jest tylko częściowy. Mianowicie, wprost z definicji rozkładu wektora losowego mamy:


P_X(A_1) = P_{(X,Y)}(A_1\times {\Bbb R}^m)\;\;\textrm{oraz}\;\; P_Y(A_2) = P_{(X,Y)}({\Bbb R}^n \times A_2).


Tak więc znając rozkład zestawienia, znamy również rozkłady "współrzędnych" i bez znaczenia jest tutaj przestrzeń probabilistyczna, na której wektory losowe są określone. Jednak informacje o przestrzeniach są istotne w problemie przeciwnym: czy znając rozkłady wektorów losowych X i Y, można określić rozkład zestawienia (X,Y).

Definicja 6.22 [niezależność wektorów losowych]

Niech (\Omega,\Sigma ,P) będzie przestrzenią probabilistyczną i niech X_1,\dots,X_k będą wektorami losowymi określonymi na tej przestrzeni. Mówimy, że wektory te są niezależne, jeżeli dla każdego ciągu zbiorów borelowskich B_1,\dots,B_k, zawartych w odpowiednich przestrzeniach, zachodzi:


P(X_1 \in B_1,\dots,X_k \in B_k) = P(X_1\in B_1)\cdot  \dots \cdot P(X_k \in B_k).


Można więc powiedzieć, że wektory losowe są niezależne, jeżeli opisywane przez nie zdarzenia są niezależne (zauważmy, że za zbiór B_i można podstawić całą przestrzeń {\Bbb R}^{n_i}).

Mówimy, że wektory losowe X_1,X_2,X_3,\dots są niezależne, jeżeli dla każdego naturalnego k, wektory X_1,\dots,X_k są niezależne.

W przykładzie z początku tego wykładu mieliśmy pokazaną zarówno parę zmiennych zależnych, jak i parę zmiennych niezależnych. Przykład ten sugeruje także następujące twierdzenie, które dla uproszczenia zapisu sformułujemy tylko dla dwóch wektorów losowych.

Twierdzenie 6.23

Niech X i Y będą wektorami losowymi, określonymi na tej samej przestrzeni (\Omega,\Sigma,P). Wtedy:


X \textrm{ i } Y \textrm{ są nie\-za\-leż\-ne }\;\; \Longleftrightarrow \;\; P_{(X,Y)} = P_X\times P_Y.


Dodatkowo:

1. jeżeli wektory X i Y mają rozkłady dyskretne, odpowiednio:


P(X = x_i) = p_i \;\;\textrm{oraz }\;\;(Y= y_j) = q_j,


to zestawienie (X,Y) ma również rozkład dyskretny:


P(X=x_i,Y=y_j) = p_i\cdot q_j,      (6.5)


2. jeżeli wektory X oraz Y mają rozkłady ciągłe, o gęstościach, odpowiednio:


f \;\;\textrm{oraz }\;\;g,


to zestawienie (X,Y) ma również rozkład ciągły o gęstości h:


h(x,y) = f(x)\cdot g(y),


Powyższe wzory mają istotne znaczenie przy wyznaczaniu rozkładów zmiennych lub, ogólniej, wektorów losowych, które są funkcjami innych niezależnych zmiennych losowych.

Funkcje zmiennych i wektorów losowych

Często mamy do czynienia z następującym problemem: mając zmienną losową (lub wektor losowy) o danym rozkładzie, należy wyznaczyć rozkład pewnej funkcji tej zmiennej losowej. Na przykład: znając rozkład X, należy znaleźć rozkład X^2, albo znając rozkład wektora losowego (X_1,X_2), należy znaleźć rozkład wektora \max(X_1,X_2). Sytuację ogólną można opisać w następujący sposób.

Niech będą dane:

1. przestrzeń probabilistyczna (\Omega,\Sigma,P),

2. wektor losowy X\colon\Omega \longrightarrow {\Bbb R}^n,

3. funkcja \varphi \colon{\Bbb R}^n\longrightarrow {\Bbb R}^k.

Rozpatrujemy złożenie:


\varphi \circ  X \colon \Omega \ni \omega \longrightarrow \varphi(X(\omega)) \in {\Bbb R}^k.


O ile funkcja \varphi jest dostatecznie regularna (na przykład ciągła), można udowodnić, że złożenie to jest wektorem losowym - bywa on tradycyjnie oznaczany przez \varphi(X). Rozkład tego wektora jest bardzo prosto związany z rozkładem wektora losowego X. Mianowicie mamy:


P_{\varphi(X)}(C) = P((\varphi\circ X)^{-1}(C)) = P(X^{-1}(\varphi^{-1}(C))) = P_X(\varphi^{-1}(C))


dla każdego zbioru borelowskiego C w przestrzeni {\Bbb R}^k. Wzór ten, jakkolwiek prosty, nie jest zbyt przydatny, gdyż w praktyce nie operujemy rozkładami, lecz dystrybuantami, gęstościami lub ciągami (te ostatnie opisują rozkłady dyskretne). W takich sytuacjach nie istnieją ogólne twierdzenia, a sposób postępowania zależy od konkretnej postaci funkcji \varphi i charakteru wektora losowego X.

Przykład 6.24

Niech X będzie dowolnie ustaloną zmienną losową, F = F_X - jej dystrybuantą, zaś a,\, b \in {\Bbb R} - ustalonymi liczbami takimi, że a  \neq  0. Policzymy dystrybuantę zmiennej losowej:


Y = aX + b.


Dla a > 0 otrzymujemy:


F_Y(x) = P(Y \le x) = P(aX +b \le  x)  =  P\left(X  \le \frac{x-b}{a}\right) = F_X\left(\frac{x-b}{a}\right).


Podobnie, dla a < 0 mamy:


F_Y(x) = P(Y \le x) = P(aX +b \le  x)  =  P\left(X  \ge \frac{x-b}{a}\right)   =


1 - P\left(X < \frac{x-b}{a}\right)  =  1  -  F_X\left(\frac{x-b}{a}\right)^-\!.


Załóżmy teraz dodatkowo, że zmienna X ma gęstość f (dla uproszczenia zakładamy, że f jest ciągła). Wtedy, korzystając z uwagi 6.14, wiemy, że dystrybuanta F_X jest różniczkowalna, zaś z powyższych wzorów wynika, że również F_Y jest różniczkowalna, a więc Y ma rozkład ciągły o gęstości:


g(x) = \frac{1}{|a|} f\left(\frac{x-b}{a}\right).


Zakończmy ten punkt, podając twierdzenie o niezależności funkcji niezależnych wektorów losowych.

Twierdzenie 6.25

Niech X\colon \Omega \longrightarrow {{\Bbb R}}^n oraz Y\colon\Omega \longrightarrow {{\Bbb R}}^m będą niezależnymi wektorami losowymi, zaś g\colon{\bf R}^n  \longrightarrow {\Bbb R}^k i h\colon{\Bbb R}^m \longrightarrow {{\Bbb R}}^l - funkcjami borelowskimi, czyli funkcjami mierzalnymi ze względu na \sigma-algebry zbiorów borelowskich. Wtedy wektory losowe g(X) oraz h(Y) są niezależne.