PS Moduł 1: Różnice pomiędzy wersjami

Z Studia Informatyczne
Przejdź do nawigacjiPrzejdź do wyszukiwania
Daniel-PW (dyskusja | edycje)
Nie podano opisu zmian
m Zastępowanie tekstu – „\</math>” na „\ </math>”
 
(Nie pokazano 20 wersji utworzonych przez 2 użytkowników)
Linia 1: Linia 1:
{| border="0" cellpadding="4" width="100%"
{| border="0" cellpadding="4" width="100%"
|width="500px"|[[Grafika:PS_M1_Slajd1.png]]
|width="500px" valign="top"|[[Grafika:PS_M1_Slajd1.png|thumb|500px]]
|valign="top"|
|valign="top"|
*Za pomocą sygnałów przekazywana jest informacja. Często mówi się, że sygnał jest ''nośnikiem informacji''.
*Za pomocą sygnałów przekazywana jest informacja. Często mówi się, że sygnał jest ''nośnikiem informacji''.
Linia 8: Linia 8:
**wprowadzenie jednoznacznych kryteriów podziału sygnałów i na tej podstawie dokonanie ich klasyfikacji,
**wprowadzenie jednoznacznych kryteriów podziału sygnałów i na tej podstawie dokonanie ich klasyfikacji,
**abstrahowanie od natury fizycznej sygnałów (tj. traktowanie sygnałów jako wielkości bezwymiarowych).
**abstrahowanie od natury fizycznej sygnałów (tj. traktowanie sygnałów jako wielkości bezwymiarowych).
|}
<hr width="100%">
{| border="0" cellpadding="4" width="100%"
|width="500px" valign="top"|[[Grafika:PS_M1_Slajd2.png|thumb|500px]]
|valign="top"|
*Rozważania ograniczymy wyłącznie do ''sygnałów deterministycznych''. Omówienie sygnałów losowych wymaga znajomości teorii procesów stochastycznych.
*Sygnały dzielimy także ze względu na ich przeciwdziedzinę  (zbiór wartości). Jeżeli zbiór ten jest ciągły, sygnał nazywamy ''ciągłym w amplitudzie''. Jeżeli jest on dyskretny (w szczególności skończony) sygnał nazywamy  ''dyskretnym w amplitudzie''.
*Łącząc kryteria podziału sygnałów ze względu na rodzaj ich dziedziny i przeciwdziedziny, można wyodrębnić cztery klasy sygnałów:
**''z  czasem ciągłym i ciągłe w amplitudzie''
**''z  czasem ciągłym  i dyskretne w amplitudzie''
**''z czasem dyskretnym i ciągłe w amplitudzie''
**''z czasem dyskretnym i dyskretne w amplitudzie (cyfrowe).''
*W klasie sygnałów dyskretnych wyróżniamy sygnały ''binarne'',  które przybierają w każdej chwili tylko dwie wartości binarne  (np. 0  i  1  lub  1  i  –1 ).
|}
<hr width="100%">
{| border="0" cellpadding="4" width="100%"
|width="500px" valign="top"|[[Grafika:PS_M1_Slajd3.png|thumb|500px]]
|valign="top"|
*Zwróćmy uwagę, że sygnały przedstawione na rys. b) i d) otrzymujemy w wyniku próbkowania sygnałów z rys. a) i odpowiednio c).  Z sygnałami  powstałymi w wyniku próbkowania sygnałów analogowych mamy w praktyce do czynienia najczęściej.  Sygnałami dyskretnymi mogą być jednak także sygnały nie mające pierwowzorów analogowych, np. ciąg notowań dziennych kursu złotówki do dolara. Podkreślmy, że sygnał dyskretny jest w istocie rzeczy ciągiem liczb.
*Sygnały analogowe będziemy oznaczać <math>x(t),\, y(t),\,...\ </math>, ,zaś  sygnały dyskretne - <math>x(t_n),\, y(t_n),\,...\ </math>, ,lub w przypadku próbkowania równomiernego w chwilach <math>nT_s-x(nT_s),\, y(nT_s),\,...\ </math>, , W odniesieniu do tych ostatnich z reguły operuje się czasem bezwymiarowym, unormowanym względem okresu próbkowania <math>T_s\ </math>, . Oznacza się je wówczas symbolami <math>x[n],\,y[n],\,...\ </math>, lub <math>x(n),\, y(n),\,...\ </math>, , gdzie <math>n\epsilon\Box\ </math>, jest numerem próbki.
|}
<hr width="100%">
{| border="0" cellpadding="4" width="100%"
|width="500px" valign="top"|[[Grafika:PS_M1_Slajd4.png|thumb|500px]]
|valign="top"|
*Podobnie jak w poprzednich przykładach, sygnały z rys. c) i d) są spróbkowanymi  sygnałami  z rys.  a)  i  b).
*Terminem ''impuls'' określamy zazwyczaj sygnały o krótkim czasie trwania. Zwróćmy uwagę, że w myśl przyjętej definicji sygnał impulsowy niekoniecznie musi trwać w czasie krótko. Istotne jest jedynie, aby jego czas trwania był skończony.
|}
<hr width="100%">
{| border="0" cellpadding="4" width="100%"
|width="500px" valign="top"|[[Grafika:PS_M1_Slajd5.png|thumb|500px]]
|valign="top"|
* Reprezentację sygnału harmonicznego stanowi liczba zespolona <math>Ae^{j\varphi}\ </math>, , nazywana ''amplitudą zespoloną'', gdzie <math>A\ </math>, jest amplitudą sygnału, a  <math>\varphi\ </math>, – jego fazą.
*W przypadku rozwinięcia sygnału okresowego o ustalonym okresie <math>T_0\ </math>,  w rzeczywisty trygonometryczny szereg Fouriera (1.1) jego reprezentacja jest zbiór liczb rzeczywistych <math>\left \{a_0, a_k, b_k : k\epsilon\Box \right \}</math>,  (zbiór ''współczynników Fouriera''), zaś w przypadku rozwinięcia w zespolony trygonometryczny szereg Fouriera (1.2) – zbiór liczb zespolonych <math>\left \{X_k : k\epsilon\Box\right \}\ </math>, .
*Znanych jest wiele, czasami bardzo złożonych pod względem formalnym, reprezentacji sygnałów. Do najczęściej stosowanych należą:
**''transformata Fouriera (widmo sygnału)''
**''transformata Laplace’a''
**''szereg Kotielnikowa-Shannona''
**sygnał analityczny''
Reprezentacje te będziemy omawiać na dalszych wykładach.
|}
<hr width="100%">
{| border="0" cellpadding="4" width="100%"
|width="500px" valign="top"|[[Grafika:PS_M1_Slajd6.png|thumb|500px]]
|valign="top"|
*Parametry sygnałów są ich globalnymi  charakterystykami liczbowymi. Definicje poszczególnych parametrów są zróżnicowane  w zależności od klasy sygnału.
*Wartość średnia sygnału o nieskończonym czasie trwania jest definiowana jako wielkość graniczna. Podobny charakter będą miały definicje innych wielkości charakteryzujących klasę sygnałów o nieskończonym czasie trwania.
|}
<hr width="100%">
{| border="0" cellpadding="4" width="100%"
|width="500px" valign="top"|[[Grafika:PS_M1_Slajd7.png|thumb|500px]]
|valign="top"|
*''Energia,  moc średnia'' (krótko moc) i ''wartość skuteczna'', należą do najważniejszych parametrów sygnału. Wielkości te są nazywane ''parametrami energetycznymi'' sygnałów. Ponieważ  założyliśmy, że sygnały są wielkościami bezwymia¬rowymi, ich energię określoną wzorem (1.6) wyrażamy w sekundach, moc zaś określona wzorami (1.7) lub (1.8) oraz wartość skuteczna są bezwymiarowe.
*Na podstawie parametrów energetycznych dokonujemy jeszcze jednego ważnego podziału sygnałów na dwie klasy: klasę sygnałów ''o ograniczonej energii'' oraz klasę sygnałów ''o ograniczonej mocy''. Zauważmy, że:
**moc sygnałów o ograniczonej energii jest równa zeru,
**energia sygnałów o ograniczonej mocy jest nieskończona,
**każdy sygnał impulsowy ograniczony w amplitudzie jest sygnałem o ograniczonej energii,
**sygnały o nieskończonym czasie trwania mogą być sygnałami o ograniczonej energii bądź o ograniczonej mocy,
**sygnały o ograniczonej mocy i ograniczone w amplitudzie są sygnałami o nieskończonym czasie trwania,
**szczególną podklasą tych ostatnich są sygnały okresowe.
*Zwróćmy uwagę, że moc sygnału określona wzorem (1.7) ma sens wielkości granicznej. Również jako wielkości graniczne będą dalej definiowane inne wielkości charakteryzujące sygnały o ograniczonej mocy (np. ''widmo,  funkcja autokorelacji'' itd.).
|}
<hr width="100%">
{| border="0" cellpadding="4" width="100%"
|width="500px" valign="top"|[[Grafika:PS_M1_Slajd8.png|thumb|500px]]
|valign="top"|
*Sygnał pokazany na rys. a) jest symetrycznym unormowanym impulsem  prostokątnym o jednostkowym czasie trwania i jednostkowej amplitudzie. Jego wartość średnia  i energia są również równe jedności. Został on oznaczony specjalnym symbolem <math>\Pi(t)\ </math>, . Posługując się tym symbolem, możemy zapisać dowolny impuls prostokątny o wysokości <math>a\ </math>, , szerokości <math>b\ </math>, i przesunięty względem zera o czas <math>c\ </math>,  w postaci <math>a\Pi[(t-c)/b]\ </math>, .Również inne standardowe sygnały będą oznaczane wygodnymi w użyciu symbolami specjalnym, np. symetryczny impuls trójkątny <math>\Lambda(t)\ </math>, z rys. b. Podkreślmy, że w przeciwieństwie do impulsu prostokątnego <math>\Pi(t)\ </math>,  czas trwania impulsu trójkątnego <math>\Lambda(t)\ </math>, jest z definicji równy 2.
*Impulsy radiowe (rys. c), spotyka się zwykle w radiokomunikacji, telekomunikacji oraz technice radarowej i sonarowej. Sygnał <math>x(t)\ </math>, jest dowolnym sygnałem impulsowym (często prostokątnym) i jest nazywany ''obwiednią'' sygnału <math>y(t)\ </math>, , a sygnał <math>cos(\omega_0 t+\varphi_0)\ </math>,  – jego ''wypełnieniem''. Z reguły, czego siłą rzeczy nie oddaje rysunek, okres wypełnienia <math>T_0=2\pi/{\omega_0}</math>  jest dużo mniejszy od czasu trwania impulsu <math>y(t)\ </math>, .
|}
<hr width="100%">
{| border="0" cellpadding="4" width="100%"
|width="500px" valign="top"|[[Grafika:PS_M1_Slajd9.png|thumb|500px]]
|valign="top"|
*Sygnały  przedstawione  na rys. a), b) i c) są przykładami sygnałów o nieskończonym czasie trwania, których energia jest skończona.
*Sygnał pokazany na rys. a) jest typowym sygnałem występującym w obwodach elektrycznych, np. sygnałem prądu rozładowania kondensatora w obwodzie RC.
*Sygnał z rys. b), oznaczony symbolem specjalnym Sa (od ang. ''Sampling'' – próbkowanie), odgrywa w teorii sygnałów rolę szczególną, zwłaszcza w zagadnieniu próbkowania sygnałów. Dobrze znana z analizy matematycznej funkcja <math>Sax\, \Box\, sinx/x\ </math>, nie ma wartości w zerze, dlatego w definicji tego sygnału wartość tę definiuje się dodatkowo jako równą jedności. Dodajmy, że funkcja  <math>Sa\ </math>, będzie często występować również w opisie widmowym sygnałów.
*Podobną rolę spełnia w teorii sygnałów funkcja <math>Sa^2\ </math>,  . Sygnał o kształcie opisanym tą funkcją jest pokazany na rys. c).
|}
<hr width="100%">
{| border="0" cellpadding="4" width="100%"
|width="500px" valign="top"|[[Grafika:PS_M1_Slajd10.png|thumb|500px]]
|valign="top"|
*Sygnały przedstawione na rys. a)–d) są przykładami prostych sygnałów o nieskończonym czasie trwania i ograniczonej mocy (ich energia jest nieskończona).
*Sygnał skoku jednostkowego pokazany na rys. b) jest oznaczany symbolem specjalnym <math>1(t)\ </math>, , używanym również w teorii obwodów.  Zapis <math>X_01(t-t_0)\ </math>,  oznacza skok o wartość <math>X_0\ </math>,  w chwili <math>t_0\ </math>, .
*Sygnał wykładniczy narastający z rys. c) jest np. sygnałem napięcia na kondensatorze ładowanym przez opór z idealnego źródła napięciowego.
|}
<hr width="100%">
{| border="0" cellpadding="4" width="100%"
|width="500px" valign="top"|[[Grafika:PS_M1_Slajd11.png|thumb|500px]]
|valign="top"|
*Na rys. a), b) i c) są pokazane przykłady najczęściej spotykanych sygnałów okresowych. Są to oczywiście sygnały o ograniczonej mocy. Pełnią one w praktyce rolę sygnałów nośnych w różnych systemach modulacji sygnałów, a także sygnałów synchronizujących.
*Sygnał harmoniczny (rys. a) jest określony przez trzy parametry: amplitudę <math>X_0\ </math>, , pulsację <math>\omega_0\ </math>,  (lub częstotliwość <math>f_0=\omega_0/2\pi=1/T_0</math> , gdzie <math>T_0\ </math>,  jest okresem), oraz fazę początkową <math>\varphi_0\ </math>, . Jest on wykorzystywany m.in. jako fala nośna w ''analogowych systemach modulacji''.
*Fala prostokątna bipolarna (rys. b) jest wykorzystywana jako przebieg synchronizujący i zegarowy, zaś fala prostokątna unipolarna (rys. c) jako przebieg nośny w ''impulsowych systemach modulacji''.
|}
<hr width="100%">
{| border="0" cellpadding="4" width="100%"
|width="500px" valign="top"|[[Grafika:PS_M1_Slajd12.png|thumb|500px]]
|valign="top"|
*Funkcje <math>|z(t)|=\sqrt{x^2(t)+y^2(t)}</math>  i <math>arg\, z(t)=arctg[y(t)/x(t)]</math> noszą nazwę ''modułu'' i odpowiednio ''argumentu'' sygnału <math>z(t)\ </math>, . Są to funkcje rzeczywiste czasu.
*Sygnały zespolone również dzielimy na sygnały o ograniczonej energii i sygnały o ograniczonej mocy. W przypadku sygnałów zespolonych we wzorach definiujących energię (1.6) i moc (1.7) lub (1.8) należy w wyrażeniu podcałkowym uwzględnić nie kwadrat sygnału <math>x^2(t)\ </math>, ,  a kwadrat modułu sygnału <math>|x^2(t)|\ </math>, .
|}
<hr width="100%">
{| border="0" cellpadding="4" width="100%"
|width="500px" valign="top"|[[Grafika:PS_M1_Slajd13.png|thumb|500px]]
|valign="top"|
*''Sygnał harmoniczny zespolony'' <math>z(t)=e^{j\omega_0 t}</math> (1.11), nazywany także sinusoidą zespoloną, jest często wykorzystywany do reprezentacji rzeczywistego sygnału harmonicznego <math>x(t)=cos\omega_0 t</math> , przy czym <math>x(t)=Re\, z(t)</math> . Jest to oczywiście sygnał o ograniczonej mocy. Jego moc, jak można łatwo sprawdzić korzystając ze zmodyfikowanego wzoru (1.8), jest równa 1.
*Sygnałami harmonicznymi zespolonymi posługujemy się również w innych reprezentacjach sygnałów rzeczywistych, np. zbiór sygnałów <math>\left \{e^{jk\omega_0 t} : k\epsilon\Box\right \}\ </math>,  tworzy tzw. ''bazę''  rozwinięcia sygnału okresowego o okresie <math>T_0=2\pi/{\omega_0}</math>  w zespolony szereg Fouriera (por. wzór (1.2)).
*Pojęcie ''sygnału analitycznego'', określonego wzorami (1.12) i (1.13), jest jednym z ważniejszych pojęć teorii sygnałów. Stanowi on uogólnienie na sygnały nieharmoniczne reprezentacji rzeczywistego sygnału harmonicznego <math>cos\omega_0 t\ </math>,  zespolonym sygnałem harmonicznym <math>e^{j\omega_0 t}=cos\omega_0 t+jsin\omega_0 t</math> . Zgodnie z definicją sygnał <math>e^{j\omega_0 t}\ </math>,  jest właśnie sygnałem analitycznym sygnału <math>\omega_0 t\ </math>, .
|}
<hr width="100%">
{| border="0" cellpadding="4" width="100%"
|width="500px" valign="top"|[[Grafika:PS_M1_Slajd14.png|thumb|500px]]
|valign="top"|
*''Impuls Diraca <math>\delta(t)</math>''  (rys. a), nazywany również ''dystrybucją'' lub ''deltą Diraca'', jest matematycznym modelem nierealizowalnego fizycznie, nieskończenie wąskiego impulsu występującego w chwili <math>t=0\ </math>, , o nieskończenie dużej amplitudzie i polu równym <math>1\ </math>,.  Z formalnego punktu widzenia jest to sygnał o nieograniczonej mocy! Zapis <math>X_0\delta (t-t_0)\ </math>, oznacza impuls Diraca występujący w chwili <math>t_0\ </math>,  o polu równym <math>X_0\ </math>, .
*Przytoczona definicja impulsu <math>\delta(t)</math>  jest definicją klasyczną, podaną jeszcze przez Diraca. Współcześnie deltę Diraca definiuje się w sposób bardziej ścisły na gruncie ''teorii dystrybucji''.
*Za pomocą dystrybucji grzebieniowej (nazywanej w literaturze także dystrybucją ''sza'' lub ''comb'') można w sposób wygodny zapisać formalnie operację próbkowania równomiernego sygnału jako iloczyn tego sygnału i dystrybucji <math>\delta_{T_0}\ </math>,  . W efekcie otrzymujemy tzw. ''impulsowy sygnał spróbkowany'' (1.14) pokazany na rys. d). Sygnał ten stanowi dystrybucyjną reprezentację sygnału spróbkowanego.
|}
<hr width="100%">
{| border="0" cellpadding="4" width="100%"
|width="500px" valign="top"|[[Grafika:PS_M1_Slajd15.png|thumb|500px]]
|valign="top"|
*Zgodnie z właściwością (1.15), w wyniku mnożenia sygnału <math>x(t)\ </math>,  przez impuls Diraca <math>\delta(t-t_0)\ </math>,  występujący w chwili  <math>t_0\ </math>,  wyodrębniamy niejako z całego sygnału <math>x(t)\ </math>,  jego wartość (próbkę) <math>x(t_0)\ </math>,  w chwili <math>t_0\ </math>,  , którą reprezentujemy impulsem Diraca <math>\delta(t-t_0)\ </math>,  o polu równym <math>x(t_0)\ </math>, . Inaczej mówiąc, impuls <math>x(t_0)\delta(t-t_0)\ </math>,  stanowi reprezentację dystrybucyjną próbki <math>x(t_0)\ </math>, .
*Właściwość filtracji (1.16) wynika natychmiast w właściwości (1.15) i definicji dystrybucji Diraca.
*Całka impulsu Diraca w granicach od <math>-\infty\ </math>,  do <math>t\ </math>,  jest równa sygnałowi skoku jednostkowego. Pochodna skoku jednostkowego jest równa impulsowi Diraca. Związki te należy jednak rozumieć w sensie dystrybucyjnym.
*Splot sygnału <math>x(t)\ </math>,  z impulsem Diraca <math>\delta(t)\ </math>,  daje w wyniku ponownie sygnał <math>x(t)\ </math>, . Oznacza to, że <math>\delta(t)\ </math>,  jest elementem identycznościowym operacji splotu. Splot sygnału <math>x(t)\ </math>,  z impulsem Diraca przesuniętym o czas <math>t_0\ </math>,  daje w wyniku niezmienioną kopię tego sygnału  przesuniętą o ten sam czas.
|}
<hr width="100%">
{| border="0" cellpadding="4" width="100%"
|width="500px" valign="top"|[[Grafika:PS_M1_Slajd16.png|thumb|500px]]
|valign="top"|
*Właściwość (1.18) jest uogólnieniem właściwości (1.15). Mnożenie sygnału <math>x(t)\ </math>,  przez ''dystrybucję grzebieniową'' daje w wyniku reprezentację dystrybucyjną sygnału sprókowanego w postaci impulsowego sygnału sprókowanego (1.14).
*Zgodnie z właściwością (1.19), w wyniku splecenia sygnału <math>x(t)\ </math>, z dystrybucją grzebieniową <math>\delta_{T_0}(t)\ </math>,  powstaje sygnał, który jest przedłużeniem okresowym sygnału <math>x(t)\ </math>, z okresem  <math>T_0\ </math>, . Jeśli sygnał <math>x(t)\ </math>,  jest sygnałem impulsowym o czasie trwania mniejszym bądź równym  <math>T_0\ </math>, , to przedłużenie to jest ciągiem dokładnych kopii sygnału <math>x(t)\ </math>,  powtarzanych co odcinek czasu <math>T_0\ </math>, . W przeciwnym przypadku powielone kopie nakładają się na siebie i w sygnale przedłużonym okresowo nie jest zachowany kształt sygnału <math>x(t)\ </math>, .
|}
<hr width="100%">
{| border="0" cellpadding="4" width="100%"
|width="500px" valign="top"|[[Grafika:PS_M1_Slajd17.png|thumb|500px]]
|valign="top"|
*Podobnie jak w przypadku sygnałów analogowych, wartość średnia sygnału dyskretnego jest definiowana odmiennie dla różnych klas sygnałów. Definicje te są analogiczne, z tym że całki we wzorach (1.2) –(1.4) są zastąpione odpowiednimi sumami.
*W przypadku sygnałów dyskretnych o nieskończonym czasie trwania ich wartość średnia – tak jak dla sygnałów analogowych – jest definiowana jako wielkość graniczna. Także inne wielkości charakteryzujące tę klasę sygnałów będą definiowane w sensie granicznym.
|}
<hr width="100%">
{| border="0" cellpadding="4" width="100%"
|width="500px" valign="top"|[[Grafika:PS_M1_Slajd18.png|thumb|500px]]
|valign="top"|
*Wzory (1.23)–(1.26), określające parametry energetyczne sygnałów dyskretnych, są odpowiednikami wzorów (1.6)–(1.9) definiujących te parametry dla sygnałów analogowych.
*Jeśli energia sygnału dyskretnego <math>x[n]\ </math>, , określona wzorem (1.23), spełnia warunek <math>0<E_x<\infty\ </math>, ,  to sygnał taki nazywamy sygnałem o ograniczonej energii. Jeśli moc sygnału dyskretnego <math>x[n]\ </math>, , określona wzorem (1.24) lub (1.25), spełnia warunek <math>0<P_x<\infty\ </math>, ,  to sygnał ten nazywamy sygnałem o ograniczonej mocy.
|}
<hr width="100%">
{| border="0" cellpadding="4" width="100%"
|width="500px" valign="top"|[[Grafika:PS_M1_Slajd19.png|thumb|500px]]
|valign="top"|
*Zgodnie z przyjętą konwencją we wszystkich przytoczonych tu przykładach sygnałów dyskretnych wyrażamy je jako funkcje czasu <math>n\epsilon \Box\ </math>,  unormowanego względem okresu próbkowania.
*Impuls Kroneckera <math>\delta[n]\ </math>,  (rys. a) jest sygnałem dyskretnym przybierającym wartość niezerową i równą <math>1\ </math>,  jedynie w chwili <math>n=0\ </math>, . Pozostałe jego próbki są zerowe. Jest on odpowiednikiem analogowego impulsu Diraca <math>\delta(t)\ </math>, , jednak w przeciwieństwie do niego impuls <math>\delta[n]\ </math>,  jest zwykłą funkcją. Symbol <math>X_0\delta[n-n_0]\ </math>,  oznacza sygnał dyskretny przybierający jedyną niezerową wartość <math>X_0\ </math>,  w chwili <math>n_0\ </math>, .
*Zarówno impuls Kroneckera, jak i impuls prostokątny (rys. b) oraz impuls trójkątny (rys. c) są przykładami impulsowych sygnałów dyskretnych o ograniczonej energii.
|}
<hr width="100%">
{| border="0" cellpadding="4" width="100%"
|width="500px" valign="top"|[[Grafika:PS_M1_Slajd20.png|thumb|500px]]
|valign="top"|
*Sygnały pokazane na rys. a) i b) są przykładami sygnałów dyskretnych o nieskończonym czasie trwania i ograniczonej energii. Są one dyskretnymi odpowiednikami sygnałów analogowych: wykładniczego malejącego oraz <math>Sa\ </math>, .
*Parametr <math>\theta_0\ </math>,  występujący w zapisie dyskretnego sygnału <math>Sa\ </math>, ma znaczenie ''pulsacji unormowanej''. W teorii sygnałów dyskretnych normuje się bowiem nie tylko czas, ale także pulsację (częstotliwość) sygnałów. Pojęcie pulsacji unormowanej można wyjaśnić na przykładzie dyskretnego sygnału <math>Sa\ </math>,  następująco. Sygnał ten można mianowicie traktować jako sygnał otrzymany w wyniku próbkowania analogowego sygnału <math>x(t)=Sa\omega_0 t</math>  w chwilach <math>t_n=nT_s\ </math>,  , gdzie <math>T_s\ </math>,  jest okresem próbkowania. W wyniku otrzymuje się dyskretny sygnał <math>x[n]=Sa\, n\omega_0 T_s</math>  . Wprowadzając  bezwymiarowy parametr <math>\theta_0=\omega_0 T_s\ </math>,  , sygnał ten można zapisać jako <math>x[n]=Sa\, n\theta_0\ </math>,  . Mówimy, że <math>\theta_0\ </math>, jest pulsacją unormowaną względem okresu próbkowania <math>T_s\ </math>,  . Zauważmy, że wykres dyskretnego sygnału <math>Sa\ </math>, z rys. b) został sporządzony dla <math>\theta_0=\pi/4</math> .
|}
<hr width="100%">
{| border="0" cellpadding="4" width="100%"
|width="500px" valign="top"|[[Grafika:PS_M1_Slajd21.png|thumb|500px]]
|valign="top"|
*Sygnały dyskretne pokazane na rys. a)-c) należą do klasy sygnałów o nieskończonym czasie trwania i ograniczonej mocy.
*Dyskretny skok jednostkowy <math>1[n]\ </math>, (rys. b) jest odpowiednikiem analogowego skoku jednostkowego <math>1(t)\ </math>, . Skok  sygnału o dowolną wartość <math>X_0\ </math>, przesunięty w czasie o <math>n_0\ </math>, próbek  można zapisać jako <math>X_01[n-n_0]\ </math>,  .
*Dyskretny sygnał harmoniczny pokazany na rys. c), nazywany także dyskretną sinusoidą, otrzymujemy w wyniku próbkowania analogowego sygnału harmonicznego <math>x(t)=X_0sin(\omega_0 t+\varphi_0)</math>  w chwilach <math>t_n=nT_s</math>  . Parametr <math>\theta_0=\omega_0 T_s</math>  jest pulsacją unormowaną. Należy podkreślić, że dyskretny sygnał harmoniczny nie musi być sygnałem okresowym zmiennej <math>n\ </math>,  . Można pokazać, że warunkiem jego okresowości  jest, aby liczba <math>2\pi/{\theta_0}\ </math>,  była liczbą wymierną.  Wykres na rys. c) został sporządzony dla <math>\theta_0=\pi/6\ </math>, oraz <math>\varphi_0=0\ </math>,  . W tym przypadku dyskretny sygnał harmoniczny jest oczywiście okresowy.
|}
|}


<hr width="100%">
<hr width="100%">

Aktualna wersja na dzień 12:03, 5 wrz 2023

  • Za pomocą sygnałów przekazywana jest informacja. Często mówi się, że sygnał jest nośnikiem informacji.
  • Modelami matematycznymi posługujemy się w wielu dziedzinach nauki i techniki. Operowanie modelami sygnałów ma szereg zalet, m.in. umożliwia:
    • formalną analizę sygnałów na różnym poziomie dokładności,
    • wprowadzenie jednoznacznych kryteriów podziału sygnałów i na tej podstawie dokonanie ich klasyfikacji,
    • abstrahowanie od natury fizycznej sygnałów (tj. traktowanie sygnałów jako wielkości bezwymiarowych).

  • Rozważania ograniczymy wyłącznie do sygnałów deterministycznych. Omówienie sygnałów losowych wymaga znajomości teorii procesów stochastycznych.
  • Sygnały dzielimy także ze względu na ich przeciwdziedzinę (zbiór wartości). Jeżeli zbiór ten jest ciągły, sygnał nazywamy ciągłym w amplitudzie. Jeżeli jest on dyskretny (w szczególności skończony) sygnał nazywamy dyskretnym w amplitudzie.


  • Łącząc kryteria podziału sygnałów ze względu na rodzaj ich dziedziny i przeciwdziedziny, można wyodrębnić cztery klasy sygnałów:
    • z czasem ciągłym i ciągłe w amplitudzie
    • z czasem ciągłym i dyskretne w amplitudzie
    • z czasem dyskretnym i ciągłe w amplitudzie
    • z czasem dyskretnym i dyskretne w amplitudzie (cyfrowe).
  • W klasie sygnałów dyskretnych wyróżniamy sygnały binarne, które przybierają w każdej chwili tylko dwie wartości binarne (np. 0 i 1 lub 1 i –1 ).

  • Zwróćmy uwagę, że sygnały przedstawione na rys. b) i d) otrzymujemy w wyniku próbkowania sygnałów z rys. a) i odpowiednio c). Z sygnałami powstałymi w wyniku próbkowania sygnałów analogowych mamy w praktyce do czynienia najczęściej. Sygnałami dyskretnymi mogą być jednak także sygnały nie mające pierwowzorów analogowych, np. ciąg notowań dziennych kursu złotówki do dolara. Podkreślmy, że sygnał dyskretny jest w istocie rzeczy ciągiem liczb.
  • Sygnały analogowe będziemy oznaczać x(t),y(t),... , ,zaś sygnały dyskretne - x(tn),y(tn),... , ,lub w przypadku próbkowania równomiernego w chwilach nTsx(nTs),y(nTs),... , , W odniesieniu do tych ostatnich z reguły operuje się czasem bezwymiarowym, unormowanym względem okresu próbkowania Ts , . Oznacza się je wówczas symbolami x[n],y[n],... , lub x(n),y(n),... , , gdzie nϵ , jest numerem próbki.

  • Podobnie jak w poprzednich przykładach, sygnały z rys. c) i d) są spróbkowanymi sygnałami z rys. a) i b).
  • Terminem impuls określamy zazwyczaj sygnały o krótkim czasie trwania. Zwróćmy uwagę, że w myśl przyjętej definicji sygnał impulsowy niekoniecznie musi trwać w czasie krótko. Istotne jest jedynie, aby jego czas trwania był skończony.

  • Reprezentację sygnału harmonicznego stanowi liczba zespolona Aejφ , , nazywana amplitudą zespoloną, gdzie A , jest amplitudą sygnału, a φ , – jego fazą.
  • W przypadku rozwinięcia sygnału okresowego o ustalonym okresie T0 , w rzeczywisty trygonometryczny szereg Fouriera (1.1) jego reprezentacja jest zbiór liczb rzeczywistych {a0,ak,bk:kϵ}, (zbiór współczynników Fouriera), zaś w przypadku rozwinięcia w zespolony trygonometryczny szereg Fouriera (1.2) – zbiór liczb zespolonych {Xk:kϵ} , .
  • Znanych jest wiele, czasami bardzo złożonych pod względem formalnym, reprezentacji sygnałów. Do najczęściej stosowanych należą:
    • transformata Fouriera (widmo sygnału)
    • transformata Laplace’a
    • szereg Kotielnikowa-Shannona
    • sygnał analityczny

Reprezentacje te będziemy omawiać na dalszych wykładach.


  • Parametry sygnałów są ich globalnymi charakterystykami liczbowymi. Definicje poszczególnych parametrów są zróżnicowane w zależności od klasy sygnału.
  • Wartość średnia sygnału o nieskończonym czasie trwania jest definiowana jako wielkość graniczna. Podobny charakter będą miały definicje innych wielkości charakteryzujących klasę sygnałów o nieskończonym czasie trwania.

  • Energia, moc średnia (krótko moc) i wartość skuteczna, należą do najważniejszych parametrów sygnału. Wielkości te są nazywane parametrami energetycznymi sygnałów. Ponieważ założyliśmy, że sygnały są wielkościami bezwymia¬rowymi, ich energię określoną wzorem (1.6) wyrażamy w sekundach, moc zaś określona wzorami (1.7) lub (1.8) oraz wartość skuteczna są bezwymiarowe.
  • Na podstawie parametrów energetycznych dokonujemy jeszcze jednego ważnego podziału sygnałów na dwie klasy: klasę sygnałów o ograniczonej energii oraz klasę sygnałów o ograniczonej mocy. Zauważmy, że:
    • moc sygnałów o ograniczonej energii jest równa zeru,
    • energia sygnałów o ograniczonej mocy jest nieskończona,
    • każdy sygnał impulsowy ograniczony w amplitudzie jest sygnałem o ograniczonej energii,
    • sygnały o nieskończonym czasie trwania mogą być sygnałami o ograniczonej energii bądź o ograniczonej mocy,
    • sygnały o ograniczonej mocy i ograniczone w amplitudzie są sygnałami o nieskończonym czasie trwania,
    • szczególną podklasą tych ostatnich są sygnały okresowe.
  • Zwróćmy uwagę, że moc sygnału określona wzorem (1.7) ma sens wielkości granicznej. Również jako wielkości graniczne będą dalej definiowane inne wielkości charakteryzujące sygnały o ograniczonej mocy (np. widmo, funkcja autokorelacji itd.).

  • Sygnał pokazany na rys. a) jest symetrycznym unormowanym impulsem prostokątnym o jednostkowym czasie trwania i jednostkowej amplitudzie. Jego wartość średnia i energia są również równe jedności. Został on oznaczony specjalnym symbolem Π(t) , . Posługując się tym symbolem, możemy zapisać dowolny impuls prostokątny o wysokości a , , szerokości b , i przesunięty względem zera o czas c , w postaci aΠ[(tc)/b] , .Również inne standardowe sygnały będą oznaczane wygodnymi w użyciu symbolami specjalnym, np. symetryczny impuls trójkątny Λ(t) , z rys. b. Podkreślmy, że w przeciwieństwie do impulsu prostokątnego Π(t) , czas trwania impulsu trójkątnego Λ(t) , jest z definicji równy 2.
  • Impulsy radiowe (rys. c), spotyka się zwykle w radiokomunikacji, telekomunikacji oraz technice radarowej i sonarowej. Sygnał x(t) , jest dowolnym sygnałem impulsowym (często prostokątnym) i jest nazywany obwiednią sygnału y(t) , , a sygnał cos(ω0t+φ0) , – jego wypełnieniem. Z reguły, czego siłą rzeczy nie oddaje rysunek, okres wypełnienia T0=2π/ω0 jest dużo mniejszy od czasu trwania impulsu y(t) , .

  • Sygnały przedstawione na rys. a), b) i c) są przykładami sygnałów o nieskończonym czasie trwania, których energia jest skończona.
  • Sygnał pokazany na rys. a) jest typowym sygnałem występującym w obwodach elektrycznych, np. sygnałem prądu rozładowania kondensatora w obwodzie RC.
  • Sygnał z rys. b), oznaczony symbolem specjalnym Sa (od ang. Sampling – próbkowanie), odgrywa w teorii sygnałów rolę szczególną, zwłaszcza w zagadnieniu próbkowania sygnałów. Dobrze znana z analizy matematycznej funkcja Saxsinx/x , nie ma wartości w zerze, dlatego w definicji tego sygnału wartość tę definiuje się dodatkowo jako równą jedności. Dodajmy, że funkcja Sa , będzie często występować również w opisie widmowym sygnałów.
  • Podobną rolę spełnia w teorii sygnałów funkcja Sa2 , . Sygnał o kształcie opisanym tą funkcją jest pokazany na rys. c).

  • Sygnały przedstawione na rys. a)–d) są przykładami prostych sygnałów o nieskończonym czasie trwania i ograniczonej mocy (ich energia jest nieskończona).
  • Sygnał skoku jednostkowego pokazany na rys. b) jest oznaczany symbolem specjalnym 1(t) , , używanym również w teorii obwodów. Zapis X01(tt0) , oznacza skok o wartość X0 , w chwili t0 , .
  • Sygnał wykładniczy narastający z rys. c) jest np. sygnałem napięcia na kondensatorze ładowanym przez opór z idealnego źródła napięciowego.

  • Na rys. a), b) i c) są pokazane przykłady najczęściej spotykanych sygnałów okresowych. Są to oczywiście sygnały o ograniczonej mocy. Pełnią one w praktyce rolę sygnałów nośnych w różnych systemach modulacji sygnałów, a także sygnałów synchronizujących.
  • Sygnał harmoniczny (rys. a) jest określony przez trzy parametry: amplitudę X0 , , pulsację ω0 , (lub częstotliwość f0=ω0/2π=1/T0 , gdzie T0 , jest okresem), oraz fazę początkową φ0 , . Jest on wykorzystywany m.in. jako fala nośna w analogowych systemach modulacji.
  • Fala prostokątna bipolarna (rys. b) jest wykorzystywana jako przebieg synchronizujący i zegarowy, zaś fala prostokątna unipolarna (rys. c) jako przebieg nośny w impulsowych systemach modulacji.

  • Funkcje |z(t)|=x2(t)+y2(t) i argz(t)=arctg[y(t)/x(t)] noszą nazwę modułu i odpowiednio argumentu sygnału z(t) , . Są to funkcje rzeczywiste czasu.
  • Sygnały zespolone również dzielimy na sygnały o ograniczonej energii i sygnały o ograniczonej mocy. W przypadku sygnałów zespolonych we wzorach definiujących energię (1.6) i moc (1.7) lub (1.8) należy w wyrażeniu podcałkowym uwzględnić nie kwadrat sygnału x2(t) , , a kwadrat modułu sygnału |x2(t)| , .

  • Sygnał harmoniczny zespolony z(t)=ejω0t (1.11), nazywany także sinusoidą zespoloną, jest często wykorzystywany do reprezentacji rzeczywistego sygnału harmonicznego x(t)=cosω0t , przy czym x(t)=Rez(t) . Jest to oczywiście sygnał o ograniczonej mocy. Jego moc, jak można łatwo sprawdzić korzystając ze zmodyfikowanego wzoru (1.8), jest równa 1.
  • Sygnałami harmonicznymi zespolonymi posługujemy się również w innych reprezentacjach sygnałów rzeczywistych, np. zbiór sygnałów {ejkω0t:kϵ} , tworzy tzw. bazę rozwinięcia sygnału okresowego o okresie T0=2π/ω0 w zespolony szereg Fouriera (por. wzór (1.2)).
  • Pojęcie sygnału analitycznego, określonego wzorami (1.12) i (1.13), jest jednym z ważniejszych pojęć teorii sygnałów. Stanowi on uogólnienie na sygnały nieharmoniczne reprezentacji rzeczywistego sygnału harmonicznego cosω0t , zespolonym sygnałem harmonicznym ejω0t=cosω0t+jsinω0t . Zgodnie z definicją sygnał ejω0t , jest właśnie sygnałem analitycznym sygnału ω0t , .

  • Impuls Diraca δ(t) (rys. a), nazywany również dystrybucją lub deltą Diraca, jest matematycznym modelem nierealizowalnego fizycznie, nieskończenie wąskiego impulsu występującego w chwili t=0 , , o nieskończenie dużej amplitudzie i polu równym 1 ,. Z formalnego punktu widzenia jest to sygnał o nieograniczonej mocy! Zapis X0δ(tt0) , oznacza impuls Diraca występujący w chwili t0 , o polu równym X0 , .
  • Przytoczona definicja impulsu δ(t) jest definicją klasyczną, podaną jeszcze przez Diraca. Współcześnie deltę Diraca definiuje się w sposób bardziej ścisły na gruncie teorii dystrybucji.
  • Za pomocą dystrybucji grzebieniowej (nazywanej w literaturze także dystrybucją sza lub comb) można w sposób wygodny zapisać formalnie operację próbkowania równomiernego sygnału jako iloczyn tego sygnału i dystrybucji δT0 , . W efekcie otrzymujemy tzw. impulsowy sygnał spróbkowany (1.14) pokazany na rys. d). Sygnał ten stanowi dystrybucyjną reprezentację sygnału spróbkowanego.

  • Zgodnie z właściwością (1.15), w wyniku mnożenia sygnału x(t) , przez impuls Diraca δ(tt0) , występujący w chwili t0 , wyodrębniamy niejako z całego sygnału x(t) , jego wartość (próbkę) x(t0) , w chwili t0 , , którą reprezentujemy impulsem Diraca δ(tt0) , o polu równym x(t0) , . Inaczej mówiąc, impuls x(t0)δ(tt0) , stanowi reprezentację dystrybucyjną próbki x(t0) , .
  • Właściwość filtracji (1.16) wynika natychmiast w właściwości (1.15) i definicji dystrybucji Diraca.
  • Całka impulsu Diraca w granicach od  , do t , jest równa sygnałowi skoku jednostkowego. Pochodna skoku jednostkowego jest równa impulsowi Diraca. Związki te należy jednak rozumieć w sensie dystrybucyjnym.
  • Splot sygnału x(t) , z impulsem Diraca δ(t) , daje w wyniku ponownie sygnał x(t) , . Oznacza to, że δ(t) , jest elementem identycznościowym operacji splotu. Splot sygnału x(t) , z impulsem Diraca przesuniętym o czas t0 , daje w wyniku niezmienioną kopię tego sygnału przesuniętą o ten sam czas.

  • Właściwość (1.18) jest uogólnieniem właściwości (1.15). Mnożenie sygnału x(t) , przez dystrybucję grzebieniową daje w wyniku reprezentację dystrybucyjną sygnału sprókowanego w postaci impulsowego sygnału sprókowanego (1.14).
  • Zgodnie z właściwością (1.19), w wyniku splecenia sygnału x(t) , z dystrybucją grzebieniową δT0(t) , powstaje sygnał, który jest przedłużeniem okresowym sygnału x(t) , z okresem T0 , . Jeśli sygnał x(t) , jest sygnałem impulsowym o czasie trwania mniejszym bądź równym T0 , , to przedłużenie to jest ciągiem dokładnych kopii sygnału x(t) , powtarzanych co odcinek czasu T0 , . W przeciwnym przypadku powielone kopie nakładają się na siebie i w sygnale przedłużonym okresowo nie jest zachowany kształt sygnału x(t) , .

  • Podobnie jak w przypadku sygnałów analogowych, wartość średnia sygnału dyskretnego jest definiowana odmiennie dla różnych klas sygnałów. Definicje te są analogiczne, z tym że całki we wzorach (1.2) –(1.4) są zastąpione odpowiednimi sumami.
  • W przypadku sygnałów dyskretnych o nieskończonym czasie trwania ich wartość średnia – tak jak dla sygnałów analogowych – jest definiowana jako wielkość graniczna. Także inne wielkości charakteryzujące tę klasę sygnałów będą definiowane w sensie granicznym.

  • Wzory (1.23)–(1.26), określające parametry energetyczne sygnałów dyskretnych, są odpowiednikami wzorów (1.6)–(1.9) definiujących te parametry dla sygnałów analogowych.
  • Jeśli energia sygnału dyskretnego x[n] , , określona wzorem (1.23), spełnia warunek 0<Ex< , , to sygnał taki nazywamy sygnałem o ograniczonej energii. Jeśli moc sygnału dyskretnego x[n] , , określona wzorem (1.24) lub (1.25), spełnia warunek 0<Px< , , to sygnał ten nazywamy sygnałem o ograniczonej mocy.

  • Zgodnie z przyjętą konwencją we wszystkich przytoczonych tu przykładach sygnałów dyskretnych wyrażamy je jako funkcje czasu nϵ , unormowanego względem okresu próbkowania.
  • Impuls Kroneckera δ[n] , (rys. a) jest sygnałem dyskretnym przybierającym wartość niezerową i równą 1 , jedynie w chwili n=0 , . Pozostałe jego próbki są zerowe. Jest on odpowiednikiem analogowego impulsu Diraca δ(t) , , jednak w przeciwieństwie do niego impuls δ[n] , jest zwykłą funkcją. Symbol X0δ[nn0] , oznacza sygnał dyskretny przybierający jedyną niezerową wartość X0 , w chwili n0 , .
  • Zarówno impuls Kroneckera, jak i impuls prostokątny (rys. b) oraz impuls trójkątny (rys. c) są przykładami impulsowych sygnałów dyskretnych o ograniczonej energii.

  • Sygnały pokazane na rys. a) i b) są przykładami sygnałów dyskretnych o nieskończonym czasie trwania i ograniczonej energii. Są one dyskretnymi odpowiednikami sygnałów analogowych: wykładniczego malejącego oraz Sa , .
  • Parametr θ0 , występujący w zapisie dyskretnego sygnału Sa , ma znaczenie pulsacji unormowanej. W teorii sygnałów dyskretnych normuje się bowiem nie tylko czas, ale także pulsację (częstotliwość) sygnałów. Pojęcie pulsacji unormowanej można wyjaśnić na przykładzie dyskretnego sygnału Sa , następująco. Sygnał ten można mianowicie traktować jako sygnał otrzymany w wyniku próbkowania analogowego sygnału x(t)=Saω0t w chwilach tn=nTs , , gdzie Ts , jest okresem próbkowania. W wyniku otrzymuje się dyskretny sygnał x[n]=Sanω0Ts . Wprowadzając bezwymiarowy parametr θ0=ω0Ts , , sygnał ten można zapisać jako x[n]=Sanθ0 , . Mówimy, że θ0 , jest pulsacją unormowaną względem okresu próbkowania Ts , . Zauważmy, że wykres dyskretnego sygnału Sa , z rys. b) został sporządzony dla θ0=π/4 .

  • Sygnały dyskretne pokazane na rys. a)-c) należą do klasy sygnałów o nieskończonym czasie trwania i ograniczonej mocy.
  • Dyskretny skok jednostkowy 1[n] , (rys. b) jest odpowiednikiem analogowego skoku jednostkowego 1(t) , . Skok sygnału o dowolną wartość X0 , przesunięty w czasie o n0 , próbek można zapisać jako X01[nn0] , .
  • Dyskretny sygnał harmoniczny pokazany na rys. c), nazywany także dyskretną sinusoidą, otrzymujemy w wyniku próbkowania analogowego sygnału harmonicznego x(t)=X0sin(ω0t+φ0) w chwilach tn=nTs . Parametr θ0=ω0Ts jest pulsacją unormowaną. Należy podkreślić, że dyskretny sygnał harmoniczny nie musi być sygnałem okresowym zmiennej n , . Można pokazać, że warunkiem jego okresowości jest, aby liczba 2π/θ0 , była liczbą wymierną. Wykres na rys. c) został sporządzony dla θ0=π/6 , oraz φ0=0 , . W tym przypadku dyskretny sygnał harmoniczny jest oczywiście okresowy.