Analiza matematyczna 2/Wykład 12: Całka krzwoliniowa. Twierdzenie Greena

From Studia Informatyczne

Całka krzywoliniowa. Twierdzenie Greena

Ten wykład poświęcony jest pojęciu całki krzywoliniowej i twierdzeniu pozwalającemu liczyć całki krzywoliniowe przy pomocy całek podwójnych (albo vice versa) - czyli twierdzeniu Greena. Nasze rozważania dotyczące krzywych ograniczamy do krzywych płaskich (leżących w \displaystyle \displaystyle\mathbb{R}^2). Podajemy definicje parametryzacji krzywej, krzywej regularnej, krzywej zamkniętej, orientacji, zbioru normalnego i zbioru regularnego. Twierdzenia Greena dowodzimy dla zbiorów regularnych. Wprowadzamy też pojęcie pola potencjalnego.

Na początku tego wykładu warto przypomnieć sobie twierdzenie Newtona-Leibniza (patrz Analiza matematyczna 1 twierdzenie 14.15.), które mówi, że

\displaystyle \displaystyle\int\limits_a^b f(x)\,dx \ =\ F(b)-F(a),

gdzie \displaystyle F jest pierwotną funkcji \displaystyle f. Zauważmy, że twierdzenie to wyraża całkę z funkcji \displaystyle f po odcinku (przedziale \displaystyle [a,b]) za pomocą wartości \displaystyle F na brzegu odcinka (to znaczy w punktach \displaystyle a i \displaystyle b).

Okazuje się, że twierdzenie to można uogólnić. Takim uogólnieniem będzie twierdzenie Greena, które poznamy na tym wykładzie. Pozwala ono zamienić całkowanie po obszarze płaskim na całkowanie po krzywej, która ogranicza ten obszar.

Krzywe



Krzywa w \mathbb{R}^2

Przypomnijmy definicję krzywej zwyczajnej (patrz Analiza matematyczna 1 definicja 15.1.).

Niech \displaystyle \displaystyle [a,b] będzie przedziałem w \displaystyle \displaystyle\mathbb{R}. Weźmy ciągłą funkcję

\displaystyle \gamma : [a,b]\ni t \to (\varphi(t),\psi(t))\in \mathbb{R}^2.

Załóżmy, że funkcja \displaystyle \displaystyle\gamma jest różnowartościowa na \displaystyle \displaystyle (a, b] i na \displaystyle \displaystyle [a,b). (Możliwe jest więc, że \displaystyle \displaystyle\gamma(a)=\gamma(b)). Definicja 12.1.

Przy założeniach jak wyżej, krzywą zwyczajną \displaystyle K będziemy nazywać obraz odcinka \displaystyle \displaystyle [a,b] przez \displaystyle \displaystyle\gamma,

\displaystyle K \ :=\ \{\gamma(t)\in \mathbb{R}^2 | t\in[a,b]\}.

Funkcję \displaystyle \displaystyle\gamma nazywamy parametryzacją krzywej \displaystyle K.

W dalszych rozważaniach będziemy zajmować się tylko krzywymi zwyczajnymi (czyli takimi, które nie mają punktów wielokrotnych, więc będziemy pisać "krzywa", zakładając, że jest to krzywa zwyczajna.

Uwaga 12.2.

Krzywa \displaystyle K może mieć różne parametryzacje.

Przykład 12.3.

Jako krzywą \displaystyle K weźmy odcinek w \displaystyle \displaystyle\mathbb{R}^2 łączący punkt \displaystyle \displaystyle (0,0) z punktem \displaystyle \displaystyle (1,1). Oto przykłady parametryzacji \displaystyle K:
(1) \displaystyle \displaystyle\gamma_I: [0,1]\to \mathbb{R}^2, \ \gamma_I(t)=(t,t),
(2) \displaystyle \displaystyle\gamma_{II}: [0,\frac{1}{2}]\to \mathbb{R}^2, \ \gamma_{II}(t)=(2t,2t),
(3)

\displaystyle \displaystyle\gamma_{III}: [0,1]\to \mathbb{R}^2, \ \gamma_{III}(t)=(1-t,1-t).




Parametryzacje odcinka


Łuk gładki

Definicja 12.4.

(1) Krzywą \displaystyle K nazywamy łukiem gładkim, jeśli istnieje parametryzacja \displaystyle \displaystyle\gamma=(\varphi,\psi): [a,b]\to\mathbb{R}^2 taka, że pochodne \displaystyle \displaystyle\varphi' i \displaystyle \displaystyle\psi' są ciągłe oraz zachodzi

\displaystyle (\varphi'(t))^2+(\psi'(t))^2>0, dla każdego \displaystyle   t\in [a,b].

(2) Krzywą \displaystyle K nazywamy regularną, jeśli można ją podzielić na skończoną ilość łuków gładkich, to znaczy, jeśli istnieje parametryzacja \displaystyle \displaystyle\gamma : [a,b]\to\mathbb{R}^2 i istnieje podział odcinka \displaystyle \displaystyle [a,b] punktami \displaystyle a=t_0<t_1<\ldots<t_s=b taki, że \displaystyle \displaystyle\gamma_{[t_i,t_{i+1}]}, i=0,\ldots,s-1 parametryzuje łuk gładki.
(3) Jeśli \displaystyle \displaystyle\gamma(a)=\gamma(b), to krzywą nazywamy

zamkniętą.


Krzywa regularna, która nie jest łukiem gładkim


Krzywa, która nie jest zwyczajna

Weźmy teraz krzywą \displaystyle K i jej parametryzację \displaystyle \displaystyle\gamma : [a,b]\to\mathbb{R}^2. Ustalmy \displaystyle t_1,t_2\in [a,b] takie, że \displaystyle t_1<t_2 i oznaczmy \displaystyle \displaystyle\gamma(t_1)=P_1, \gamma(t_2)=P_2. Niech \displaystyle \displaystyle\tilde{\gamma}:[\alpha,\beta]\to \mathbb{R}^2 będzie inną parametryzacją krzywej \displaystyle K.

Definicja 12.5.

(1) Mówimy, że \displaystyle \displaystyle\tilde{\gamma} zadaje na \displaystyle K tę samą orientację co \displaystyle \displaystyle\gamma, jeśli dla \displaystyle q_1, q_2\in[\alpha,\beta] takich, że \displaystyle \displaystyle\tilde{\gamma}(q_1)=P_1 i \displaystyle   \tilde{\gamma}(q_2)=P_2 mamy \displaystyle q_1<q_2.
(Oznacza to, że dla \displaystyle \displaystyle\tau przebiegających wartości od \displaystyle \displaystyle\alpha do \displaystyle \displaystyle\beta, wartości \displaystyle \displaystyle\tilde{\gamma}(\tau) "wędrują" po krzywej \displaystyle K od punktu \displaystyle A do punktu \displaystyle B, tak samo jak wartości \displaystyle \displaystyle\gamma(t) dla \displaystyle t przebiegającego od \displaystyle a do \displaystyle b).
(2) Mówimy, że \displaystyle \displaystyle\tilde{\gamma} zadaje na \displaystyle K orientację przeciwną niż \displaystyle \displaystyle\gamma jeśli dla \displaystyle q_1, q_2 \in [\alpha,\beta] takich, że \displaystyle \displaystyle\tilde{\gamma}(q_1)=P_1 i \displaystyle \displaystyle\tilde{\gamma}(q_2)=P_2 mamy \displaystyle q_1>q_2.
(Tym razem dla \displaystyle \displaystyle\tau przebiegających wartości od \displaystyle \displaystyle\alpha do \displaystyle \displaystyle\beta, wartości \displaystyle \displaystyle\tilde{\gamma}(\tau) "wędrują" po krzywej \displaystyle K od punktu \displaystyle B do punktu \displaystyle A).

Jeśli \displaystyle A\neq B, to jako \displaystyle t_1, t_2 możemy wziąć po prostu \displaystyle a i \displaystyle b.

Przykład 12.6.

Wróćmy do trzech parametryzacji odcinka, pokazanych w przykładzie powyżej. Łatwo zauważyć, że \displaystyle \displaystyle\gamma_{II} zadaje na \displaystyle K tę samą orientację co \displaystyle \displaystyle\gamma_I, a \displaystyle \displaystyle\gamma_{III} zadaje orientację przeciwną niż \displaystyle \displaystyle\gamma_{I} (i \displaystyle \displaystyle\gamma_{II}); weźmy na przykład \displaystyle t_1=0, t_2=1, wtedy \displaystyle \displaystyle\gamma_I(t_1)=(0,0), \gamma_I(t_2)=(1,1) oraz mamy \displaystyle \displaystyle\gamma_{II}(0)=(0,0), \gamma_{II}\bigg(\frac{1}{2}\bigg)=(1,1) i \displaystyle 0<\frac{1}{2}. Dla \displaystyle \displaystyle\gamma_{III} natomiast, \displaystyle \displaystyle\gamma_{III}(1)=(0,0) i \displaystyle \displaystyle\gamma_{III}(0)=(1,1),\displaystyle 1>0, a więc \displaystyle \displaystyle\gamma_{III} zadaje orientację przeciwną niż \displaystyle \displaystyle\gamma_I, (patrz rysunek do przykładu 12.3.)

Możemy teraz zdefiniować całkę krzywoliniową zorientowaną.

Definicja 12.7.

Niech \displaystyle K będzie krzywą w \displaystyle  \mathbb{R}^2 daną przez parametryzację \displaystyle \displaystyle\gamma =(\varphi,\psi) : [a,b]\to\mathbb{R}^2. Niech \displaystyle F będzie odwzorowaniem ciągłym

\displaystyle F \ =\ (P,Q): K\to \mathbb{R}^2.

Niech \displaystyle \displaystyle\circ oznacza iloczyn skalarny w \displaystyle \displaystyle\mathbb{R}^2, przez \displaystyle \displaystyle (x,y) oznaczymy zmienne w \displaystyle \displaystyle\mathbb{R}^2. Wówczas całkę

\displaystyle \displaystyle\int\limits_a^b\left(F(\gamma(t))\circ\gamma'(t)\right)dt

nazywamy całką krzywoliniową zorientowaną po krzywej \displaystyle K i oznaczamy

\displaystyle \displaystyle\int\limits_KF\circ d\textbf{x},

gdzie \displaystyle d\textbf{x}=(dx,dy).



Krzywa zw. zamknięta będąca łukiem gładkim


Krzywa regularna zamknięta

Zauważmy, że

\begin{array}{lll}\displaystyle F(\gamma(t))\circ\gamma'(t) \ &=& \displaystyle  (P(\varphi(t),\psi(t)),Q(\varphi(t),\psi(t)))\circ(\varphi'(t),\psi'(t))\\ \ &=& \displaystyle  P(\varphi(t),\psi(t))\varphi'(t)+Q(\varphi(t),\psi(t))\psi'(t), \end{array}

wszystkie funkcje występujące w tym wyrażeniu są z założenia ciągłe, zatem istnieje całka (Riemanna) po przedziale \displaystyle \displaystyle [a,b] z \displaystyle F(\gamma(t))\circ\gamma'(t).

Uwaga 12.8.

Zapis i oznaczenia
Całkę krzywoliniową \displaystyle \displaystyle\displaystyle\int\limits_KF\circ d\textbf{x} dla krzywej w \displaystyle K\subset \mathbb{R}^2 zapisuje się najczęściej jako

\displaystyle \displaystyle\int\limits_KP(x,y)dx+Q(x,y)dy,

a dla krzywej zamkniętej \displaystyle K

\displaystyle \oint_KP(x,y)dx+Q(x,y)dy.

Wykażemy teraz następujące stwierdzenie.

Stwierdzenie 12.9.

Niech \displaystyle K,\displaystyle F i \displaystyle \displaystyle\gamma będą jak wdefinicji 12.7. Niech \displaystyle \displaystyle\hat{\gamma}:[\alpha,\beta]\to \mathbb{R}^2 będzie inną parametryzacją krzywej \displaystyle K. Jeśli \displaystyle \displaystyle\hat{\gamma} zadaje tę samą orientację krzywej \displaystyle K co \displaystyle \displaystyle\gamma, to

\displaystyle \displaystyle\int\limits_K\mathbf{F}od\mathbf{x}=\displaystyle\int\limits_a^bF(\hat{\gamma}(t))\circ\hat{\gamma}'(t)dt;

jeśli natomiast \displaystyle \displaystyle\hat{\gamma} zadaje orientację krzywej \displaystyle K przeciwną niż \displaystyle \displaystyle\gamma, to

\displaystyle \displaystyle\int\limits_K\mathbf{F}od\mathbf{x}=-\displaystyle\int\limits_a^bF(\hat{\gamma}(t))\circ\hat{\gamma}'(t)dt.

Stwierdzenie to mówi zatem, że dla parametryzacji dających tę samą orientację krzywej, całki krzywoliniowe zorientowane są równe. Dla parametryzacji dających orientację przeciwną, całka krzywoliniowa zorientowana zmienia znak - i stąd nazwa "zorientowana".

Warto tu zauważyć, że w takim razie - z dokładnością do znaku - całka krzywoliniowa nie zależy od parametryzacji, zależy tylko od krzywej jako zbioru i od odwzorowania \displaystyle F.

Dowód 12.9.

Weźmy parametryzację krzywej \displaystyle K,\displaystyle \displaystyle\hat{\gamma}:[\alpha,\beta]\to \mathbb{R}^2 dającą tę samą orientację co \displaystyle \displaystyle\gamma. Musimy wykazać, że

\displaystyle \displaystyle\int\limits_a^bF(\gamma(t))\circ\gamma'(t)dt \ =\ \displaystyle\int\limits_{\alpha}^{\beta}F(\hat{\gamma}(t))\circ\hat{\gamma}'(t)dt.

Oznaczmy przez \displaystyle \displaystyle\varphi(t):=\gamma^{-1}(\hat{\gamma}(t)). Wtedy \displaystyle \displaystyle\hat{\gamma}(t)=\gamma(\varphi(t)) i \displaystyle \displaystyle\hat{\gamma}'(t)=\gamma'(\varphi(t))\varphi'(t). A zatem :

\displaystyle \displaystyle\int\limits_{\alpha}^{\beta}F(\hat{\gamma}(t))\circ\hat{\gamma}'(t) \ =\ \displaystyle\int\limits_{\alpha}^{\beta}F(\gamma(\varphi(t)))\circ\gamma'(\varphi(t))\varphi'(t)dt.

Skorzystamy z twierdzenia o zmianie zmiennych w całce Riemanna (Analiza matematyczna 1 twierdzenie 14.19). Przyjmijmy \displaystyle s=\varphi(t), wtedy \displaystyle \displaystyle\varphi[\alpha,\beta]=[a,b] i mamy

\displaystyle \displaystyle\int\limits_{\alpha}^{\beta}F(\gamma(\varphi(t)))\circ\gamma'(\varphi(t))\varphi'(t)dt=\displaystyle\int\limits_a^bF(\gamma(s))\gamma'(s)ds,

co należało dowieść.

Niech teraz \displaystyle \displaystyle\hat{\gamma}:[\alpha,\beta]\to \mathbb{R}^2 będzie parametryzacją \displaystyle K dającą orientację przeciwną \displaystyle \displaystyle\gamma. Mamy wykazać, że

\displaystyle \displaystyle\int\limits_a^bF(\gamma(t))\circ\gamma'(t)dt \ =\ -\displaystyle\int\limits_{\alpha}^{\beta}F(\hat{\gamma}(t))\circ\hat{\gamma}'(t)dt.

Zdefiniujmy parametryzację \displaystyle \displaystyle\tilde{\gamma} następująco:

\displaystyle \tilde{\gamma}:[-b,-a]\ni t \to \hat\gamma(-t)\in K.

Nietrudno zobaczyć, że jeśli \displaystyle \displaystyle\hat{\gamma} daje orientację przeciwną niż \displaystyle \displaystyle\gamma, to \displaystyle \displaystyle\tilde{\gamma} daje tę samą orientację co \displaystyle \displaystyle\gamma. A zatem z pierwszej części dowodu mamy

\displaystyle \displaystyle\int\limits_a^bF(\gamma(t))\circ\gamma'(t)dt \ =\ \displaystyle\int\limits_{-b}^{-a}F(\tilde{\gamma}(s))\circ\tilde{\gamma}'(s)ds \ =\ \displaystyle\int\limits_{-b}^{-a}F(\hat{\gamma}(-s))\circ(\hat{\gamma}(-s))'ds.

Zauważmy, że \displaystyle \displaystyle (\hat{\gamma}(-s))'=-\hat{\gamma}'(-s). Przyjmując \displaystyle t=-s, mamy zatem:

\displaystyle \displaystyle\int\limits_{-b}^{-a}F(\hat{\gamma}(-s))\circ(\hat{\gamma}(-s))'ds \ =\ \displaystyle\int\limits_{b}^{a}F(\hat{\gamma}(t))\circ(-\hat{\gamma}'(t))d(-t) \ =\ -\displaystyle\int\limits_{a}^{b}F(\hat{\gamma}(t))\circ\hat{\gamma}'(t)dt.
image:End_of_proof.gif
Uwaga 12.10.

(1) Niech \displaystyle \displaystyle\gamma :[a,b]\to \mathbb{R}^2 będzie parametryzacją krzywej \displaystyle K. Przez \displaystyle -K będziemy oznaczać krzywą \displaystyle K z parametryzacją \displaystyle \displaystyle\hat\gamma :[-b,-a]\to \mathbb{R}^2, \hat{\gamma}(t):=\gamma(-t) (\displaystyle \displaystyle\hat{\gamma} zadaje orientację przeciwną niż \displaystyle \displaystyle\gamma).
(2) Jeśli krzywa \displaystyle K_1 ma parametryzację \displaystyle \displaystyle\gamma_1 :[a,b]\to \mathbb{R}^2, a krzywa \displaystyle K_2 parametryzację \displaystyle \displaystyle\gamma_2 :[b,c]\to \mathbb{R}^2 oraz \displaystyle \gamma_1(b)=\gamma_2(b), to przez \displaystyle K_1+K_2 będziemy oznaczać krzywą o parametryzacji

\displaystyle \gamma: [a,c]\ni t \to \begincases  \gamma_1(t), \ t\in[a,b]\\ \gamma_2(t)\ t\in [b,c]. \endcases

(Czyli \displaystyle K_1+K_2 jest "sklejeniem" krzywych \displaystyle K_1 i \displaystyle K_2 w ten sposób, że koniec \displaystyle K_1 łączy się z początkiem \displaystyle K_2).

Przykład 12.11.

(1) Policzyć całkę

\displaystyle \displaystyle\int\limits_K(x-y)dx+(x+y)dy,

gdzie \displaystyle K jest górną połową okręgu o promieniu \displaystyle 1.

Górna połowa okręgu o promieniu \displaystyle 1 jest sparametryzowana przez

\displaystyle \gamma :[0,\pi)\ni t \to (\cos t, \sin t)\in \mathbb{R}^2.

A zatem zgodnie z definicją całki krzywoliniowej

\displaystyle \aligned  \displaystyle\int\limits_K(x-y)dx+(x+y)dy &= \displaystyle\int\limits_0^{\pi}\left((\cos t-\sin t)(\cos t)'+(\cos t+\sin t)(\sin t)'\right)dt\\ &= \displaystyle\int\limits_0^{\pi}\left((\cos t-\sin t)(-\sin t)+(\cos t+\sin t)\cos t\right)dt \displaystyle\int\limits_0^{\pi}dt =\pi. \endaligned

(2) Policzyć całkę

\displaystyle \displaystyle\int\limits_K ydx+xdy,

gdzie \displaystyle K jest okręgiem o promieniu \displaystyle R.

Parametryzacją okręgu o promieniu \displaystyle R jest

\displaystyle \gamma :[0,2\pi)\ni t \to (R\cos t, R\sin t)\in \mathbb{R}^2,

zatem

\displaystyle \aligned  \displaystyle\int\limits_Kydx+xdy &= \displaystyle\int\limits_0^{2\pi}\left((R\sin t)(-R\sin t)+(R\cos t)(R\cos t)\right)dt\\&=R^2\displaystyle\int\limits_0^{2\pi}(\cos^2t-\sin^2t)dt = R^2\displaystyle\int\limits_0^{2\pi}\cos 2tdt=\frac{R^2}{2}\sin{2t}\bigg|_0^{2\pi}=0. \endaligned

(3) Policzyć całkę

\displaystyle \displaystyle\int\limits_K\cos^2x dy+\sin^2y dx,

gdzie \displaystyle K jest odcinkiem w \displaystyle \displaystyle\mathbb{R}^2 łączącym punkt \displaystyle \displaystyle (0,0) z Punktem \displaystyle \displaystyle (1,1).

Jak już wiemy, odcinek \displaystyle K możemy sparametryzować za pomocą:

\displaystyle \gamma:[0,1]\ni t \to (t,t)\in K\subset \mathbb{R}^2.

Stąd

\displaystyle \displaystyle\int\limits_K\cos^2x dy+\sin^2y dx=\displaystyle\int\limits_0^1(\cos^2 t\cdot 1 +\sin^2 t\cdot 1)d t=\displaystyle\int\limits_0^1dt=1.


Dodatnia orientacja krzywej K

Sformułujemy teraz i udowodnimy twierdzenie, które mówi o związku całki krzywoliniowej z całką podwójną. Potrzebne nam będzie pojęcie krzywej zamkniętej "zorientowanej dodatnio". Weźmy \displaystyle K, krzywą zamkniętą w \displaystyle \displaystyle\mathbb{R}^2, ograniczającą zbiór \displaystyle D. Wybierzmy parametryzację \displaystyle \displaystyle\gamma krzywej \displaystyle K. Wybór parametryzacji wyznacza kierunek obiegu krzywej - z danego punktu poruszamy się w kierunku pokazywanym przez wektor styczny \displaystyle \displaystyle [\varphi'(t),\psi'(t)]. Umawiamy się, że \displaystyle K jest zorientowana dodatnio, jeśli przy obiegu \displaystyle K zgodnie z kierunkiem wyznaczonym przez parametryzację zbiór \displaystyle D zostaje "po naszej lewej stronie".

Weźmy teraz krzywą \displaystyle K zorientowaną dodatnio ograniczającą zbiór \displaystyle D\subset \mathbb{R}^2. Niech \displaystyle \displaystyle\overline{D} oznacza \displaystyle D\cup K. (Zapisujemy także \displaystyle K=\partial D,\displaystyle K jest brzegiem \displaystyle D). Załóżmy, że zbiór \displaystyle D jest normalny ze względu na obie osie. Weźmy dwie funkcje \displaystyle P, Q : \overline{D}\to \mathbb{R}, ciągłe w \displaystyle \displaystyle\overline{D} i mające ciągłe pochodne cząstkowe w \displaystyle D. Możemy teraz wypowiedzieć twierdzenie.

Twierdzenie 12.12. [Twierdzenie Greena]

Niech krzywa \displaystyle K, zbiór \displaystyle D oraz funkcje \displaystyle P(x,y) i \displaystyle Q(x,y) będą jak wyżej. Wtedy:

\displaystyle \oint_K Pdx+Qdy \ =\ \iint\limits_D\left(\frac{\partial Q}{\partial x} -\frac{\partial P}{\partial y} \right)dxdy.

Dowód 12.12.

Wykażemy, że

\displaystyle \oint_K P(x,y)dx \ =\ \iint\limits_D -\frac{\partial P}{\partial y}(x,y)dxdy

i

\displaystyle \oint_K Q(x,y) dy \ =\ \iint\limits_D\frac{\partial Q}{\partial x}(x,y) dxdy.

Skoro zbiór \displaystyle D jest normalny względem osi \displaystyle Ox, to istnieje przedział \displaystyle \displaystyle [a,b]\subset \mathbb{R} i dwie funkcje \displaystyle y_1(x), y_2(x) takie, że

\displaystyle D \ =\ \{(x,y)\in \mathbb{R}^2 : a\leq x\leq b, y_1(x)\leq y \leq y_2(x)\}.

Oznaczmy przez \displaystyle K_1 wykres funkcji \displaystyle y_1(x), a przez \displaystyle K_2 wykres funkcji \displaystyle y_2(x). Wówczas

\displaystyle K \ =\ K_1+(-K_2),

zatem

\displaystyle \iint\limits_D \frac{\partial P}{\partial y}(x,y)dxdy \ =\ \displaystyle\int\limits_a^b \dy \displaystyle\int\limits_{y_1(x)}^{y_2(x)}\frac{\partial P}{\partial y}(x,y)dxdy \ =\ \displaystyle\int\limits_a^b\left(P(x,y_2(x))-P(x,y_1(x))\right)dx.

Korzystając teraz z definicji całki krzywoliniowej, mamy:

\displaystyle \displaystyle\int\limits_{K_2}P(x,y)dx=\displaystyle\int\limits_a^bP(x,y_2(x))dx

oraz

\displaystyle \displaystyle\int\limits_{K_1}P(x,y)dx=\displaystyle\int\limits_a^bP(x,y_1(x))dx,

a zatem

\displaystyle \aligned  \displaystyle\int\limits_a^b\left(P(x,y_2(x))-P(x,y_1(x))\right)dx&=\displaystyle\int\limits_{K_2}P(x,y)dx-\displaystyle\int\limits_{K_1}P(x,y)dx\\ &= -\displaystyle\int\limits_{-K_2}P(x,y)dx-\displaystyle\int\limits_{K_1}P(x,y)dx=-\oint_KP(x,y)dx. \endaligned

Analogicznie, skoro \displaystyle D jest normalny względem osi \displaystyle Oy, to istnieje przedział \displaystyle \displaystyle [c,d]\subset \mathbb{R} i dwie funkcje \displaystyle x_1(y), x_2(y) takie, że

\displaystyle D \ =\ \{(x,y)\in \mathbb{R}^2 : c\leq y\leq d, x_1(y)\leq x \leq x_2(y)\}.

Oznaczmy przez \displaystyle L_1 wykres funkcji \displaystyle x_1(y), a przez \displaystyle L_2 wykres funkcji \displaystyle x_2(y). Wówczas

\displaystyle K \ =\ L_1+(-L_2),

zatem

\displaystyle \iint\limits_D \frac{\partial Q}{\partial x}(x,y)dxdy \ =\ \displaystyle\int\limits_c^d dy \displaystyle\int\limits_{x_1(y)}^{x_2(y)}\frac{\partial Q}{\partial x}(x,y)dx \ =\ \displaystyle\int\limits_c^d\left(Q(x_2(y),y)-Q(x_1(y),y)\right)dy=

analogicznie jak wyżej

\displaystyle =\displaystyle\int\limits_{L_2}Q(x,y)dx-\displaystyle\int\limits_{L_1}Q(x,y)dx= \displaystyle \oint\limits_{K} Q(x,y)dx.
image:End_of_proof.gif
Uwaga 12.13.

Zauważmy, że twierdzenie Greena jest prawdziwe także dla zbiorów, które możemy podzielić na skończoną sumę zbiorów normalnych względem obu osi.



Podział zbioru na zbiory normalne

Dowód 12.13.

Wystarczy wykazać uwagę dla zbioru \displaystyle D będącego sumą dwóch zbiorów normalnych względem obu osi \displaystyle D=D_1\cup D_2. Niech \displaystyle L będzie krzywą dzielącą \displaystyle D na \displaystyle D_1\cup D_2, niech \displaystyle K_1=\partial D_1\setminus L, K_2=\partial D\setminus L. Zauważmy, że jeśli \displaystyle \displaystyle\partial D_1 i \displaystyle \displaystyle\partial D_2 zorientujemy dodatnio, to krzywą \displaystyle L przebiegamy raz w jedną, raz w drugą stronę, możemy zatem napisać \displaystyle \displaystyle\partial D=K=K_1+L+K_2-L.

Wtedy

\begin{array}{lll} \displaystyle\iint\limits_D\left(\frac{\partial Q}{\partial x} -\frac{\partial P}{\partial y} \right)dxdy&=&\displaystyle \iint\limits_{D_1}\left(\frac{\partial Q}{\partial x} -\frac{\partial P}{\partial y} \right)dxdy+\iint\limits_{D_2}\left(\frac{\partial Q}{\partial x} -\frac{\partial P}{\partial y} \right)dxdy\\ &=&\displaystyle\int\limits_{K_1+L}Pdx+Qdy+ \displaystyle\int\limits_{K_2-L}Pdx+Qdy=\displaystyle\int\limits_KPdx+Qdy. \end{array}

image:End_of_proof.gif

Przykład 12.14.

(1) Policzyć jeszcze raz całkę

\displaystyle \displaystyle\int\limits_K ydx+xdy,

gdzie \displaystyle K jest okręgiem o promieniu \displaystyle R, tym razem korzystając z twierdzenia Greena.

Oznaczmy przez \displaystyle D koło o promieniu \displaystyle R. Teraz \displaystyle P(x,y)=y, Q(x,y)+x. Z twierdzenia Greena mamy:

\displaystyle \displaystyle\int\limits_K ydx+xdy \ =\ \iint\limits_D(1-1)dxdy=\iint\limits_D 0 dxdy \ =\ 0.

Wykażemy jeszcze następującą uwagę.

Uwaga 12.15.

Pole powierzchni obszaru \displaystyle D ograniczonego krzywą \displaystyle K wyraża się za pomocą całek krzywoliniowych następująco:

\displaystyle |D| \ =\ \oint_Kxdy=-\oint_Kydx

albo

\displaystyle |D| \ =\ \frac{1}{2}\oint_Kxdy-ydx.

Dowód 12.15.

Faktycznie, \displaystyle |D|=\displaystyle\iint\limits_D1dxdy, z twierdzenia Greena mamy \displaystyle \displaystyle\iint\limits_D1 dxdy=\displaystyle\oint\limits_{K}x dy = \displaystyle-\oint\limits_{K}y dx.

image:End_of_proof.gif

Powiemy jeszcze kilka słów o polach potencjalnych. Z polami potencjalnymi spotkaliśmy się już na wykładzie poświęconym funkcjom wielu zmiennych. Przypomnijmy, że polem wektorowym nazywamy odwzorowanie z \displaystyle \mathbb{R}^N w \displaystyle \mathbb{R}^N. (Nazwa bierze się stąd, że każdemu punktowi z \displaystyle \mathbb{R}^N przyporządkowujemy wartość odwzorowania w tym punkcie, a więc wektor z \displaystyle \mathbb{R}^N).

Niech teraz \displaystyle U\subset \mathbb{R}^2 będzie zbiorem, którego brzegiem jest jedna krzywa (zwyczajna) zamknięta \displaystyle K, to znaczy \displaystyle K=\partial U. (Taki zbiór będziemy nazywać zbiorem jednospójnym. Przykładem zbioru, który jest jednospójny jest koło. Koło bez środka nie jest zbiorem jednospójnym).

Na \displaystyle U określmy odwzorowanie (pole wektorowe)

\displaystyle F:\ U\to \mathbb{R}^2,
\displaystyle F(x,y) \ =\ (P(x,y),Q(x,y))\in \mathbb{R}^2.

Faktycznie to odwzorowanie każdemu punktowi \displaystyle \displaystyle (x,y)\in U przyporządkowuje wektor \displaystyle \displaystyle (P(x,y),Q(x,y)) z \displaystyle \displaystyle\mathbb{R}^2.

Będziemy zakładać, że nasze pole wektorowe \displaystyle F jest ciągłe i ma ciągłe pochodne cząstkowe w \displaystyle U.

Definicja 12.16.

Mówimy, że pole wektorowe jest polem potencjalnym, jeśli istnieje funkcja (zwana potencjałem pola) \displaystyle \displaystyle\varrho : U\to \mathbb{R} taka, że

\displaystyle (P(x,y),Q(x,y)) \ =\ \left(\frac{\partial \varrho}{\partial x}(x,y), \frac{\partial \varrho}{\partial y}(x,y)\right),

co zapisujemy krótko

\displaystyle F\ =\ \nabla\varrho.
Uwaga 12.17.

Zauważmy, że jeśli pole jest potencjalne, to z faktu, że \displaystyle P=\displaystyle\frac{\partial \varrho}{\partial x} i \displaystyle  Q=\displaystyle\frac{\partial \varrho}{\partial y}, wynika, że \displaystyle \displaystyle\frac{\partial P}{\partial y} \textbf{=}\frac{\partial Q}{\partial x}, bo oba wyrażenia są równe \displaystyle \displaystyle\frac{\partial^2 \varrho}{\partial x\partial y}.

Korzystając z twierdzenia Greena, możemy wykazać, że w polu potencjalnym całka krzywoliniowa nie zależy od drogi całkowania. Dokładniej, zachodzi następujące stwierdzenie:

Stwierdzenie 12.18.

Niech \displaystyle U będzie obszarem jednospójnym w \displaystyle \displaystyle\mathbb{R}^2, a \displaystyle F polem wektorowym na \displaystyle U. Niech \displaystyle A i \displaystyle B będą dwoma punktami w \displaystyle U, a \displaystyle K_1 i \displaystyle K_2 dwoma krzywymi łączącymi punkty \displaystyle A i \displaystyle B. Wówczas

\displaystyle \displaystyle\int\limits_{K_1}Pdx+Qdy \ =\ \displaystyle\int\limits_{K_2}Pdx+Qdy.

Dowód 12.18.

Stwierdzenie wykażemy tylko w przypadku, gdy krzywe \displaystyle K_1 i \displaystyle K_2 nie przecinają się i ograniczają razem zbiór normalny (względem którejś osi) \displaystyle D, czyli \displaystyle \displaystyle\partial D=K_1-K_2, tak jak w dowodzie twierdzenia Greena. Wtedy z twierdzenia Greena mamy

\displaystyle \oint\limits_{K_1-K_2}Pdx+Qdy \ =\ \iint\limits_D\left(\frac{\partial P}{\partial y}-\frac{\partial Q}{\partial x}\right)dxdy \ =\ 0,

bo obie pochodne cząstkowe są sobie równe (zobacz wyżej).

image:End_of_proof.gif

Zauważmy, że z tego stwierdzenia wynika od razu, że całka po krzywej zamkniętej w polu potencjalnym wynosi zero.

Można także sformuowaćnastępujące stwierdzenie (dowód pominiemy).

Stwierdzenie 12.19.

Niech \displaystyle U będzie obszarem jednospójnym w \displaystyle \displaystyle\mathbb{R}^2, a \displaystyle F=(P,Q) polem wektorowym klasy \displaystyle {\cal C}^1 na \displaystyle U. Jeśli

\displaystyle \frac{\partial P}{\partial y} \ =\ \frac{\partial Q}{\partial x},

to pole \displaystyle F jest polem potencjalnym.

Przykład 12.20.

Przypomnijmy znany z fizyki wzór na pracę. Niech \displaystyle F=(P,Q) będzie polem wektorowym reprezentującym siłę. Siły pola \displaystyle F działają na punkt, który przesuwamy po krzywej \displaystyle K. Wtedy praca pola sił wyraża się wzorem

\displaystyle W \ =\ \displaystyle\int\limits_KF\circ d\textbf{x} \ =\ \displaystyle\int\limits_KPdx+Qdy.

(1) Policzmy pracę wykonaną przez pole sił \displaystyle F=(P,Q),

\displaystyle P(x,y) \ =\ x^2+y^2, \ Q(x,y)=2xy,

wzdłuż krzywej \displaystyle K: \displaystyle y=x^2, przy przesunięciu punktu od punktu \displaystyle \displaystyle (0,0) do punktu \displaystyle \displaystyle (1,1).

Krzywą \displaystyle K możemy sparametryzować \displaystyle \displaystyle\gamma(t)=(t,t^2) dla \displaystyle t\in[0,1], tak więc \displaystyle x=t, y=t^2. Mamy zatem

\displaystyle W \ =\ \displaystyle\int\limits_KPdx+Qdy=\displaystyle\int\limits_0^1((t^2+t^4)+(2t^3)2t)dt \ =\ \displaystyle\int\limits_0^1t^2+5t^4dt \ =\ \frac{4}{3}.
Euklides (365-300 p.n.e.)Zobacz biografię
Enlarge
Euklides (365-300 p.n.e.)
Zobacz biografię

(2) Dane jest pole sił:

\displaystyle P(x,y) \ =\ \frac{x}{(x^2+y^2)^{\frac{3}{2}}}, \quad Q(x,y) \ =\ \frac{y}{(x^2+y^2)^{\frac{3}{2}}}.

Policzyć pracę wykonaną przez pole sił przy przesuwaniu punktu wokół okręgu o środku w punkcie \displaystyle \displaystyle (3,3) i promieniu \displaystyle 1.

Sprawdźmy, że pole \displaystyle \displaystyle (P,Q) jest polem potencjalnym w zbiorze \displaystyle U będącym kołem o środku w punkcie \displaystyle \displaystyle (3,3) i promieniu \displaystyle 2. (Taki zbiór \displaystyle U wybieramy, by móc zastosować stwierdzenie 12.19, do zbioru \displaystyle U nie może należeć punkt \displaystyle \displaystyle (0,0), bo tam \displaystyle P i \displaystyle Q nie są określone).

Policzmy: \displaystyle \displaystyle\frac{\partial P}{\partial y}=\frac{-3xy}{(x^2+y^2)^{\frac{5}{2}}}=\frac{\partial Q}{\partial x}, tak więc pole jest potencjalne na podstawie stwierdzenia stwierdzenia 12.19, a w polu potencjalnym całka po krzywej zamkniętej

(a więc także po naszym okręgu) jest równa zero.


Wektor pola wektorowego na krzywej K oraz jego składowa styczna do krzywej

Na zakończenie warto wspomnieć o związku całki krzywoliniowej zorientowanej z całką krzywoliniową niezorientowaną, wprowadzoną na wykładzie z Analizy Matematycznej 1.

Weźmy krzywą \displaystyle K o parametryzacji \displaystyle \displaystyle\gamma=(\varphi,\psi) : [a,b]\to \mathbb{R}^2. Niech \displaystyle F=(P,Q) będzie polem wektorowym na \displaystyle K. Mamy wówczas całkę krzywoliniową zorientowaną:

\displaystyle \displaystyle\int\limits_KF\circ d\textbf{x}=\displaystyle\int\limits_a^b(P(\varphi(t),\psi(t)),Q(\varphi(t),\psi(t)))\circ ((\varphi'(t),\psi'(t))dt.

Z definicji iloczynu skalarnego w \displaystyle \mathbb{R}^2 i normy euklidesowej w \displaystyle \mathbb{R}^2,

\begin{array}{lll}\displaystyle &(P(\varphi(t),\psi(t)),Q(\varphi(t),\psi(t)))\circ ((\varphi'(t),\psi'(t)) \\ &=\|(P(\varphi(t),\psi(t)),Q(\varphi(t),\psi(t)))\|\cdot \|(\varphi'(t),\psi'(t))\|\cos \alpha, \end{array}

gdzie \displaystyle \|v\| oznacza długość wektora \displaystyle v, a \displaystyle \displaystyle\alpha jest kątem pomiędzy wektorem \displaystyle \displaystyle (P(\varphi(t),\psi(t)),Q(\varphi(t),\psi(t))), a wektorem stycznym \displaystyle \displaystyle (\varphi'(t),\psi'(t)). Ze wzoru na długość wektora mamy

\displaystyle \|(\varphi'(t),\psi'(t))\|=\sqrt{\varphi'^2(t)+\psi'^2(t)}.

Zauważmy jeszcze, że

\displaystyle F_s(\gamma(t)):=\|(P(\varphi(t),\psi(t)),Q(\varphi(t),\psi(t)))\|\cos \alpha

jest długością rzutu prostopadłego wektora \displaystyle \displaystyle (P(\varphi(t),\psi(t)),Q(\varphi(t),\psi(t))) na styczną do krzywej, czyli długością składowej stycznej. A zatem

\displaystyle \displaystyle\int\limits_KF\circ d\textbf{x}=\displaystyle\int\limits_a^bF_s(\gamma(t))\sqrt{\varphi'^2(t)+\psi'^2(t)}dt=\displaystyle\int\limits_KF_s dl.