Języki, automaty i obliczenia/Wykład 10: Lemat o pompowaniu dla języków bezkontekstowych. Własności języków bezkontekstowych. Problemy rozstrzygalne: Różnice pomiędzy wersjami

Z Studia Informatyczne
Przejdź do nawigacjiPrzejdź do wyszukiwania
Rogoda (dyskusja | edycje)
m Zastępowanie tekstu – „,...,” na „,\ldots,”
 
(Nie pokazano 96 wersji utworzonych przez 5 użytkowników)
Linia 1: Linia 1:
{theor}{TWIERDZENIE}[section]
Wprowadzimy  i udowodnimy najprostszą wersję lematu o pompowaniu dla języków bezkontekstowych.
{rem}{UWAGA}[section]
{corol}{WNIOSEK}[section]
{fact}{FAKT}[section]
{ex}{PRZYKŁAD}[section]
{defin}{DEFINICJA}[section]
{lem}{LEMAT}[section]


{prf}{DOWÓD}
==Lemat o pompowaniu==


{Automat ze stosem.Gramatyki bezkontekstowe i automaty ze stosem.}
Istotną cechą języków regularnych jest własność pompowania, którą  ustaliliśmy
w lemacie o pompowaniu. Podobną, ale nie taką samą,  cechę  posiadają języki
bezkontekstowe. O ile dla języków regularnych własność pompowania wynikała z
istnienia pętli w grafie opisującym automat, to dla języków  bezkontekstowych
pompowanie jest wynikiem powtarzającego się symbolu nieterminalnego w wyprowadzeniu
dostatecznie długiego słowa w gramatyce.


==Automat ze stosem==
{{lemat|1.1||
 
(o pompowaniu) Dla dowolnego języka bezkontekstowego <math>L \subset A^*</math> istnieją liczby
; Wprowadzenie
naturalne <math>N,M \geqslant 1</math> takie, że każde słowo <math>w \in L</math> o długości <math>|w| > N</math> można
:  W tym wykładzie
przedstawić w formie <math>w=u_1w_1uw_2u_2</math>, gdzie <math>w_{1,}w_{2},v_{1},v_{2},u\in A^{*}</math> oraz
określimy automat ze stosem rozpoznający języki
# <math>|w_1uw_2| \leqslant M</math>
bezkontekstowe.  Wprowadzimy
# <math>w_1w_2 \neq 1</math>
dwie definicje rozpoznawania języków
# <math>u_1w_1^iuw_2^iu_2 \in L</math> dla <math>i=0,1,.</math>..  
przez automat ze stosem oraz omówimy ważną podklasę języków bezkontekstowych,
mianowicie  języków rozpoznawanych przez deterministyczne automaty ze stosem.
Uzasadnimy też fakt, iż rodzina języków rozpoznawana przez automaty ze stosem pokrywa się
z rodziną jezyków bezkontekstowych.
 
; Słowa kluczowe
:  automat ze stosem, konfiguracja, deterministyczny automat
ze stosem, rodzina
jezyków rozpoznawanych przez automaty ze stosem.
 
Automaty ze stosem  to systemy rozpoznające języki bezkontekstowe. Ich działanie jest nieco
bardziej skomplikowane niż działanie automatu skończenie stanowego. Poza możliwością
zmiany stanu pod wpływem czytanego symbolu
umieszczonego na taśmie wejściowej automat ten  posiada także taśmę stosu, na którą
może wpisywać
słowa, jak i odczytywać pojedynczy symbol znajdujący się na wierzchu stosu.
 
{{definicja|||
 
Automatem ze stosem nad alfabetem  <math>\displaystyle A </math> nazywamy
system  <math>\displaystyle \mathcal{AS}=(A,A_{S},Q,f,s_{0},z_{0},Q_{F})  </math> , w którym<br>
 
<math>\displaystyle A  </math> - jest alfabetem,
 
<math>\displaystyle A_{S}  </math> - jest dowolnym skończonym i niepustym zbiorem zwanym alfabetem
stosu (niekoniecznie rozłącznym z  <math>\displaystyle A  </math> ),
 
<math>\displaystyle Q </math>  - jest dowolnym, skończonym i niepustym zbiorem zwanym zbiorem
stanów,
 
<math>\displaystyle f:A_{S}\times Q\times (A\cup \left\{ 1\right\} )\longrightarrow \mathcal{P}_{sk}(A_{S}^{*}\times Q)  </math>  
jest funkcją przejść, której wartościami są skończone podzbiory
<math>\displaystyle A_{S}^{*}\times Q  </math> (także zbiór pusty),
 
<math>\displaystyle q_{0}\in Q  </math> jest stanem początkowym,
 
<math>\displaystyle z_{0}\in A_{S}  </math> symbolem początkowym stosu,
 
<math>\displaystyle Q_{F}\subset Q  </math>  zbiorem stanów końcowych.


}}
}}


Badając działanie automatu ze stosem wygodniej jest zamiast funkcji przejść <math>\displaystyle f </math>
Zanim przeprowadzimy dowód lematu, zobaczmy jak stosuje się ten lemat do języka generowanego
rozważać skończoną relację
przez gramatykę <math>(\{v_0,v_1,v_2 \},\{a,b\},v_0,P)</math>, <br>
<math>\displaystyle P\subset (A_{S}\times Q\times (A\cup \left\{ 1\right\} ))\times (A_{S}^{*}\times Q)  </math>
gdzie <math>P: v_0 \rightarrow v_1v_2, \;v_1 \rightarrow av_2 b  , v_2 \rightarrow b\;|\;v_0b</math>.<br>
zwaną relacją przejść. Elementy tej relacji nazywane są prawami. Relacja  <math>\displaystyle P  </math>
jest zatem skończonym zbiorem praw o następującej postaci:
# <math>\displaystyle zq_i \longrightarrow uq_j </math> dla <math>\displaystyle z \in A_S, \;\; u \in A_S^*, \;\; q_i ,q_j \in Q</math>,
# <math>\displaystyle zq_i a \longrightarrow uq_j </math> dla <math>\displaystyle z \in A_S, \;\; u \in A_S^*, \;\; a \in A, \;\;q_i ,q_j \in Q</math>.


Często, używając relacji przejść, oznaczamy automat ze stosem jako układ
[[File:ja-lekcja10-w-anim1.mp4|250x250px|thumb|center|Animacja 1]]
<center><math>\displaystyle  \mathcal{AS}=(A,A_{S},Q,P,s_{0},z_{0},Q_{F}) .</math></center>


Prawo  <math>\displaystyle zq_{i}a\longrightarrow uq_{j}  </math>  będziemy
{{dowod|||
reprezentować grafem<br>
Załóżmy, bez utraty ogólności rozważań (dlaczego?), że język bezkontekstowy <math>L</math>
 
nie zawiera słowa pustego i jest
rys1  ja-lekcja11-w-rys1 <br>
generowany  przez gramatykę <math>G=(V_N,V_T,v_0,P)</math>
Napis <math>\displaystyle z/u</math> oznacza, iż symbol <math>\displaystyle z</math> pobrany ze stosu wymieniany jest na słowo <math>\displaystyle u</math>
w&nbsp;normalnej postaci Chomsky'ego.
utworzone nad alfabetem stosu <math>\displaystyle A_S</math>.
Rozważmy dowolne wyprowadzenie w <math>G</math>
 
<center><math>w_0 \mapsto w_1 \mapsto ... \mapsto w_r</math></center>
Natomiast prawo  <math>\displaystyle zq_{i}\rightarrow uq_{j}  </math> interpretowane jest graficznie  jako:<br>
 
rys2  ja-lekcja11-w-rys2 <br>


Działanie automatu ze stosem <math>\displaystyle \mathcal{AS} </math> zależne jest, jak wspomnieliśmy
o długości <math>r \geqslant 1</math> i <math>w_0 \in V_N</math>. Niech  najdłuższa ścieżka
na wstepie wykładu, nie tylko od czytanego
w drzewie binarnym <math>T</math> tego wyprowadzenia ma długość <math>k</math>
przez automat słowa, ale
(jako długość przyjmujemy tutaj liczbę
także od symbolu znajdującego się na wierzchu stosu. Poniżej przedstawiamy graficznie<br>
wierzchołków, przez które przechodzi ścieżka). Indukcyjne ze względu na <math>k</math>  łatwo jest
te zależności.
uzasadnić, że <center><math>|w_r| \leqslant 2^{k-1}</math>.</center>
Załóżmy teraz, że zbiór <math>V_N</math> ma <math>p</math> elementów i
przyjmijmy <math>N=2^p</math> oraz <math>M=2^{p+1}</math>. Niech <math>w \in L(G)</math> będzie słowem, którego długość jest
większa od <math>N</math>.
Zatem najdłuższa ścieżka <math>S</math> w drzewie wyprowadzenia <math>T</math> będącego
wyprowadzeniem słowa <math>w</math> w
gramatyce <math>G</math> ma długość co najmniej <math>p+2</math>. A więc przechodzi przez co najmniej <math>p+2</math>
wierzchołków. Stąd, że
wierzchołki maksymalne drzewa wyprowadzenia mają etykiety terminalne, wnioskujemy, że w <math>S</math> występują dwa różne wierzchołki <math>s_1, s_2</math> etykietowane przez ten sam symbol nieterminalny <math>v</math>. Przyjmijmy, że wierzchołek <math>s_1</math> jest bliższy wierzchołka początkowego drzewa wyprowadzenia niż <math>s_2</math>. Wierzchołki <math>s_1, s_2</math> można tak dobrać, aby podścieżka ścieżki <math>S</math> o początku w wierzchołku <math>s_1</math> miała długość równą
co najwyżej <math>p+2</math>. Zauważmy teraz, że żadna ścieżka poddrzewa <math>T_1</math>, którego wierzchołkiem początkowym jest <math>s_1</math>,
nie ma długości większej niż <math>p+2</math>. Jeśli więc <math>\overline w</math> jest słowem
określonym przez liście <math>T_1</math>, to


Rysunek 3    ja-lekcja11-w-rys3 <br>
<math>\mbox{(1)}</math>
<center><math>
|\overline{w}|\leqslant 2^{(p+2)-1}=M</math></center>


Prawo  <math>\displaystyle zq_{i}a\longrightarrow uq_{j}  </math> dla słowa  <math>\displaystyle u=z_{1}\ldots z_{m}  </math>  
Rozważmy teraz poddrzewo <math>T_2</math> drzewa <math>T</math> o wierzchołku początkowym w <math>s_2</math>
określające działanie automatu  <math>\displaystyle \mathcal{AS}  </math> interpretujemy w ten sposób,
i niech <math>u</math> będzie słowem określonym
że automat będąc w stanie  <math>\displaystyle q_{i}  </math> po przeczytaniu litery  <math>\displaystyle a  </math>  
przez liście <math>T_2</math>. Wtedy <math>\overline w= w_1uw_2</math> dla pewnych <math>w_1, w_2 \in V_T^*</math>.
(ze słowa wejściowego) i symbolu  <math>\displaystyle z  </math> ze stosu zmienia stan na  <math>\displaystyle q_{j} </math>  
W połączeniu z nierównością <math>\mbox{(1)}</math> uzyskujemy pierwszą własność postulowaną w lemacie. Co więcej, <math>w_1w_2 \neq 1</math>,
oraz wpisuje na stos słowo <math>\displaystyle u  </math> w ten sposób, że ostatnia litera tego słowa,
ponieważ pierwsza produkcja wyprowadzenia
symbol  <math>\displaystyle z_{m} </math> , jest na wierzchu stosu. Ten właśnie symbol będzie pobrany
<math>v\mapsto^{*}\overline{w}</math>  jest postaci <math>v \rightarrow v_1v_2</math> dla pewnych
ze stosu przy kolejnym "ruchu" automatu, zgodnie z zasadą ''last in,
<math>v_{1},\, v_{2}\in V_{N}</math> , a w gramatyce nie
first out. ''  Ilustruje tę zasadę animacja, która
ma produkcji wymazującej. Zatem dla pewnych <math>u_1, u_2 \in V^*_T</math> jest
zamieszczona w dalszej części tego wykładu.


{}
<center><math>v_{0}\mapsto^{*}u_{1}vu_{2}\mapsto^{*}u_{1}uu_{2}</math></center>


Dla precyzyjnego opisu działania automatu ze stosem wprowadza się pojęcie konfiguracji
lub <center><math>v_0 \mapsto^* u_1vu_2 \mapsto^* u_1w_1vw_2u_2 \mapsto^* u_1 w_1 uw_2 u_2 = w</math></center>
automatu, poprzedzając to pojęcie określeniem konfiguracji wewnętrznej.
lub


{{definicja|||
<center><math>v_{0}\mapsto^{*}u_{1}vu_{2}\mapsto^{*}u_{1}w_{1}vw_{2}u_{2}\mapsto^{*}u_{1}w^{i}_{1}vw^{i}_{2}u_{2}\mapsto^{*}u_{1}w^{i}_{1}uw^{i}_{2}u_{2}</math></center>
Konfiguracją wewnętrzną automatu ze stosem  <math>\displaystyle AS  </math> nazywamy dowolną parę
<math>\displaystyle (u,q)\in A_{S}^{*}\times Q  </math> taką, że  <math>\displaystyle q  </math>  jest stanem, w którym automat
znajduje się aktualnie, a  <math>\displaystyle u  </math> słowem zapisanym na stosie tak, że litera
będaca na wierzchu stosu jest ostatnią literą tego słowa.


Konfiguracją automatu ze stosem <math>\displaystyle AS  </math>  
dla <math>i=1,2,\ldots</math>  
nazywamy trójkę


<center><math>\displaystyle (u,q,w)\in A_{S}^{*}\times Q\times A^{*}</math></center>
W konsekwencji <math>u_1w_1^iuw_2^iu_2 \in L</math> dla dowolnego <math>i=0,1,.</math>... Lemat zatem został
 
udowodniony.
gdzie  <math>\displaystyle (u,q)  </math>  jest konfiguracją wewnętrzną, a  <math>\displaystyle w  </math>  
słowem wejściowym.


}}
}}


Wprowadzone pojęcia wykorzystamy do określenia działania automatu ze stosem
Analogicznie jak w przypadku języków regularnych, lemat o pompowaniu dla języków bezkontekstowych
dla dowolnych słów wejściowych i dowolnych słów znajdujących się na stosie.
stosuje się najczęściej do uzasadnienia,
W tym celu rozszerzymy odpowiednio relację przejść  <math>\displaystyle P  </math> , określając ją na zbiorze
że pewne języki nie należą do rodziny <math>\mathcal{L}_{2}</math>.
konfiguracji
Takie właśnie zastosowanie przedstawione jest poniżej, na przykładzie
i&nbsp;oznaczając symbolem <math>\displaystyle |\! \! \! \Longrightarrow  </math> . Przyjmujemy dla dowolnych
języka, o którym pó{z}niej udowodnimy, że jest kontekstowy, czyli należy do rodziny języków <math>\mathcal{L}_{1}</math>.
słów  <math>\displaystyle u_{1},u_{2}\in A_{S}^{*}  </math>  i litery  <math>\displaystyle z\in A_{S}  </math> , dla dowolnego
słowa  <math>\displaystyle w\in A^{*} </math>  i <math>\displaystyle a\in A\cup \left\{ 1\right\}   </math>  oraz dla dowolnych
stanów  <math>\displaystyle q_{1},q_{2}\in Q  </math> , że zachodzi relacja


<center><math>\displaystyle (u_{1}z,q_{1},aw)\, |\! \! \! \Longrightarrow (u_{1}u_{2},q_{2},w)</math></center>
{{kotwica|prz.1.1|}}{{przyklad|1.1||
 
Niech <math>L=\{a^nb^nc^n : n \geqslant 1 \}</math>. Przeprowadzając rozumowanie nie wprost, a więc
wtedy i tylko wtedy, gdy  <math>\displaystyle zq_{1}a\longrightarrow u_{2}q_{2}\in P  </math> .
zakładając  bezkontekstowość
 
tego języka, z lematu o pompowaniu uzyskujemy odpowiednie stałe <math>M, N</math>.
Zwrotne i przechodnie domknięcie tej relacji nazywamy przejściem lub poprawnym obliczeniem
Niech <math>k > \frac{N}{3}</math> i rozważmy słowo <math>x_1=a^kb^kc^k</math>. Zatem
automatu  <math>\displaystyle AS  </math>  i oznaczamy symbolem  <math>\displaystyle |\! \! \! \Longrightarrow ^{*}  </math> .
istnieje rozkład <math>x_1=u_1w_1uw_2u_2</math>, <math>w_1w_2 \neq 1</math> oraz <math>x_i=u_1w_1^iuw_2^iu_2 \in L</math>
 
dla <math>i=0,1,.</math>..
Dla dowolnego słowa  <math>\displaystyle w\in A^{*}  </math> przyjmujemy oznaczenie  <math>\displaystyle (u,q)\, \mid \! \Longrightarrow ^{w}\, (u_{1},q_{1}</math> ,
Z postaci słów języka <math>L</math> oraz z faktu <math>w_1w_2 \neq 1</math> wnioskujemy, że słowa <math>w_1, w_2</math>
jeśli ma miejsce  <math>\displaystyle (u,q,w)|\! \! \! \Longrightarrow ^{*}(u_{1},q_{1},1)  </math> . Prawdziwa
są potęgami
jest wówczas następująca równość:
jednej z liter <math>a,b,c</math> oraz że <math>|x_i| \longrightarrow \infty</math>, o ile <math>i \longrightarrow \infty</math>.
 
A to wyklucza możliwość
<center><math>\displaystyle \begin{array} [b]{c}
zachowania własności określającej język <math>L</math>. Otrzymana sprzeczność prowadzi do wniosku, iż
|\! \! \! \Longrightarrow ^{w_{1}}\circ
język <math>\{a^nb^nc^n : n \geqslant 1 \}</math> nie jest bezkontekstowy.
\end{array} \begin{array} [b]{c}
|\! \! \! \Longrightarrow ^{w_{2}}\: =
\end{array} \begin{array} [b]{c}
|\! \! \! \Longrightarrow ^{w_{1}w_{2}}
\end{array} </math></center>
 
Mówimy, że konfiguracja wewnętrzna  <math>\displaystyle (u,q)  </math> automatu ze stosem
<math>\displaystyle AS  </math> jest osiągalna z konfiguracji wewnętrznej  <math>\displaystyle (u_{1},q_{1})  </math>  
jeśli istnieje takie słowo  <math>\displaystyle w\in A^{*}  </math> , że
 
<center><math>\displaystyle (u_{1},q_{1})\, \mid \! \Longrightarrow ^{w}\, (u,q).</math></center>
 
Zdefiniujemy teraz język rozpoznawany przez automat ze stosem. W literaturze spotkać
można kilka równoważnych definicji rozpoznawania. W naszym wykładzie wprowadzimy dwie,
używane najczęściej:
# rozpoznawanie poprzez stany końcowe (wyróżniony zbiór stanów końcowych
<math>\displaystyle Q_{F}  </math> ),
# rozpoznawanie poprzez pusty stos.
 
{{definicja|||
Niech  <math>\displaystyle \mathcal{AS}=(A,A_{S},Q,P,s_{0},z_{0},Q_{F})  </math> będzie automatem ze stosem.
Językiem rozpoznawanym przez automat  <math>\displaystyle  \mathcal{AS}</math> poprzez
stany końcowe nazywamy zbiór
 
<center><math>\displaystyle L_{F}(\mathcal{AS})=\left\{ w\in A^{*}\; : \; (z_{0},q_{0})\; \mid \! \Longrightarrow ^{w}\, (u,q_{F}),\; : u\in A_{S}^{*}, \; q_{F}\in Q_{F}\right\}. </math></center>
 
Językiem rozpoznawanym przez automat <math>\displaystyle \mathcal{AS}</math> poprzez pusty stos nazywamy zbiór
 
<center><math>\displaystyle L_{e}(\mathcal{AS})=\left\{ w\in A^{*}\, :\, (z_{0},q_{0})\, \mid \! \Longrightarrow ^{w}\, (1,q),\, q\in Q\right\} .</math></center>


Lemat o pompowaniu wykorzystywany bywa również w dowodach rozstrzygalności pewnych
problemów w rodzinie języków rozpoznawalnych. Zagadnieniem tym zajmiemy się w
dalszej części tego wykładu.
}}
}}


Używając drugiego określenia rozpoznawania, w definicji automatu
==Własności rodziny języków bezkontekstowych==
ze stosem pomija się zbiór stanów końcowych  <math>\displaystyle Q_{F}  </math> .
 
{{przyklad|||
Poniższa animacja  ilustruje działanie automatu ze stosem.
Przedstawiony grafem automat ze stosem
<math>\displaystyle  \mathcal{AS}=(A,A_{S},\{q_0,q_F\},P,q_{0},z_{0},\{q_{F}\})</math>,  w&nbsp;którym
alfabet stosu  <math>\displaystyle A_{S}=\{z_{0},a,b\}  </math>  rozpoznaje język bezkontekstowy
<center><math>\displaystyle L( \mathcal{AS})= \{w \in \{a,b\}^* \;\; : \;\; \#_a w = \#_b w \}.</math></center>
 
ANIMACJA ja-lekcja11-w-anim1.ppt
 
Zauważmy, że automat ten rozpoznaje ten sam język zarówno zarówno
przez stany końcowe ( <math>\displaystyle Q_{F}=\{q_{F}\}  </math> ), jak i w sensie rozpoznawania
przez pusty stos.


}}
Przedstawimy teraz podstawowe własności rodziny języków bezkontekstowych
związane z zamkniętością ze względu na działania oraz
z&nbsp;problemami jednoznaczności.


W ogólności  dla ustalonego automatu ze stosem  <math>\displaystyle \mathcal{AS} </math>
{{kotwica|tw.1|}}{{twierdzenie|2.1||
wprowadzone wyżej
dwa sposoby rozpoznawania niekoniecznie prowadzą do tego samego języka.
Jednak są one równoważne, o czym przekonuje następujące twierdzenie, w dowodzie którego
konstruujemy odpowiednie automaty ze stosem.


{{twierdzenie|||
Rodzina języków bezkontekstowych <math>\mathcal{L}_{2}</math>  jest zamknięta ze względu
Język <math>\displaystyle L\subset A^{*} </math>  jest rozpoznawany przez automat ze stosem przez
na następujące działania:
stany końcowe wtedy i tylko wtedy, gdy jest rozpoznawany przez automat ze stosem
#  sumę mnogościową,
poprzez pusty stos.
#  katenację i operację iteracji <math>*</math>,
#  przecięcie (iloczyn mnogościowy) z językiem regularnym,
#  homomorfizm.


}}
}}


{{dowod|||
{{dowod|||
Załóżmy, że automat  <math>\displaystyle \mathcal{AS}=(A,A_{S},Q,P,s_{0},z_{0},Q_{F})  </math>  rozpoznaje
przez stany końcowe język  <math>\displaystyle L=L_{F}(\mathcal{AS})  </math> . Wówczas automat


<center><math>\displaystyle \mathcal{AS}'=(A,A_{S}\cup \left\{ x_{0}\right\} ,Q\cup \left\{ q_{0}',q_{e}\right\} ,P',q_{0}',x_{0}),</math></center>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;1. Niech <math>G_i = (V^i_N ,V_T,v^i_0,P_i)</math> będą gramatykami bezkontekstowymi dla <math>i=1,2</math> takimi, że <math>V^1_N \cap V^2_N = \emptyset</math> oraz <math>L_i = L(G_i)</math>. Język <math>L = L_1 \cup L_2</math> jest generowany przez gramatykę bezkontekstową określoną w następujący sposób: <center><math>G= (V^1_N \cup V^2_N \cup \{v_0\},V_T,v_0,P^1 \cup P^2 \cup \{ v_0 \rightarrow v^1_0 , v_0 \rightarrow {v_0}^2 \})</math>.</center>


w którym symbol  <math>\displaystyle x_{0}  </math> jest spoza alfabetu  <math>\displaystyle A_{S} </math> , stany  <math>\displaystyle q_{0}',q_{e}  </math>  
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;2. Przy powyższych oznaczeniach, język <math>L = L_1 \cdot L_2</math> jest generowany przez gramatykę bezkontekstową: <center><math>G= (V^1_N \cup V^2_N \cup \{ v_0 \},V_T,v_0,P^1 \cup P^2 \cup \{ v_0 \rightarrow v^1_0 v^2_0 \})</math>.</center>
nie należą do  <math>\displaystyle Q  </math> , a relacja przejść  <math>\displaystyle P</math> określona jest poniżej
Jeśli <math>L = L(G)</math>, dla <math>G = (V_N ,V_T,v_0,P)</math> gramatyki bezkontekstowej, to <math>L^* = L(\overline{G})</math> dla gramatyki <center><math>\overline{G} = ( V_N \cup \{\overline{v}_0 \} , V_T , \overline{v}_0,P \cup \{ \overline{v}_0 \rightarrow 1 , \overline{v}_0 \rightarrow \overline{v}_0 v_0 \}</math>,</center> która jest również gramatyką bezkontekstową.<br>


<center><math>\displaystyle \begin{array} {lll}
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;3. Niech <math>R</math> będzie dowolonym językiem rozpoznawanym przez pewien automat skończenie stanowy  <math>\mathcal{A} =(S,f,s_0,T)</math>. Język ten możemy przedstawić w postaci sumy <math>R=\bigcup_{i=1}^k R_i</math>, w której każdy język <math>R_i</math> jest rozpoznawany przez automat <math>\mathcal{A}</math> , w którym jako stan końcowy przyjmujemy <math>t_i \in T</math>. Rodzina języków bezkontekstowych jest zamknięta ze względu na sumę mnogościową i oczywista jest równość <math>L \cap R= \bigcup _{i=1}^k (L \cap R_i)</math>. Wystarczy zatem udowodnić, że język <math>L \cap R_i</math> jest bezkontekstowy. Załóżmy, że <math>T=\{t \}</math> oraz <math>L</math> jest językiem generowanym przez gramatykę bezkontekstową <math>G = (V_N ,V_T,v_0,P)</math> w normalnej postaci Chomsky'ego. Bez utraty ogólności rozważań można także założyć, że  <math>1\notin L</math>. Konstruujemy gramatykę <center><math>H=(S \times (V_N \cup V_T) \times S,V_T,(s_0,v_0,t),P_H)</math>,</center> dla której <math>P_H</math> zawiera następujące produkcje:
P'= & P\: \: \cup  & \left\{ x_{0}q_{0}'\longrightarrow x_{0}z_{0}q_{0},\right. \\
* <math>(s_1,v_1,s_2) \rightarrow (s_1,v_2,s_3)(s_3,v_3,s_2)</math> dla <math>s_i \in S</math>, <math>v_i \in V_N</math> jeśli <math>v_1\rightarrow v_2v_3 \in P</math>,
&  & zq\longrightarrow q_{e},\: \, \, q\in Q_{F},z\in A_{s}\cup \left\{ x_{0}\right\} ,\\
* <math>(s_1,v_1,s_2) \rightarrow (s_1,a,s_2)</math> dla <math>s_i \in S</math>, <math>a \in V_T</math> jeśli <math>v_1\rightarrow a \in P</math>,
&  & \left. zq_{e}\longrightarrow q_{e},\: \, z\in A_{S}\cup \left\{ x_{0}\right\} \right\}
* <math>(s_1,a,s_2)\rightarrow a</math> dla <math>s_i \in S</math>, <math>a \in V_T</math> jeśli <math>f(s_1,a)=s_2</math>.
\end{array} </math></center>
Bezpośrednio z konstrukcji wynika, że gramatyka <math>H</math> jest bezkontekstowa. Łatwo również zauważyć, że język generowany przez gramatykę <math>H</math> jest równy <math>L \cap R</math>.


rozpoznaje język  <math>\displaystyle L  </math> przez pusty stos.
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;4. Niech <math>h: A^* \longrightarrow B^*</math> oznacza dowolny homomorfizm, a <math>L \subset A^*</math> językiem bezkontekstowym generowanym przez gramatykę <math>G = (V_N ,A,v_0,P)</math>. Rozszerzamy homomorfizm <math>h</math> do wolnych monoidów <math>(A \cup V_N)^*</math> i <math>(B \cup V_N)^*</math>, przyjmując, że <math>h</math> na zbiorze <math>V_N</math> jest równe identyczności. Łatwo zauważyć, że język <math>h(L)</math> jest generowany przez gramatykę bezkontekstową <math>G = (V_N, B, v_0, P_h)</math>, w której <center><math>P_h=\{ v \rightarrow h(w) : v \rightarrow w \in P \}</math>.</center>
 
Na odwrót, jeśli automat
ze stosem  <math>\displaystyle \mathcal{AS}=(A,A_{S},Q,P,q_{0},z_{0})  </math> rozpoznaje poprzez pusty
stos język  <math>\displaystyle L=L_{e}(\mathcal{AS})  </math> , to automat
 
<center><math>\displaystyle \mathcal{AS}'=(A,A_{S}\cup \left\{ x_{0}\right\} ,Q\cup \left\{ q_{0}',q_{F}\right\} ,P',q_{0}',x_{0},\left\{ q_{F}\right\} ),</math></center>
 
w którym symbol  <math>\displaystyle x_{0}  </math> jest spoza alfabetu  <math>\displaystyle A_{S}  </math> , stany  <math>\displaystyle q_{0}',q_{F}  </math>
nie należą do <math>\displaystyle Q  </math> , a relacja przejść  <math>\displaystyle P'  </math> określona jest poniżej
 
<center><math>\displaystyle P'=P\cup \left\{ x_{0}q_{0}'\longrightarrow x_{0}z_{0}q_{0},\; x_{0}q\longrightarrow q_{F},\; q\in Q\right\} </math></center>
 
rozpoznaje język  <math>\displaystyle L </math> poprzez stany końcowe.
 
<math>\displaystyle \diamondsuit</math>   }}
 
Zdefiniujemy i omówimy teraz  deterministyczne automaty ze stosem.
W odróżnieniu
od automatów skończenie stanowych deterministyczne automaty ze stosem posiadają
mniejsze możliwości rozpoznawania języków niż  automaty, które dopuszczają
przejścia niedeterministyczne.
 
{{definicja|||
Automat ze stosem  <math>\displaystyle \mathcal{AS}=(A,A_{S},Q,f,s_{0},z_{0},Q_{F}) </math>  
nazywamy
deterministycznym, jeśli dla każdej konfiguracji  <math>\displaystyle (z,q,a)\in A_{S}\times Q\times (A\cup \left\{ 1\right\} )  </math>  
wartość funkcji  <math>\displaystyle f(z,q,a)  </math> jest zbiorem co najwyżej jednoelementowym, czyli
<math>\displaystyle \sharp f(z,q,a)\leq 1  </math> oraz jeśli  <math>\displaystyle f(z,q,1)\neq \emptyset  </math> , to  <math>\displaystyle f(z,q,a)=\emptyset  </math>
dla każdego  <math>\displaystyle a\in A  </math> .


}}
}}


A więc deterministyczny automat ze stosem ma możliwość co najwyżej
Z równości <math>L\setminus R=L\cap \overline{R}</math> ,
jednego przejścia z dowolnej konfiguracji
zamkniętości klasy  <math>\mathcal{L}_{3}</math> ze względu na uzupełnienie
<math>\displaystyle (z,q,a)\in A_{S}\times Q\times (A\cup \left\{ 1\right\} </math>  
oraz z punktu 3 udowodnionego powyżej twierdzenia wynika następujący
oraz jeśli istnieje przejście dla określonego stanu i symbolu ze stosu pod wpływem
wniosek.
słowa pustego, to jest ono jedynym możliwym dla tego układu w tym automacie.
 
Język rozpoznawany przez deterministyczny automat ze stosem nazywamy językiem
deterministycznym.
 
O tym, że w przeciwieństwie do klasy języków regularnych,
języki rozpoznawane przez deterministyczne automaty ze stosem stanowią właściwą
podklasę wszystkich języków akceptowanych przez automaty ze stosem, przekonuje
przykład.
 
{{przyklad|||
Język <math>\displaystyle L=\{a^{n}b^{n}:\: n\geq 1\}\cup \{a^{n}b^{2n}:\: n\geq 1\} </math>  
rozpoznawany przez automat ze stosem opisany grafem <br>
 
rys 4. ja-lekcja11-w-rys14 <br>
 
nie jest językiem deterministycznym. Zauważmy bowiem,
że deterministyczny automat ze stosem, aby zaakceptować słowo  <math>\displaystyle a^{n}b^{n}  </math> ,
dla kontrolowania ilości liter  <math>\displaystyle a  </math>  i  <math>\displaystyle b  </math>  wykorzystuje stos, wprowadzając
przy czytaniu każdej litery  <math>\displaystyle a  </math>  ustalony symbol na stos, na przykład  <math>\displaystyle "a"  </math>
i usuwając sekwencyjnie te symbole przy czytaniu liter  <math>\displaystyle b  </math> .
Dla zaakceptowania słowa  <math>\displaystyle a^{n}b^{2n}  </math>  podobne postępowanie prowadzi do
wpisywania na stos słowa  <math>\displaystyle "aa"  </math>  z alfabetu stosu dla każdej litery  <math>\displaystyle a  </math>
i usuwaniu pojedynczego symbolu przy czytaniu  <math>\displaystyle b  </math> . Jest to jedyny sposób kontroli
ilości liter, a opisane działanie automatu
jest źródłem jego istotnej niedeterministyczności. Bez trudu można zauważyć,  że
każdy automat ze stosem rozpoznający język  <math>\displaystyle L  </math>  będzie zawierać ten niedeterministyczny
układ w&nbsp;swojej strukturze.
 
Aby lepiej uchwycić istotę tego niedeterminizmu zauważmy, że automat ze stosem określony
grafem
{}
 
Rys 5  ja-lekcja11-w-rys5 <br>


rozpoznaje język  <math>\displaystyle L=\{a^{n}b^{n}:\: n\geq 1\</math> i jest deterministyczny.
{{wniosek|2.1||
Niech <math>L \subset A^*</math> będzie dowolonym językiem bezkontekstowym, a
<math>R \subset A^*</math> regularnym. Wtedy <math>L \setminus R</math> jest
językiem bezkontekstowym.


}}
}}


Każdy język rozpoznawany przez deterministyczny automat ze stosem
Bez dowodu podajemy dwie dalsze własności związane z zamkniętością rodziny
jest oczywiście (dlaczego?) jednoznaczny. Jednoznaczność języka nie implikuje jednak
języków bezkontekstowych.
jego deterministyczności
o czym  przekonuje zamieszczony poniżej przykład.


{{przyklad|||
{{fakt|2.1||
Język <math>\displaystyle L=\{a^{n}b^{n}:\: n\geq 1\}\cup \{a^{n}b^{2n}:\: n\geq 1\} </math> ,
Rodzina języków bezkontekstowych <math>\mathcal{L}_{2}</math> jest zamknięta ze
który jest rozpoznawany przez automat ze stosem z poprzedniego przykładu, nie
względu na podstawienie
jest, jak wiemy, deterministyczny, ale jest jednoznaczny.
regularne i przeciwobraz przez homomorfizm.


}}
}}


==Gramatyki bezkontekstowe i automaty ze stosem==
Rodzina języków bezkontekstowych
 
nie jest zamknięta na wszystkie działania boolowskie. Jak wynika z&nbsp;poniższego
Automaty ze stosem charakteryzują rodzinę języków bezkontekstowych w tym samym
twierdzenia, jedynym działaniem boolowskim nie wyprowadzającym poza rodzinę języków
sensie, w jakim automaty skończenie stanowe charakteryzują języki regularne.
bezkontekstowych jest suma mnogościowa.


{{twierdzenie|||
{{twierdzenie|2.2||


Rodzina języków rozpoznawanych przez automaty ze stosem jest równa rodzinie
Rodzina języków bezkontekstowych  <math>\mathcal{L}_{2}</math> nie jest zamknięta ze względu na:
języków bezkontekstowych  <math>\displaystyle \mathcal{L}_{2} </math> .
# iloczyn mnogościowy,
# uzupełnienie.


}}
}}


{{dowod|||
{{dowod|||
(szkic)
Dla <math>i=1,2</math> niech <math>G_i = (\{ v_0 , v_1\},\{ a,b,c\},{v_0},P_i)</math> będą gramatykami
o następujących zbiorach praw:


Dla dowodu, że każdy język bezkontekstowy jest rozpoznawany przez odpowiedni
<center><math>\begin{array} {l}
automat ze stosem, rozważmy gramatykę  <math>\displaystyle G=(V_{N},V_{T},v_{0},P_{G})  </math>
bezkontekstową
w postaci normalnej Greibach i załóżmy, że słowo puste  <math>\displaystyle 1  </math>  nie należy do
języka  <math>\displaystyle L(G)  </math>  generowanego przez tę gramatykę. Podamy konstrukcję
automatu ze stosem  <math>\displaystyle AS  </math> , który, jak można wykazać, akceptuje poprzez pusty stos
język  <math>\displaystyle L(G)  </math> . Niech


<center><math>\displaystyle \mathcal{AS}=(V_{T},V_{N}\cup V_{T},\left\{ q\right\} ,f,q,v_{0})</math></center>
P_1 = \{ v_0 \rightarrow v_0 c, \; v_0 \rightarrow v_1 c, \; v_1 \rightarrow ab, \; v_1 \rightarrow a v_1 b \}, \\


gdzie funkcja  <math>\displaystyle f:(V_{N}\cup V_{T})\times \{q\}\times (V_{T}\cup \left\{ 1\right\} )\longrightarrow \mathcal{P}_{sk}((V_{N}\cup V_{T})^{*}\times \{q\})  </math>
P_2 = \{ v_0 \rightarrow a v_0 , \; v_0 \rightarrow a v_1 , \; v_1 \rightarrow bc, \; v_1 \rightarrow b v_1 c \}.
określona jest następujaco. Dla dowolnych  <math>\displaystyle v\in V_{N},\: a\in V_{T}  </math>


<center><math>\displaystyle f(v,q,1)=\{(\overleftarrow{x}a,q)\: :\: v\rightarrow ax\in P_{G}\}</math></center>
\end{array}</math></center>


<center><math>\displaystyle f(a,q,a)=\{(1,q)\}</math></center>
Gramatyki te są bezkontekstowe i generują, odpowiednio, następujące języki:


oraz ma wartość równą zbiorowi pustemu  <math>\displaystyle \emptyset  </math> we wszystkich pozostałych
<center><math>L(G_{1})=\left\{ a^{n}b^{n}c^{m}:n,m\geqslant 1\right\} \in \mathcal{L}_{2}</math>,</center>
przypadkach.


Jest to więc automat o jednym stanie  <math>\displaystyle q  </math> , alfabetem wejściowym jest
<center><math>L(G_{2})=\left\{ a^{n}b^{m}c^{m}:n,m\geqslant 1\right\} \in \mathcal{L}_{2}</math>.</center>
alfabet terminalny  <math>\displaystyle V_{T} </math> , alfabetem stosu jest suma mnogościowa alfabetu
symboli nieterminalnych  <math>\displaystyle V_{N} </math>  i terminalnych  <math>\displaystyle V_{T} </math> ,
a symbol początkowy
stosu jest symbolem startowym gramatyki. Istotą działania automatu  <math>\displaystyle AS  </math> jest
symulacja
lewostronnego wyprowadzenia w gramatyce  <math>\displaystyle G.  </math>
Pełne uzasadnienie podanej konstrukcji znajduje sie na końcu tego wykładu,
w części "dla dociekliwych".


Załóżmy teraz, że automat  <math>\displaystyle \mathcal{AS}=(A,A_{S},Q,f,q_{0},z_{0})  </math>  akceptuje poprzez
Języki te są bezkontekstowe, lecz ich przecięcie
pusty stos język  <math>\displaystyle L(\mathcal{AS})  </math> . Konstrukcja gramatyki bezkontekstowej
<math>\displaystyle G  </math> , która generuje ten sam język przebiega następująco.
Niech  <math>\displaystyle G=((Q\times A_{S}\times Q)\cup \left\{ v_{0}\right\} ,A,v_{0},P_{G})  </math> ,
gdzie  <math>\displaystyle v_{0}\notin Q\cup A_{S}\cup A  </math> . Wprowadzamy do zbioru praw  <math>\displaystyle P_{G}  </math>
wyłącznie następujące prawa:
#  <math>\displaystyle v_{0}\rightarrow (q_{0},z_{0},q)  </math>  dla wszystkich stanów  <math>\displaystyle q\in Q  </math> ,
#  <math>\displaystyle (q,z,q_{1})\rightarrow a(q_{k+1},z_{k},q_{k})(q_{k},z_{k-1},q_{k-1})\ldots (q_{2},z_{1},q_{1})  </math>
dla dowolnych stanów  <math>\displaystyle q,q_{1},\ldots ,q_{k+1}\in Q,  \displaystyle \, a\in A\cup \left\{ 1\right\} ,\, z,z_{1},\ldots z_{k}\in A_{S}  </math>
jeśli  <math>\displaystyle (z_{1}...z_{k},q_{k+1})\in f(z,q,a)  </math> ,
#  <math>\displaystyle (q,z,q_{1})\rightarrow a\in P_{G}  </math>  jeśli  <math>\displaystyle (1,q_{1})\in f(z,q,a)  </math> .


{ Mamy więc następującą równoważność:
<center><math>L(G_{1})\cap L(G_{2})=\left\{ a^{n}b^{n}c^{n}\, :\, n\geqslant 1\right\} \notin \mathcal{L}_{2}</math></center>


<center><math>\displaystyle
jest językiem istotnie kontekstowym.
\begin{array} {c}
\begin{array} {c}
(q,z,q_{1})\rightarrow a(q_{k+1},z_{k},q_{k})(q_{k},z_{k-1},q_{k-1})\ldots (q_{2},z_{1},q_{1})\in P_{G}
\end{array} \\
\begin{array} {c}
\, \Leftrightarrow \, (z_{1}\ldots z_{k},q_{k+1})\in f(z,q,a),
\end{array}
\end{array}
</math></center>


}
Z udowodnionej właśnie własności  oraz z praw de'Morgana
wynika, że rodzina  <math>\mathcal{L}_{2}</math>  nie jest też domknięta ze względu na uzupełnienie.


która w szczególności dla  <math>\displaystyle k=0  </math>  przyjmuje postać
}}


<center><math>\displaystyle (q,z,q_{1})\rightarrow a\in P_{G}\, \Leftrightarrow \, (1,q_{1})\in f(z,q,a)</math></center>
==Jednoznaczność języków bezkontekstowych==


i oznacza dla gramatyki wymazywanie symboli nieterminalnych, a dla automatu
Omówimy teraz, dość ogólnie zresztą, problem występujący w niektórych gramatykach bezkontekstowych, a polegający na wielokrotnym wyprowadzeniu tego samego słowa. Z punktu widzenia języków programowania, których syntaktykę opisują, w pewnym zakresie,  gramatyki bezkontekstowe, taka nadmiarowość (niejednoznaczność parsingu) jest cechą wysoce niepożądaną. Gramatyki, które nie będą mieć takiej własności nazwiemy  jednoznacznymi. Jednoznacznym nazwiemy też język, dla którego istnieje gramatyka jednoznaczna.
wymazywanie symboli stosu.


Skonstruowana gramatyka  <math>\displaystyle G </math> odtwarza działanie automatu  <math>\displaystyle AS  </math> działającego
{{definicja|3.1||
pod wpływem słowa wejściowego  <math>\displaystyle w </math> . Pełne uzasadnienie podanej konstrukcji znajduje się
Niech <math>G = (V_N,V_T,v_0,P)</math> będzie gramatyką bezkontekstową. '''Lewostronnym''' ('''prawostronnym''') '''wyprowadzeniem''' słowa <math>w \in {V_T}^*</math> w gramatyce <math>G</math> nazywamy wyprowadzenie <center><math>v_0 \mapsto w_1 \mapsto \ldots.. \mapsto w_n = w</math></center> takie, że dla każdego <math>i=0,\ldots,n-1, \;\; w_{i+1}</math> jest generowane bezpośrednio z <math>w_i</math> przez zastąpienie pierwszego z lewej (prawej) symbolu nieterminalnego występującego w&nbsp;słowie <math>w_i</math>.
na końcu tego wykładu,
w części "dla dociekliwych".


<math>\displaystyle \diamondsuit</math>  }}
}}


Z konstrukcji przedstawionej w szkicu dowodu twierdzenia wynika, że każdy język bezkontekstowy
Jeśli chcemy zaznaczyć, że wyprowadzenie jest lewostronne lub prawostronne, to posługujemy się zapisem
może być rozpoznawany poprzez pusty stos przez automat ze stosem o jednym stanie. Określenie
algorytmów na podstawie powyższego twierdzenia proponujemy  jako ćwiczenie.


Powróćmy na moment do języka Łukasiewicza. Język ten oraz jego  gramatyka
<center><math>v_{0}\mapsto_{L}^{*}w,\; v_{0}\mapsto_{P}^{*}w</math>.</center>
zostały wprowadzone podczas pierwszego wykładu poswięconego  językom
bezkontekstowym. Każde słowo, generowane
przez tę gramatykę, jest pewnym wyrażeniem algebraicznym zapisanym w notacji
polskiej, prefiksowej, bez użycia nawiasów.
Bez trudności można określić gramatykę bezkontekstową, która generuje język Łukasiewicza,
w którym słowa zapisywane są w wersji postfiksowej. Wystarczy bowiem przyjąć:
<math>\displaystyle G = (V_N,V_T,v_0,P)</math>, gdzie <math>\displaystyle V_N=\{v_0 \}</math>,  <math>\displaystyle V_{T}=\left\{ a,b,+,*\right\}   </math> ,
<math>\displaystyle v_{0}=v  </math>  oraz <math>\displaystyle P= \{v \rightarrow a, v \rightarrow b, v \rightarrow vv+, v \rightarrow vv* \}</math>.
Język
{}ukasiewicza jest więc teraz zbiorem


<center><math>\displaystyle L(G)=\left\{ a,\: b,ab+,bab+*,ab+ab+*,\ldots \right\}. </math></center>
Każde wyprowadzenie słowa w gramatyce bezkontekstowej można tak uporządkować, by sekwencja produkcji tworzyła prawostronne lub lewostronne wyprowadzenie. Stąd wynika też fakt, że dowolne słowo generowane przez gramatykę bezkontekstową ma tyle samo wyprowadzeń lewostronnych, co prawostronnych. Ilość różnych wyprowadzeń danego słowa jest w niektórych zastosowaniach
gramatyk bezkontekstowych dość istotna, choćby w problemach parsingu, czyli poszukiwania w gramatyce wyprowadzenia dla danego słowa. Ilość różnych wyprowadzeń słów w gramatyce stanowi pewną informację na temat nadmiarowości tej gramatyki. Bardzo istotną rolę odgrywają zarówno w&nbsp;teorii, jak i zastosowaniach - gramatyki bezkontekstowe jednoznaczne, których definicję podajemy poniżej.


Oczywiście język ten jest  rozpoznawany przez odpowiedni automat ze stosem.
{{definicja|3.2||
Określeniem takiego automatu zajmiemy się podczas ćwiczeń. Warto zauważyć,
Gramatyka bezkontekstowa <math>G</math> jest '''jednoznaczna''' wtedy i tylko wtedy, gdy każde słowo generowane przez tę gramatykę ma dokładnie jedno wyprowadzenie lewostronne (prawostronne). Język bezkontekstowy <math>L</math> nazywamy jednoznacznym, jeśli istnieje jednoznaczna gramatyka bezkontekstowa generująca ten język.
że rozpoznając słowa języka Łukasiewicza w postfiksowej postaci,
automat ze stosem działa dokładnie tak, jak obliczane są
wartości wyrażeń arytmetycznych we współczesnych procesorach.
Automat ze stosem, czytając wyrażenie od lewej do prawej, zapisuje
wyniki częściowe na stosie, a operacje wykonywane są
zawsze na ostatnich elementach stosu.


Dla bardziej dociekliwych studentów proponujemy poniżej pełny dowód twierdzenia
}}
orzekajacego, że języki rozpoznawane przez automaty ze stosem to dokładnie języki
bezkontekstowe.


---- dla dociekliwych - start ----
Jednoznaczność gramatyki oznacza istnienie dokładnie jednego drzewa wywodu dla każdego generowanego słowa. W klasie gramatyk bezkontekstowych problem jednoznaczności jest nierozstrzygalny. W rozdziale poświęconym algorytmicznej rozstrzygalności wrócimy do tego zagadnienia. Oczywiście  wobec powyższego nierozstrzygalny jest też problem jednoznaczności języka. Problem jednoznaczności gramatyki i języka jest rozstrzygalny w podklasach języków
bezkontekstowych, na przykład dla klasy języków ograniczonych, to znaczy takich
<math>L\subset A^{*}</math> , że  <math>L\subset w_{1}^{*}...w_{n}^{*}</math>  dla pewnych słów  <math>w_{1},\ldots,w_{n}\in A^{*}</math> .


{{twierdzenie|||
{{przyklad|3.1||
Rodzina języków rozpoznawanych przez automaty ze stosem jest równa rodzinie
Język  <math>\left\{ a^{n}b^{n+m}c^m\, :\, n,m>0\right\}</math>
języków bezkontekstowych  <math>\displaystyle \mathcal{L}_{2}  </math> .
generowany przez gramatykę  <math>G=(V_{N},V_{T},v_{0},P)</math> , gdzie  <math>V_{N}=\{v_{0},v_{1}\}</math> ,
<math>V_{T}=\{a,b,c\}</math>  oraz<br>
<math>P= v_{0}\rightarrow v_1 v_2 , \;\; v_1 \rightarrow av_{1}b\;|ab, \;\; v_2 \rightarrow  bv_2c, \;|bc</math> <br>
jest, jak łatwo sprawdzić, językiem jednoznacznym.<br>


}}
}}


{{dowod|||
Mówimy, że język  <math>L\in \mathcal{L}_{2}</math>  jest '''niejednoznaczny''',
Dla dowodu, że każdy język bezkontekstowy jest rozpoznawany przez odpowiedni
jeśli nie jest jednoznaczny, czyli nie istnieje gramatyka jednoznaczna generująca ten język. Przykładem języka niejednoznacznego jest
automat ze stosem, rozważmy gramatykę <math>\displaystyle G=(V_{N},V_{T},v_{0},P_{G})  </math>  bezkontekstową,
w postaci normalnej Greibach i załóżmy, że słowo puste  <math>\displaystyle 1  </math>  nie należy do
języka  <math>\displaystyle L(G)  </math>  generowanego przez tę gramatykę. Konstruujemy teraz
automat ze stosem  <math>\displaystyle AS  </math> , który, jak udowodnimy, akceptuje poprzez pusty stos
język <math>\displaystyle L(G)  </math> . Niech


<center><math>\displaystyle \mathcal{AS}=(V_{T},V_{N}\cup V_{T},\left\{ q\right\} ,f,q,v_{0})</math></center>
<center><math>L=\left\{ a^{n}b^{n}c^{m}d^m\, :\, m,n\geqslant 1\right\} \cup \left\{ a^{n}b^{m}c^{m}d^n\, :\, m,n\geqslant 1\right\}</math>.</center>


gdzie funkcja  <math>\displaystyle f:(V_{N}\cup V_{T})\times \{q\}\times (V_{T}\cup \left\{ 1\right\} )\longrightarrow \mathcal{P}_{sk}((V_{N}\cup V_{T})^{*}\times \{q\})  </math>
Uzasadnienie tego faktu jest dosyć żmudne i dlatego zostało tutaj pominięte.
określona jest następujaco. Dla dowolnych  <math>\displaystyle v\in V_{N},\: a\in V_{T}  </math>


<center><math>\displaystyle f(v,q,1)=\{(\overleftarrow{x}a,q)\: :\: v\rightarrow ax\in P_{G}\}</math></center>
Zauważmy na koniec tego krótkiego omówienia problematyki jednoznaczności gramatyk, że każdy język regularny (ale nie każda gramatyka regularna) jest jednoznaczny. Jednoznaczna
jest bowiem gramatyka otrzymana z automatu deterministycznego generującego ten język.


<center><math>\displaystyle f(a,q,a)=\{(1,q)\}</math></center>
Jednoznaczny jest również język bezkontekstowy, który jest iloczynem <math>L\cap R</math> , gdzie  <math>L\in \mathcal{L}_{2}</math>  i jest językiem jednoznacznym, a <math>R\in \mathcal{L}_{3}</math> . Gramatyka tego języka, skonstruowana w punkcie [[#prz.3|3]] w twierdzeniu [[#tw.1|2.1]] jest jednoznaczna, co wynika stąd, że automat rozpoznający  <math>R</math> jest deterministyczny.


oraz równa jest zbiorowi pustemu  <math>\displaystyle \emptyset  </math>  we wszystkich pozostałych
==Problemy rozstrzygalne algorytmicznie==
przypadkach.


A zatem jest to automat o jednym stanie  <math>\displaystyle q  </math> , alfabetem wejściowym jest
Podobnie jak dla języków regularnych tak i w przypadku bezkontekstowych lemat o pompowaniu wykorzystuje się do uzasadnienia rozstrzygalności pewnych problemów. Dla rodziny języków bezkontekstowych mamy następujące twierdzenie.
alfabet terminalny  <math>\displaystyle V_{T}  </math> , alfabetem stosu jest suma mnogościowa alfabetu
symboli nieterminalnych  <math>\displaystyle V_{N}  </math>  i terminalnych  <math>\displaystyle V_{T}  </math> , a symbol początkowy
stosu jest symbolem startowym gramatyki. Działanie automatu  <math>\displaystyle AS  </math>  symuluje
lewostronne wyprowadzenie w gramatyce  <math>\displaystyle G. </math>


Dla dowolnego słowa <math>\displaystyle w\in L(G) </math>  istnieje lewostronne wyprowadzenie
{{twierdzenie|4.1||
W rodzinie języków bezkontekstowych <math>\mathcal{L}_{2}</math> następujące
problemy są rozstrzygalne:
# problem niepustości języka, <math>L\neq \emptyset</math>  
# problem nieskończoności języka, <math>card\, L=\aleph _{0}</math>
# problem należenia słowa <math>w</math> do języka <math>L</math>.


<center><math>\displaystyle v_{0}\mapsto a_{1}v_{1}y_{1}\mapsto a_{1}a_{2}v_{2}y_{2}\mapsto ...\mapsto a_{1}...a_{k-1}v_{k-1}\mapsto a_{1}...a_{k}=w, </math></center>
}}


gdzie  <math>\displaystyle a_{i}\in V_{T}  </math> ,  <math>\displaystyle v_{i}\in V_{N}  </math>  oraz <math>\displaystyle y_{i}\in V_{N}^{*}  </math> ,
{{dowod|||
gdyż gramatyka jest w postaci Greibach. Odpowiada temu wyprowadzeniu następujace
Aby udowodnić punkt 1, wykorzystamy następującą równoważność:
działanie automatu  <math>\displaystyle \mathcal{AS}  </math> :


<center><math>\displaystyle (v_{0},q)\mid \! \Longrightarrow ^{1}(\overleftarrow{y_{1}}v_{1}a_{1},q)\mid \! \Longrightarrow ^{a_{1}}(\overleftarrow{y_{1}}v_{1},q)\mid \! \Longrightarrow ^{1}(\overleftarrow{y_{2}}v_{2}a_{2},q)\mid \! \Longrightarrow ^{a_{2}}...</math></center>
<center><math>L\neq \emptyset \; \Longleftrightarrow \; \exists w\in L\, :\, |w|\leqslant N</math>.</center>


<center><math>\displaystyle ...\mid \! \Longrightarrow ^{1}(v_{k-1}a_{k-1},q)\mid \! \Longrightarrow ^{a_{k-1}}(v_{k-1},q)\mid \! \Longrightarrow ^{1}(a_{k},q)\mid \! \Longrightarrow ^{a_{k}}(1,q).</math></center>
Uzasadnienie tej równoważności polega na rozkładzie słowa  <math>w</math> spełniającego warunek  <math>N<|w|</math> (zgodnie z oznaczeniami i tezą lematu o pompowaniu) i zastąpieniu go słowem
<math>u_{1}uu_{2}</math> , które jest istotnie krótsze. Po skończonej ilości takich skracających kroków  dostaniemy słowo należące do języka <math>L</math> i spełniające warunek  <math>|w|\leqslant N</math> .


A to oznacza zaakceptowanie słowa  <math>\displaystyle w  </math>  poprzez pusty stos. Zatem  <math>\displaystyle L(G)\subset L(\mathcal{AS})  </math> .
W uzasadnieniu punktu 2 wykorzystamy równoważność
Dla dowodu inkluzji w przeciwną stronę wykorzystamy implikację


<center><math>\displaystyle (v_{0},q)\mid \! \Longrightarrow ^{w}(\overleftarrow{x},q)\; w\; \mathcal{AS}\Longrightarrow v_{0}\mapsto_{L}^{*}wx\; w\; G, </math></center>
<center><math>card\, L=\aleph _{0}\Longleftrightarrow \; \exists w\in L\, :\, N<|w|\leqslant N+M</math></center>


która ma miejsce dla dowolnego <math>\displaystyle w\in V_{T}^{*}  </math> . Implikację tę udowodnimy
gdzie <math>M,N</math>  są stałymi z lematu o pompowaniu.
indukcyjnie ze względu na długość słowa  <math>\displaystyle w  </math> . Dla słowa pustego  <math>\displaystyle 1  </math>
oraz dla  <math>\displaystyle w=a\in V_{T}  </math>  powyższa implikacja wynika bezpośrednio z definicji
automatu ze stosem. Załóżmy teraz, że  <math>\displaystyle (v_{0},q)\mid \! \Longrightarrow ^{w}(\overleftarrow{x},q)  </math>  
w <math>\displaystyle \mathcal{AS}  </math>  i niech  <math>\displaystyle w=w_{1}a  </math>  dla  <math>\displaystyle a\in V_{T}  </math>  i  <math>\displaystyle w_{1}\in V_{T}^{*}  </math> .
Mamy więc  <math>\displaystyle (v_{0},q)\mid \! \Longrightarrow ^{w_{1}}(\overleftarrow{y},q)  </math>
i  <math>\displaystyle (\overleftarrow{y},q)\mid \! \Longrightarrow ^{a}(\overleftarrow{x},q)  </math>
w automacie  <math>\displaystyle \mathcal{AS}  </math> . Z założenia indukcyjnego wnioskujemy, że  <math>\displaystyle v_{0}\mapsto_{L}^{*}w_{1}y  </math>
w  <math>\displaystyle G  </math> . W przypadku, gdy  <math>\displaystyle y=a  </math> , wnioskujemy z określenia automatu ze
stosem, że  <math>\displaystyle x=1  </math>  i wtedy  <math>\displaystyle v_{0}\mapsto_{L}^{*}w_{1}a=w  </math>  w  <math>\displaystyle G  </math> .
Jeśli natomiast  <math>\displaystyle y=vy'  </math> dla  <math>\displaystyle v\in V_{N}  </math>  i  <math>\displaystyle y'\in V_{N}^{*}  </math> ,
to w automacie  <math>\displaystyle \mathcal{AS}  </math>  ma miejsce wyprowadzenie


<center><math>\displaystyle (v_{0},q)\mid \! \Longrightarrow ^{w_{1}}(\overleftarrow{y},q)=(\overleftarrow{y'}v,q)\mid \! \Longrightarrow ^{1}(\overleftarrow{y'}\overleftarrow{x',}q)\mid \! \Longrightarrow ^{a}(\overleftarrow{x},q), </math></center>
Przyjmując, iż język  <math>L</math>  jest nieskończony, wnioskujemy, że
istnieją w tym języku słowa dowolnie długie.
Niech  <math>w\in L</math>  i  <math>|w|>N</math> . Jeśli  <math>w</math> nie spełnia warunku
<math>|w|\leqslant N+M</math> , to stosujemy lemat o pompowaniu dla  <math>i=0</math> , uzyskując
słowo  <math>u_{1}uu_{2}</math>  należące do języka i istotnie krótsze
od  <math>w</math> . Z warunku  <math>|w_{1}w_{2}|\leqslant |w_{1}uw_{2}|\leqslant M</math>
(punkt 1 tezy lematu o pompowaniu) wynika, iż różnica długości
tych słów nie może być wieksza niż stała  <math>M</math> .
Zatem po skończonej ilości kroków uzyskujemy słowo należące
do języka i spełniające żądany warunek.


gdzie  <math>\displaystyle x'=az,\;  \displaystyle a\in V_{T}  </math> i  <math>\displaystyle z\in V_{N}^{*}  </math>  i prawo  <math>\displaystyle v\rightarrow x'\in P_{G}  </math> .
Implikacja w przeciwną stronę ( <math>\Leftarrow</math> ) wynika bezpośrednio
W dalszym ciągu działania automatu następuje krok  <math>\displaystyle (\overleftarrow{y'}\overleftarrow{x',}q)\mid \! \Longrightarrow ^{a}(\overleftarrow{x},q)  </math> ,
z lematu o pompowaniu. Istnieje mianowicie nieskończony zbiór słów w postaci
a to w konsekwencji oznacza, że w&nbsp;gramatyce  <math>\displaystyle G  </math>  ma miejsce wyprowadzenie


<center><math>\displaystyle v_{0}\mapsto_{L}^{*}w_{1}y=w_{1}vy'\mapsto_{L}^{*}w_{1}x'y''\mapsto_{L}^{*}w_{1}azy'=wx. </math></center>
<center><math>u_{1}w_{1}^{i}uw_{2}^{i}u_{2}\in L</math></center>


Załóżmy teraz, że automat  <math>\displaystyle \mathcal{AS}=(A,A_{S},Q,f,q_{0},z_{0})  </math>  rozpoznaje
dla <math>i=0,1,2,...</math>.  
z pustym stosem język  <math>\displaystyle L(\mathcal{AS}) </math> . Skonstruujemy gramatykę bezkontekstową
<math>\displaystyle G  </math> , generującą ten sam język. Niech  <math>\displaystyle G=((Q\times A_{S}\times Q)\cup \left\{ v_{0}\right\} ,A,v_{0},P_{G})  </math> ,
gdzie  <math>\displaystyle v_{0}\notin Q\cup A_{S}\cup A  </math> . Do zbioru praw  <math>\displaystyle P_{G}  </math>  zaliczymy
wyłącznie następujące prawa:
#  <math>\displaystyle v_{0}\rightarrow (q_{0},z_{0},q)  </math>  dla wszystkich stanów  <math>\displaystyle q\in Q  </math> ,
#  <math>\displaystyle (q,z,q_{1})\rightarrow a(q_{k+1},z_{k},q_{k})(q_{k},z_{k-1},q_{k-1})\ldots (q_{2},z_{1},q_{1})  </math>
dla dowolnych stanów  <math>\displaystyle q,q_{1},\ldots ,q_{k+1}\in Q,  \displaystyle \, a\in A\cup \left\{ 1\right\} ,\, z,z_{1},\ldots z_{k}\in A_{S}  </math>
jeśli  <math>\displaystyle (z_{1}...z_{k},q_{k+1})\in f(z,q,a)  </math> ,
#  <math>\displaystyle (q,z,q_{1})\rightarrow a\in P_{G}  </math>  jeśli  <math>\displaystyle (1,q_{1})\in f(z,q,a)  </math> .


{ Mamy więc następującą równoważność:
Punkt 3 twierdzenia wymaga podania odpowiedniego algorytmu. Jego prezentacją i omówieniem
zajmujemy się poniżej.


<center><math>\displaystyle
}}
\begin{array} {c}
\begin{array} {c}
(q,z,q_{1})\rightarrow a(q_{k+1},z_{k},q_{k})(q_{k},z_{k-1},q_{k-1})\ldots (q_{2},z_{1},q_{1})\in P_{G}
\end{array} \\
\begin{array} {c}
\, \Leftrightarrow \, (z_{1}\ldots z_{k},q_{k+1})\in f(z,q,a),
\end{array}
\end{array}
</math></center>


}
<tt>Algorytm CYK - przynależność słowa do języka.</tt>


która w szczególności dla <math>\displaystyle k=0 </math> przyjmuje postać
Rozważmy problem przynależności słowa <math>w</math> do danego języka, generowanego
przez gramatykę bezkontekstową <math>G</math>. Jest to problem rozstrzygalny.
Bardzo łatwo podać algorytm, wykorzystujący postać normalną
Greibach. Po sprowadzeniu gramatyki <math>G</math> do postaci normalnej Greibach prawa strona
każdej produkcji rozpoczyna się symbolem terminalnym i jest to
jedyny symbol terminalny.
Zatem jeśli <math>w=a_1a_2...a_n</math>, to należy zbadać
wszystkie wywody w <math>G</math>, z symbolu początkowego <math>S</math>, o długości dokładnie <math>|w|</math>,
to znaczy wywody złożone z
dokładnie <math>|w|</math> kroków. Jeśli dla każdego symbolu nieterminalnego istnieje co
najwyżej <math>k</math> produkcji w gramatyce <math>G</math>, w których pojawia się on po lewej stronie,
to algorytm będzie działał w czasie <math>O(k^{|w|})</math>. Metoda ta jest
jednak bardzo nieefektywna. Czasochłonne jest też samo sprowadzenie gramatyki <math>G</math>
do postaci normalnej Greibach.


<center><math>\displaystyle (q,z,q_{1})\rightarrow a\in P_{G}\, \Leftrightarrow \, (1,q_{1})\in f(z,q,a)</math></center>
Istnieje  szybszy algorytm rozwiązujący problem
przynależności do języka. Jest to algorytm
Cocke'a-Youngera-Kasamiego, w skrócie CYK.


i oznacza dla gramatyki wymazywanie symboli nieterminalnych, a dla automatu
Algorytm CYK działa w oparciu o ideę programowania dynamicznego
wymazywanie symboli stosu.
. Rozważmy słowo <math>w=a_1a_2...a_n</math> oraz gramatykę <math>G</math>.
Niech zbiór <math>V_i^j</math> zawiera wyłącznie te symbole nieterminalne, z których można wywieść
słowo <math>a_ia_{i+1}...a_{i+j-1}</math>, czyli
<center><math>V_i^j=\{v \in V_N: v \Rightarrow^*_G a_i a_{i+1}... a_{i+j-1} \}</math>.</center>


Skonstruowana gramatyka  <math>\displaystyle G </math>  odtwarza działanie automatu  <math>\displaystyle AS  </math>  działającego
Mamy zatem następującą równoważność: <center><math>w \in L(G) \Leftrightarrow
pod wpływem słowa wejściowego  <math>\displaystyle w,  </math> co udowodnimy poniżej. W tym celu wykażemy
v_0 \in V_1^n</math>.</center><br>
indukcyjnie ze względu na długość słowa  <math>\displaystyle w\in A^{*}  </math> następującą równoważność:


<center><math>\displaystyle \begin{array} {c}
{{algorytm|''Cocke-Younger-Kasami'' - sprawdza, czy dane słowo
(q,z,q_{1})\mapsto^{*}_{G}w(q_{k+1},z_{k},q_{k})\ldots (q_{2},z_{1},q_{1})\, \Leftrightarrow \, \\
należy do języka generowanego przez gramatykę bezkontekstową||
\, \Leftrightarrow \, (z,q)\, \mid \! \Longrightarrow ^{w}\, (z_{1}\ldots z_{k},q_{k+1})
  1  Wejście: <math>G=(V_N, V_T, P, v_0)</math>, <math>w \in V_T^*</math> - gramatyka bezkontekstowa i słowo<br> <math>w=a_1a_2...a_n</math> o długości <math>n</math>.
\end{array} </math></center>
  2  Wyjście: TAK lub NIE - odpowiedź na pytanie, czy <math>w \in
L(G)</math>.
  3  <math>G \leftarrow</math>''PostaćNormalnaChomsky'ego''<math>(G)</math>;
  4  '''for''' <math>i=1,\ldots,n</math> '''do'''
  5    <math>V_i^1 \leftarrow \{v \in V_N: (v \rightarrow a) \in P, a \in V_T\ \wedge\ a_i=a \}</math>;
  6  '''end for'''
  7  '''for''' <math>j=2,\ldots,n</math> '''do'''
  8    '''for''' <math>i=1,\ldots,n-j+1</math> '''do'''
  9        <math>V_i^j \leftarrow</math>;
  10        '''for''' <math>k=1,\ldots,j-1</math> '''do'''
  11          <math>V_i^j \leftarrow V_i^j \cup \{v \in V_N: (v \rightarrow wy) \in P,\ w \in V_i^k,\ y \in V_{i+k}^{j-k}\}</math>;
  12        '''end for'''
  13    '''end for'''
  14  '''end for'''
  15  '''if''' <math>v_0 \in V_1^n</math>
  16    '''return''' '''TAK''', <math>w \in L(G)</math>;
  17  '''else'''
  18    '''return''' '''NIE''', <math>w \not \in L(G)</math>;
  19  '''end if'''
}}


Dla  <math>\displaystyle w=a\in A  </math> równoważność redukuje się do obserwacji [[##row1|Uzupelnic row1|]]. Załóżmy
Algorytm CYK działa w czasie <math>|w|^3</math>, gdzie <math>|w|</math> jest długością
teraz, że słowo  <math>\displaystyle w=w_{1}a  </math> oraz że w gramatyce  <math>\displaystyle G  </math>  mamy wyprowadzenie
słowa, o którego przynależność do języka pytamy.
<math>\displaystyle (q,z,q_{1})\Rightarrow _{G}^{*}w_{1}a(q_{k+1},z_{k},q_{k})\ldots (q_{2},z_{1},q_{1})  </math> .
Z postaci gramatyki  <math>\displaystyle G  </math>  wynika, że to wyprowadzenie można przedstawić nastepująco:


<center><math>\displaystyle \begin{array} {c}
{{przyklad|4.1||
(q,z,q_{1})\mapsto_{G}^{*}w_{1}(q',z',q_{p})(q_{p},z_{p-1},q_{p-1})\ldots (q_{2},z_{1},q_{1})\\
Zbadamy, czy słowo <math>w=bbaaaa</math> należy do języka generowanego
\mapsto_{G}w_{1}a(q_{k+1},z_{k},q_{k})\ldots (q_{p+1},z_{p},q_{p})(q_{p},z_{p-1},q_{p-1})\ldots (q_{2},z_{1},q_{1})
gramatyką:
\end{array} </math></center>


dla pewnego  <math>\displaystyle p\leq k </math> i odpowiednich <math>\displaystyle q,q',q_{1},\ldots ,q_{k+1}\in Q,\, z,z',z_{1},\ldots z_{k}\in A_{S} </math> .
<center><math>\begin{align}  v & \rightarrow & wx\ |\ yz \\
  w & \rightarrow & wy\ |\ xx\ |\ a \\
  x & \rightarrow & wz\ |\ b \\
  y & \rightarrow & xy\ |\ zz\ |\ a \\
z & \rightarrow & yy\ |\ b
\end{align}</math></center>


Z założenia indukcyjnego wynika, iż pierwszy fragment wyprowadzenia jest w&nbsp;automacie
gdzie <math>v</math> jest symbolem początkowym.
<math>\displaystyle AS  </math> zastąpiony równoważnie poprawnym obliczeniem
}}
 
<center><math>\displaystyle (z,q)\, \mid \! \Longrightarrow ^{w_{1}}\, (z_{1}\ldots z_{p-1}z',q'),</math></center>
 
a drugi
 
<center><math>\displaystyle (z_{1}\ldots z_{p-1}z',q')\, |\! \! \! \Longrightarrow ^{a}\, (z_{1}\ldots z_{p-1}z_{p}...z_{k},q_{k+1}).</math></center>
 
A to oznacza, że w automacie  <math>\displaystyle AS  </math>  mamy poprawne obliczenie
 
<center><math>\displaystyle (z,q)\, \mid \! \Longrightarrow ^{w_{1}a}(z_{1},\ldots z_{k},q_{k+1})</math></center>
 
co kończy dowód indukcyjny równoważności. Na jej podstawie, przyjmując  <math>\displaystyle q=q_{0},\: z=z_{0}  </math> ,
otrzymujemy
 
<center><math>\displaystyle (q_{0},z_{0},q)\mapsto^{*}_{G}w\, \Leftrightarrow \, (z_{0},q_{0})\, \mid \! \Longrightarrow ^{w}\, (1,q').</math></center>
 
Uwzględniając, iż dla dowolnego stanu  <math>\displaystyle q  </math>  mamy w gramatyce  <math>\displaystyle G  </math>  prawo
<math>\displaystyle v_{0}\rightarrow (q_{0},z_{0},q)  </math>  oraz że automat  <math>\displaystyle AS  </math>  akceptuje
słowa przez pusty stos (stan  <math>\displaystyle q'  </math>  jest nieistotny), ostatnia równoważność
kończy dowód twierdzenia.


<math>\displaystyle \diamondsuit</math>  }}
Poniższa animacja ilustruje działanie algorytmu CYK.


---- dla dociekliwych - end ----
[[File:ja-lekcja10-w-anim2.mp4|250x250px|thumb|center|Animacja 2]]

Aktualna wersja na dzień 21:57, 15 wrz 2023

Wprowadzimy i udowodnimy najprostszą wersję lematu o pompowaniu dla języków bezkontekstowych.

Lemat o pompowaniu

Istotną cechą języków regularnych jest własność pompowania, którą ustaliliśmy w lemacie o pompowaniu. Podobną, ale nie taką samą, cechę posiadają języki bezkontekstowe. O ile dla języków regularnych własność pompowania wynikała z istnienia pętli w grafie opisującym automat, to dla języków bezkontekstowych pompowanie jest wynikiem powtarzającego się symbolu nieterminalnego w wyprowadzeniu dostatecznie długiego słowa w gramatyce.

Lemat 1.1

(o pompowaniu) Dla dowolnego języka bezkontekstowego LA* istnieją liczby naturalne N,M1 takie, że każde słowo wL o długości |w|>N można przedstawić w formie w=u1w1uw2u2, gdzie w1,w2,v1,v2,uA* oraz

  1. |w1uw2|M
  2. w1w21
  3. u1w1iuw2iu2L dla i=0,1,...

Zanim przeprowadzimy dowód lematu, zobaczmy jak stosuje się ten lemat do języka generowanego przez gramatykę ({v0,v1,v2},{a,b},v0,P),
gdzie P:v0v1v2,v1av2b,v2b|v0b.

Animacja 1

Dowód

Załóżmy, bez utraty ogólności rozważań (dlaczego?), że język bezkontekstowy L nie zawiera słowa pustego i jest generowany przez gramatykę G=(VN,VT,v0,P) w normalnej postaci Chomsky'ego. Rozważmy dowolne wyprowadzenie w G

w0w1...wr

o długości r1 i w0VN. Niech najdłuższa ścieżka w drzewie binarnym T tego wyprowadzenia ma długość k (jako długość przyjmujemy tutaj liczbę wierzchołków, przez które przechodzi ścieżka). Indukcyjne ze względu na k łatwo jest

uzasadnić, że
|wr|2k1.

Załóżmy teraz, że zbiór VN ma p elementów i przyjmijmy N=2p oraz M=2p+1. Niech wL(G) będzie słowem, którego długość jest większa od N. Zatem najdłuższa ścieżka S w drzewie wyprowadzenia T będącego wyprowadzeniem słowa w w gramatyce G ma długość co najmniej p+2. A więc przechodzi przez co najmniej p+2 wierzchołków. Stąd, że wierzchołki maksymalne drzewa wyprowadzenia mają etykiety terminalne, wnioskujemy, że w S występują dwa różne wierzchołki s1,s2 etykietowane przez ten sam symbol nieterminalny v. Przyjmijmy, że wierzchołek s1 jest bliższy wierzchołka początkowego drzewa wyprowadzenia niż s2. Wierzchołki s1,s2 można tak dobrać, aby podścieżka ścieżki S o początku w wierzchołku s1 miała długość równą co najwyżej p+2. Zauważmy teraz, że żadna ścieżka poddrzewa T1, którego wierzchołkiem początkowym jest s1, nie ma długości większej niż p+2. Jeśli więc w jest słowem określonym przez liście T1, to

(1)

|w|2(p+2)1=M

Rozważmy teraz poddrzewo T2 drzewa T o wierzchołku początkowym w s2 i niech u będzie słowem określonym przez liście T2. Wtedy w=w1uw2 dla pewnych w1,w2VT*. W połączeniu z nierównością (1) uzyskujemy pierwszą własność postulowaną w lemacie. Co więcej, w1w21, ponieważ pierwsza produkcja wyprowadzenia v*w jest postaci vv1v2 dla pewnych v1,v2VN , a w gramatyce nie ma produkcji wymazującej. Zatem dla pewnych u1,u2VT* jest

v0*u1vu2*u1uu2
lub
v0*u1vu2*u1w1vw2u2*u1w1uw2u2=w

lub

v0*u1vu2*u1w1vw2u2*u1w1ivw2iu2*u1w1iuw2iu2

dla i=1,2,

W konsekwencji u1w1iuw2iu2L dla dowolnego i=0,1,.... Lemat zatem został udowodniony.

Analogicznie jak w przypadku języków regularnych, lemat o pompowaniu dla języków bezkontekstowych stosuje się najczęściej do uzasadnienia, że pewne języki nie należą do rodziny 2. Takie właśnie zastosowanie przedstawione jest poniżej, na przykładzie języka, o którym pó{z}niej udowodnimy, że jest kontekstowy, czyli należy do rodziny języków 1.

Przykład 1.1

Niech L={anbncn:n1}. Przeprowadzając rozumowanie nie wprost, a więc zakładając bezkontekstowość tego języka, z lematu o pompowaniu uzyskujemy odpowiednie stałe M,N. Niech k>N3 i rozważmy słowo x1=akbkck. Zatem istnieje rozkład x1=u1w1uw2u2, w1w21 oraz xi=u1w1iuw2iu2L dla i=0,1,... Z postaci słów języka L oraz z faktu w1w21 wnioskujemy, że słowa w1,w2 są potęgami jednej z liter a,b,c oraz że |xi|, o ile i. A to wyklucza możliwość zachowania własności określającej język L. Otrzymana sprzeczność prowadzi do wniosku, iż język {anbncn:n1} nie jest bezkontekstowy.

Lemat o pompowaniu wykorzystywany bywa również w dowodach rozstrzygalności pewnych problemów w rodzinie języków rozpoznawalnych. Zagadnieniem tym zajmiemy się w dalszej części tego wykładu.

Własności rodziny języków bezkontekstowych

Przedstawimy teraz podstawowe własności rodziny języków bezkontekstowych związane z zamkniętością ze względu na działania oraz z problemami jednoznaczności.

Twierdzenie 2.1

Rodzina języków bezkontekstowych 2 jest zamknięta ze względu na następujące działania:

  1. sumę mnogościową,
  2. katenację i operację iteracji *,
  3. przecięcie (iloczyn mnogościowy) z językiem regularnym,
  4. homomorfizm.

Dowód

     1. Niech Gi=(VNi,VT,v0i,Pi) będą gramatykami bezkontekstowymi dla i=1,2 takimi, że VN1VN2= oraz Li=L(Gi). Język L=L1L2 jest generowany przez gramatykę bezkontekstową określoną w następujący sposób:
G=(VN1VN2{v0},VT,v0,P1P2{v0v01,v0v02}).
     2. Przy powyższych oznaczeniach, język L=L1L2 jest generowany przez gramatykę bezkontekstową:
G=(VN1VN2{v0},VT,v0,P1P2{v0v01v02}).
Jeśli L=L(G), dla G=(VN,VT,v0,P) gramatyki bezkontekstowej, to L*=L(G) dla gramatyki
G=(VN{v0},VT,v0,P{v01,v0v0v0},
która jest również gramatyką bezkontekstową.
     3. Niech R będzie dowolonym językiem rozpoznawanym przez pewien automat skończenie stanowy 𝒜=(S,f,s0,T). Język ten możemy przedstawić w postaci sumy R=i=1kRi, w której każdy język Ri jest rozpoznawany przez automat 𝒜 , w którym jako stan końcowy przyjmujemy tiT. Rodzina języków bezkontekstowych jest zamknięta ze względu na sumę mnogościową i oczywista jest równość LR=i=1k(LRi). Wystarczy zatem udowodnić, że język LRi jest bezkontekstowy. Załóżmy, że T={t} oraz L jest językiem generowanym przez gramatykę bezkontekstową G=(VN,VT,v0,P) w normalnej postaci Chomsky'ego. Bez utraty ogólności rozważań można także założyć, że 1L. Konstruujemy gramatykę
H=(S×(VNVT)×S,VT,(s0,v0,t),PH),
dla której PH zawiera następujące produkcje:
  • (s1,v1,s2)(s1,v2,s3)(s3,v3,s2) dla siS, viVN jeśli v1v2v3P,
  • (s1,v1,s2)(s1,a,s2) dla siS, aVT jeśli v1aP,
  • (s1,a,s2)a dla siS, aVT jeśli f(s1,a)=s2.

Bezpośrednio z konstrukcji wynika, że gramatyka H jest bezkontekstowa. Łatwo również zauważyć, że język generowany przez gramatykę H jest równy LR.

     4. Niech h:A*B* oznacza dowolny homomorfizm, a LA* językiem bezkontekstowym generowanym przez gramatykę G=(VN,A,v0,P). Rozszerzamy homomorfizm h do wolnych monoidów (AVN)* i (BVN)*, przyjmując, że h na zbiorze VN jest równe identyczności. Łatwo zauważyć, że język h(L) jest generowany przez gramatykę bezkontekstową G=(VN,B,v0,Ph), w której
Ph={vh(w):vwP}.

Z równości LR=LR , zamkniętości klasy 3 ze względu na uzupełnienie oraz z punktu 3 udowodnionego powyżej twierdzenia wynika następujący wniosek.

Wniosek 2.1

Niech LA* będzie dowolonym językiem bezkontekstowym, a RA* regularnym. Wtedy LR jest językiem bezkontekstowym.

Bez dowodu podajemy dwie dalsze własności związane z zamkniętością rodziny języków bezkontekstowych.

Fakt 2.1

Rodzina języków bezkontekstowych 2 jest zamknięta ze względu na podstawienie regularne i przeciwobraz przez homomorfizm.

Rodzina języków bezkontekstowych nie jest zamknięta na wszystkie działania boolowskie. Jak wynika z poniższego twierdzenia, jedynym działaniem boolowskim nie wyprowadzającym poza rodzinę języków bezkontekstowych jest suma mnogościowa.

Twierdzenie 2.2

Rodzina języków bezkontekstowych 2 nie jest zamknięta ze względu na:

  1. iloczyn mnogościowy,
  2. uzupełnienie.

Dowód

Dla i=1,2 niech Gi=({v0,v1},{a,b,c},v0,Pi) będą gramatykami o następujących zbiorach praw:

P1={v0v0c,v0v1c,v1ab,v1av1b},P2={v0av0,v0av1,v1bc,v1bv1c}.

Gramatyki te są bezkontekstowe i generują, odpowiednio, następujące języki:

L(G1)={anbncm:n,m1}2,
L(G2)={anbmcm:n,m1}2.

Języki te są bezkontekstowe, lecz ich przecięcie

L(G1)L(G2)={anbncn:n1}2

jest językiem istotnie kontekstowym.

Z udowodnionej właśnie własności oraz z praw de'Morgana wynika, że rodzina 2 nie jest też domknięta ze względu na uzupełnienie.

Jednoznaczność języków bezkontekstowych

Omówimy teraz, dość ogólnie zresztą, problem występujący w niektórych gramatykach bezkontekstowych, a polegający na wielokrotnym wyprowadzeniu tego samego słowa. Z punktu widzenia języków programowania, których syntaktykę opisują, w pewnym zakresie, gramatyki bezkontekstowe, taka nadmiarowość (niejednoznaczność parsingu) jest cechą wysoce niepożądaną. Gramatyki, które nie będą mieć takiej własności nazwiemy jednoznacznymi. Jednoznacznym nazwiemy też język, dla którego istnieje gramatyka jednoznaczna.

Definicja 3.1

Niech G=(VN,VT,v0,P) będzie gramatyką bezkontekstową. Lewostronnym (prawostronnym) wyprowadzeniem słowa wVT* w gramatyce G nazywamy wyprowadzenie
v0w1..wn=w
takie, że dla każdego i=0,,n1,wi+1 jest generowane bezpośrednio z wi przez zastąpienie pierwszego z lewej (prawej) symbolu nieterminalnego występującego w słowie wi.

Jeśli chcemy zaznaczyć, że wyprowadzenie jest lewostronne lub prawostronne, to posługujemy się zapisem

v0L*w,v0P*w.

Każde wyprowadzenie słowa w gramatyce bezkontekstowej można tak uporządkować, by sekwencja produkcji tworzyła prawostronne lub lewostronne wyprowadzenie. Stąd wynika też fakt, że dowolne słowo generowane przez gramatykę bezkontekstową ma tyle samo wyprowadzeń lewostronnych, co prawostronnych. Ilość różnych wyprowadzeń danego słowa jest w niektórych zastosowaniach gramatyk bezkontekstowych dość istotna, choćby w problemach parsingu, czyli poszukiwania w gramatyce wyprowadzenia dla danego słowa. Ilość różnych wyprowadzeń słów w gramatyce stanowi pewną informację na temat nadmiarowości tej gramatyki. Bardzo istotną rolę odgrywają zarówno w teorii, jak i zastosowaniach - gramatyki bezkontekstowe jednoznaczne, których definicję podajemy poniżej.

Definicja 3.2

Gramatyka bezkontekstowa G jest jednoznaczna wtedy i tylko wtedy, gdy każde słowo generowane przez tę gramatykę ma dokładnie jedno wyprowadzenie lewostronne (prawostronne). Język bezkontekstowy L nazywamy jednoznacznym, jeśli istnieje jednoznaczna gramatyka bezkontekstowa generująca ten język.

Jednoznaczność gramatyki oznacza istnienie dokładnie jednego drzewa wywodu dla każdego generowanego słowa. W klasie gramatyk bezkontekstowych problem jednoznaczności jest nierozstrzygalny. W rozdziale poświęconym algorytmicznej rozstrzygalności wrócimy do tego zagadnienia. Oczywiście wobec powyższego nierozstrzygalny jest też problem jednoznaczności języka. Problem jednoznaczności gramatyki i języka jest rozstrzygalny w podklasach języków bezkontekstowych, na przykład dla klasy języków ograniczonych, to znaczy takich LA* , że Lw1*...wn* dla pewnych słów w1,,wnA* .

Przykład 3.1

Język {anbn+mcm:n,m>0} generowany przez gramatykę G=(VN,VT,v0,P) , gdzie VN={v0,v1} , VT={a,b,c} oraz
P=v0v1v2,v1av1b|ab,v2bv2c,|bc
jest, jak łatwo sprawdzić, językiem jednoznacznym.

Mówimy, że język L2 jest niejednoznaczny, jeśli nie jest jednoznaczny, czyli nie istnieje gramatyka jednoznaczna generująca ten język. Przykładem języka niejednoznacznego jest

L={anbncmdm:m,n1}{anbmcmdn:m,n1}.

Uzasadnienie tego faktu jest dosyć żmudne i dlatego zostało tutaj pominięte.

Zauważmy na koniec tego krótkiego omówienia problematyki jednoznaczności gramatyk, że każdy język regularny (ale nie każda gramatyka regularna) jest jednoznaczny. Jednoznaczna jest bowiem gramatyka otrzymana z automatu deterministycznego generującego ten język.

Jednoznaczny jest również język bezkontekstowy, który jest iloczynem LR , gdzie L2 i jest językiem jednoznacznym, a R3 . Gramatyka tego języka, skonstruowana w punkcie 3 w twierdzeniu 2.1 jest jednoznaczna, co wynika stąd, że automat rozpoznający R jest deterministyczny.

Problemy rozstrzygalne algorytmicznie

Podobnie jak dla języków regularnych tak i w przypadku bezkontekstowych lemat o pompowaniu wykorzystuje się do uzasadnienia rozstrzygalności pewnych problemów. Dla rodziny języków bezkontekstowych mamy następujące twierdzenie.

Twierdzenie 4.1

W rodzinie języków bezkontekstowych 2 następujące problemy są rozstrzygalne:

  1. problem niepustości języka, L
  2. problem nieskończoności języka, cardL=0
  3. problem należenia słowa w do języka L.

Dowód

Aby udowodnić punkt 1, wykorzystamy następującą równoważność:

LwL:|w|N.

Uzasadnienie tej równoważności polega na rozkładzie słowa w spełniającego warunek N<|w| (zgodnie z oznaczeniami i tezą lematu o pompowaniu) i zastąpieniu go słowem u1uu2 , które jest istotnie krótsze. Po skończonej ilości takich skracających kroków dostaniemy słowo należące do języka L i spełniające warunek |w|N .

W uzasadnieniu punktu 2 wykorzystamy równoważność

cardL=0wL:N<|w|N+M

gdzie M,N są stałymi z lematu o pompowaniu.

Przyjmując, iż język L jest nieskończony, wnioskujemy, że istnieją w tym języku słowa dowolnie długie. Niech wL i |w|>N . Jeśli w nie spełnia warunku |w|N+M , to stosujemy lemat o pompowaniu dla i=0 , uzyskując słowo u1uu2 należące do języka i istotnie krótsze od w . Z warunku |w1w2||w1uw2|M (punkt 1 tezy lematu o pompowaniu) wynika, iż różnica długości tych słów nie może być wieksza niż stała M . Zatem po skończonej ilości kroków uzyskujemy słowo należące do języka i spełniające żądany warunek.

Implikacja w przeciwną stronę ( ) wynika bezpośrednio z lematu o pompowaniu. Istnieje mianowicie nieskończony zbiór słów w postaci

u1w1iuw2iu2L

dla i=0,1,2,....

Punkt 3 twierdzenia wymaga podania odpowiedniego algorytmu. Jego prezentacją i omówieniem zajmujemy się poniżej.

Algorytm CYK - przynależność słowa do języka.

Rozważmy problem przynależności słowa w do danego języka, generowanego przez gramatykę bezkontekstową G. Jest to problem rozstrzygalny. Bardzo łatwo podać algorytm, wykorzystujący postać normalną Greibach. Po sprowadzeniu gramatyki G do postaci normalnej Greibach prawa strona każdej produkcji rozpoczyna się symbolem terminalnym i jest to jedyny symbol terminalny. Zatem jeśli w=a1a2...an, to należy zbadać wszystkie wywody w G, z symbolu początkowego S, o długości dokładnie |w|, to znaczy wywody złożone z dokładnie |w| kroków. Jeśli dla każdego symbolu nieterminalnego istnieje co najwyżej k produkcji w gramatyce G, w których pojawia się on po lewej stronie, to algorytm będzie działał w czasie O(k|w|). Metoda ta jest jednak bardzo nieefektywna. Czasochłonne jest też samo sprowadzenie gramatyki G do postaci normalnej Greibach.

Istnieje szybszy algorytm rozwiązujący problem przynależności do języka. Jest to algorytm Cocke'a-Youngera-Kasamiego, w skrócie CYK.

Algorytm CYK działa w oparciu o ideę programowania dynamicznego . Rozważmy słowo w=a1a2...an oraz gramatykę G. Niech zbiór Vij zawiera wyłącznie te symbole nieterminalne, z których można wywieść słowo aiai+1...ai+j1, czyli

Vij={vVN:vG*aiai+1...ai+j1}.

Mamy zatem następującą równoważność:

wL(G)v0V1n.


Algorytm Cocke-Younger-Kasami - sprawdza, czy dane słowo należy do języka generowanego przez gramatykę bezkontekstową


  1  Wejście: G=(VN,VT,P,v0), wVT* - gramatyka bezkontekstowa i słowo
w=a1a2...an o długości n. 2 Wyjście: TAK lub NIE - odpowiedź na pytanie, czy wL(G). 3 GPostaćNormalnaChomsky'ego(G); 4 for i=1,,n do 5 Vi1{vVN:(va)P,aVT  ai=a}; 6 end for 7 for j=2,,n do 8 for i=1,,nj+1 do 9 Vij; 10 for k=1,,j1 do 11 VijVij{vVN:(vwy)P, wVik, yVi+kjk}; 12 end for 13 end for 14 end for 15 if v0V1n 16 return TAK, wL(G); 17 else 18 return NIE, w∉L(G); 19 end if

Algorytm CYK działa w czasie |w|3, gdzie |w| jest długością słowa, o którego przynależność do języka pytamy.

Przykład 4.1

Zbadamy, czy słowo w=bbaaaa należy do języka generowanego gramatyką:

vwx | yzwwy | xx | axwz | byxy | zz | azyy | b

gdzie v jest symbolem początkowym.

Poniższa animacja ilustruje działanie algorytmu CYK.

Animacja 2