programowanie współbieżne i rozproszone

122
Programowanie współbieżne i rozproszone Współbieżność - składające się na nią zjawiska, czynności lub działania odbywają się równocześnie. Proces - program (procedura) w trakcie wykonywania, który może być skończony lub nieskończony. Program współbieżny - zbiór programów sekwencyjnych wykonywanych równolegle, gdzie nie jest wymagane, aby każdy proces był wykonywany przez fizycznie odrębny procesor. Geneza – systemy operacyjne wielozadaniowe.

Upload: yank

Post on 11-Jan-2016

49 views

Category:

Documents


0 download

DESCRIPTION

Programowanie współbieżne i rozproszone. Wspó ł bie ż no ść - sk ł adaj ą ce si ę na ni ą zjawiska, czynno ś ci lub dzia ł ania odbywaj ą si ę równocze ś nie. Proces - program (procedura) w trakcie wykonywania, który mo ż e by ć sko ń czony lub niesko ń czony. - PowerPoint PPT Presentation

TRANSCRIPT

Page 1: Programowanie współbieżne i rozproszone

Programowanie współbieżne i rozproszone

• Współbieżność - składające się na nią zjawiska, czynności lub działania odbywają się równocześnie.

• Proces - program (procedura) w trakcie wykonywania, który może być skończony lub nieskończony.

• Program współbieżny - zbiór programów sekwencyjnych wykonywanych równolegle, gdzie nie jest wymagane, aby każdy proces był wykonywany przez fizycznie odrębny procesor.

• Geneza – systemy operacyjne wielozadaniowe.

Page 2: Programowanie współbieżne i rozproszone

Termin programowanie współbieżne używa się do określenia technik i notacji programistycznych służących do wyrażania równoległości oraz rozwiązywania zagadnień związanych z powstałymi przy tym problemami synchronizacji i komunikacji.

Programowanie współbieżne jest bardzo ważnym zagadnieniem, gdyż pozwala zajmować się równoległością bez wdawania się w szczegóły implementacyjne. Możliwość takiego abstrahowania okazała się na tyle użyteczna przy pisaniu programów, że nowoczesne języki programowania wyposażono już w mechanizmy programowania współbieżnego.

Podstawowym problemem w programowaniu współbieżnym jest wyłączność procesów do wspólnych zasobów.

Page 3: Programowanie współbieżne i rozproszone

Programowanie sekwencyjne a współbieżne

programowanie rozwiązań sekwencyjnych

jest prostsze

prostsza analiza poprawności programu

duża liczba problemów analizowanych i rozwiązywanych za pomocą programu

sekwencyjnego będzie działała wolniej ,

Programowanie sekwencyjne :

Page 4: Programowanie współbieżne i rozproszone

Programowanie współbieżne: możliwość tworzenia systemów komputerowych (programów współbieżnych) w

sposób jak najbardziej efektywny,

programowania współbieżne jest znacznie trudniejsze niż programowania sekwencyjne,

trudniejsze jest dowodzenie poprawności programów współbieżnych (skomplikowana analiza poprawności programu),

współbieżność wymaga uwzględnienia trudnych do opisania zależności czasowych występujących pomiędzy poszczególnymi procesami,

brakuje metod testowych umożliwiających wykrywanie błędów synchronizacji,

konieczność specyfikacji (określenia) instrukcji, które mogą być wykonywane jednocześnie (problem wzajemnego wykluczania, sortowanie współbieżne tablic),

Page 5: Programowanie współbieżne i rozproszone

Problemy w programowaniu współbieżnym

problemy synchronizacji i komunikacji

problemy związane z przydziałem procesora (priorytetowanie procesów)

Page 6: Programowanie współbieżne i rozproszone

Przykład: Złożoność obliczeniowa sekwencyjnego i równoległego algorytmu sortowania tablic.

Rozmiar tablicy

Sortowanie przez zamianę

Algorytm równoległy

Algorytm równoległy ze współbieżnym

sortowaniem

N n2/2 (n2/4)+n (n2/8)+n

40 800 440 140

100 5000 2600 1350

1000 500 000 251 000 126 000

Page 7: Programowanie współbieżne i rozproszone

Sortowanie sekwencyjne n – elementowej tablicy (przez zamianę):

dla wewnętrznej pętli sortowania –

(n-1)+ (n-2)+...+1= n(n-1)/2= n2/2

Sortowanie równoległe

podział tablicy na dwie tablice po n/2 elementów

liczba operacji dla jednej tablicy (n/2)2/2 = n2/8

liczba operacji potrzebnych do posortowania 2 tablic n2/4

n operacji połączenia dwóch tablic

Page 8: Programowanie współbieżne i rozproszone

Program sekwencyjny jest poprawny, jeśli zatrzymuje się oraz drukuje poprawną wartość (wartości). To twierdzenie jest też słuszne dla pewnego rodzaju programów współbieżnych takich jak sortowanie.

Cechą wielu programów współbieżnych (systemów operacyjnych, systemów czasu rzeczywistego) jest to, że nigdy się nie zatrzymują). Wówczas w abstrakcji współbieżności wyróżnimy dwa typy własności dotyczących poprawności:

Poprawności programów współbieżnych

Page 9: Programowanie współbieżne i rozproszone

Własność bezpieczeństwa – program współbieżny jest bezpieczny, jeśli nigdy nie doprowadza do niepożądanego stanu.

Np.:

problem wzajemnego wykluczania,

problem producentów i konsumentów -

każda porcja zostanie skonsumowana w

kolejności ich produkowania.

Własność Żywotności – program współbieżny jest żywotny, jeśli zapewnia, że każde pożądane zdarzenie w końcu zajdzie.

Page 10: Programowanie współbieżne i rozproszone

Przejawy braku żywotności

Brak żywotności globalnej - blokada (zastój, zakleszczenie, martwy punkt) –

występuje wtedy, gdy każdy proces z danego zbioru procesów jest wstrzymany w oczekiwaniu na zdarzenie, które może być spowodowane tylko przez jakiś inny proces z tego zbioru. Zjawisko blokady może być również traktowane jako przejaw braku bezpieczeństwa programu, jest bowiem stan niepożądany.

Brak żywotności lokalnej - zagłodzenie – występuje wtedy, gdy proces nie zostaje wznowiony, mimo że zdarzenie, na które czeka, występuje dowolną liczbę razy i za każdym razem, gdy proces ten mógłby być wznowiony, jest wybierany jakiś inny czekający proces. Pomiędzy całkowitym brakiem pojęcia czasu w koncepcji żywotności, a wprowadzeniem czasu dokładnego znajduje się pojęcie uczciwości.

Page 11: Programowanie współbieżne i rozproszone

Cztery rodzaje uczciwości :

uczciwość słaba oznacza, że w przypadku nieprzerwanego zgłaszania żądania dostępu do zasobu przez proces, zostanie ono kiedyś obsłużone,

uczciwość mocna oznacza, że gdy proces zgłasza żądanie dostępu nieskończenie wiele razy, zostanie ono kiedyś obsłużone,

oczekiwanie liniowe oznacza, że jeśli proces zgłosi żądanie, zostanie ono obsłużone zanim dowolny inny proces zostanie obsłużony więcej niż jeden raz,

kolejka FIFO (ang. First In, First Out) oznacza, że jeśli proces zgłosi żądanie, zostanie ono obsłużone przed dowolnym innym żądanie zgłoszonym później.

Własność uczciwości - program współbieżny jest uczciwy (sprawiedliwy), jeśli podczas przydzielania zasobu dzielonego, w taki sam sposób traktuje wszystkie procesy. Własność ta jest szczególnym przykładem własności żywotności.

Page 12: Programowanie współbieżne i rozproszone

Poprawności programów współbieżnych

Przeplot. Aby wykazać, że program współbieżny nie jest poprawny, wystarczy

wskazać ciąg akcji poszczególnych procesów, które doprowadzają do stanu niepożądanego.

System scentralizowany i rozproszony

Programowanie współbieżne może dotyczyć systemów opartych na wspólnej pamięci (systemy scentralizowane), lub architektury wieloprocesorowej połączonej siecią komputerową (systemy rozproszone), gdzie każdy procesor dysponuje swoją pamięcią.

Page 13: Programowanie współbieżne i rozproszone

System scentralizowany

KANAŁ KOMUNIKACYJNYKANAŁ KOMUNIKACYJNY

PROCESOR PROCESOR PROCESORPROCESOR

WSPÓLNA PAMIĘĆWSPÓLNA PAMIĘĆ

Page 14: Programowanie współbieżne i rozproszone

System rozproszony

SIEĆ LOKALNASIEĆ LOKALNA

PROCESOR PROCESOR PROCESORPROCESOR

PAMIĘĆ PAMIĘĆ PAMIĘĆ PAMIĘĆ

Page 15: Programowanie współbieżne i rozproszone

Problem wzajemnego wykluczania

Zasób dzielony - wspólny obiekt, z którego może korzystać w sposób wyłączny wiele procesów.

Zasób własny - obiekt, z którego korzysta (do którego ma dostęp w dowolnym czasie) tylko jeden proces.

Sekcja krytyczna - fragment procesu (ciąg instrukcji), w którym proces korzysta z zasobu dzielonego.

Sekcja lokalna - fragment procesu (ciąg instrukcji), w którym proces korzysta z zasobu własnego.

Page 16: Programowanie współbieżne i rozproszone

Problem wzajemnego wykluczania polega na zsynchronizowaniu N procesów, z których każdy w nieskończonej pętli na przemian zajmuje się własnymi sprawami ( sekcja lokalna ) i wykonuje sekcję krytyczną , w taki sposób, aby wykonywanie sekcji krytycznych jakichkolwiek dwóch lub więcej procesów nie pokrywało się w czasie.

Rozwiązanie problemu sprowadza się do specyfikacji zbioru reguł (warunków) spełnienie, których jest konieczne do tego, aby dany proces mógł wykorzystać zasób dzielony (unikając zagłodzenia). Oznacza to, że należy dokonać specyfikacji i implementacji następujących protokołów: protokołu wstępnego i protokołu końcowego.

Page 17: Programowanie współbieżne i rozproszone

Process P1( ) Process P2( ) ......................... Process Pn()

{ while (TRUE) { while (TRUE) { while (TRUE )

{ sekcja_lokalna; { sekcja_lokalna; { sekcja_lokalna;

protokół_wstępny; protokół_wstępny; protokół_wstępny;

sekcja_krytyczna; sekcja_krytyczna;

sekcja_krytyczna;

protokół_końcowy; protokół_końcowy;

protokół_końcowy;

} } }

} } {

Page 18: Programowanie współbieżne i rozproszone

Schemat procesu

Sekcja lokalna

Protokół wstępny

Sekcja krytyczna

Protokół końcowy

Page 19: Programowanie współbieżne i rozproszone

Problem wzajemnego wykluczania

Dany jest zbiór N współbieżnych procesów cyklicznych, N = {P1, P2, ... , Pn}.

Każdy z procesów w nieskończonej pętli, na przemian, wykonuje pracę: na zasobie własnym i zasobie dzielonym lub tylko na zasobach dzielonych. Ograniczenie w pracy systemu polega na tym, że w tym samym czasie tylko zbiór m procesów (m ||M||, gdzie M jest podzbiorem zbioru N; M N oraz moc ||M|| jest równa pojemności zasobu dzielonego) może wykorzystywać zasób dzielony.

Page 20: Programowanie współbieżne i rozproszone

Warunki poprawnego rozwiązania problemu

wzajemnego wykluczania:

procesy muszą być traktowane jako równoważne, nie mogą mieć przypisanych im statycznych priorytetów (sprawiedliwe decyzje)

żaden proces nie może wykonywać swej sekcji krytycznej nieskończenie długo, nie może ulec awarii podczas wykonywania sekcji krytycznej). Taki sam warunek dotyczy protokołów wstępnego i końcowego

jeżeli więcej niż jeden proces chce wejść do sekcji krytycznej, to decyzja o tym, który proces zostanie wybrany musi być podjęta w skończonym czasie. Natomiast, jeżeli żaden z procesów nie wykonuje sekcji krytycznej, to przy zgłoszeniu się dowolnego procesu musi być mu umożliwione wejście do sekcji krytycznej

Page 21: Programowanie współbieżne i rozproszone

zachowanie się procesów poza sekcją krytyczną nie powinno być w żaden sposób ograniczone (luźne powiązanie procesów). Zatrzymanie się jakiegoś procesu w poza sekcją krytyczną nie może prowadzić do blokowania innych

procesów

Procesy mogą się wykonywać z różnymi prędkościami. W rozwiązaniu nie wolno czynić żadnych założeń dotyczących względnej szybkości procesów.

Żywotność globalna i lokalna programu - brak blokady i zagłodzenia.

Bezpieczeństwo programu.

Page 22: Programowanie współbieżne i rozproszone

Modele komunikacji między procesami:model pamięci współdzielonej - systemy scentralizowanychmodel przesyłania komunikatów - systemy rozproszone

W modelu pamięci współdzielonej rolę łącza komunikacyjnego pomiędzy procesami spełnia pamięć dzielona:

wymiana informacji poprzez zapisywanie i odczytywanie wartości zmiennej dzielonej udogodnienie sprzętowe - arbiter pamięci, zapewnia wyłączność odczytu lub zapisu informacji z danej komórki pamięci

W modelu przesyłania komunikatów rolę łącza spełnia kanał komunikacyjny:

wymiana informacji jest realizowana poprzez wysyłanie komunikatów – nadaj( komunikat ) i odbierz( komunikat ).

Page 23: Programowanie współbieżne i rozproszone

Problem wzajemnego wykluczanie w środowisku scentralizowanym poniższy algorytm nadaje się do wykorzystania na każdym komputerze niezależnie od zainstalowanego na nim systemu operacyjnego. Używa on wyłącznie instrukcji języka maszynowego udostępnionych przez komputer bez korzystania z mechanizmów wysokiego poziomu, takich jak semafory czy monitory.

Page 24: Programowanie współbieżne i rozproszone

Program 1  int czyja_kolej=1; proces_P1 ( ){while (1)

{ while (czyja_kolej =2); // aktywne oczekiwanie

sekcja_krytyczna_P1; czyja_kolej =1; // protokół końcowy sekcja_lokalna_P1; }}//////////////////////////////proces_P2 ( ){while (1)

{ while (czyja_kolej =1); // aktywne oczekiwanie

sekcja_krytyczna_P2; czyja_kolej =2; // protokół końcowy sekcja_lokalna_P2; }}

Page 25: Programowanie współbieżne i rozproszone

Własności programu

program jest bezpieczny,

brak zagłodzenia,

procesy nie są luźno powiązane, pozwolenie jest przekazywane wprost od procesu do procesu, stąd:

awaria procesu w sekcji lokalnej -> blokada systemu

procesy wykorzystują zasób naprzemiennie

Page 26: Programowanie współbieżne i rozproszone

Program 2  int k1=1, k2 =1; proces_P1 ( ){while (1)

{ while (k2 =0); // aktywne oczekiwanie

k1=0; sekcja_krytyczna_P1; k1=1; // protokół końcowy sekcja_lokalna_P1; }}//////////////////////////////proces_P2 ( ){while (1)

{ while (k1 =0); // aktywne oczekiwanie

k2=0; sekcja_krytyczna_P2; k2=1; // protokół końcowy sekcja_lokalna_P2; }}

Page 27: Programowanie współbieżne i rozproszone

Własności programu

program nie jest bezpieczny, brak zagłodzenia,

procesy są luźno powiązane, pozwolenie jest przekazywane bezpośrednio od procesu do procesu, stąd:

awaria procesu w sekcji lokalnej umożliwia realizacje drugiemu procesowi

procesy nie wykorzystują zasobu naprzemiennie

Page 28: Programowanie współbieżne i rozproszone

Program 3  int k1=1, k2 =1; proces_P1 ( ){while (1)

{ k1=0;

while (k2 =0); // aktywne oczekiwanie sekcja_krytyczna_P1; k1=1; // protokół końcowy sekcja_lokalna_P1; }}//////////////////////////////proces_P2 ( ){while (1)

{ k2=0; while (k1 =0); // aktywne oczekiwanie sekcja_krytyczna_P2; k2=1; // protokół końcowy sekcja_lokalna_P2; }}

Page 29: Programowanie współbieżne i rozproszone

Własności programu

    program jest bezpieczny,

  brak zagłodzenia,

możliwość wystąpienia blokady

Page 30: Programowanie współbieżne i rozproszone

Program 4  int k1=1, k2 =1; proces_P1 ( ){while (1)

{ k1=0;

while (k2 =0) { k1=1; delay(n); //czasowa rezygnacja z wejścia do sekcji //aby P2 mógł wejść k1=0 } sekcja_krytyczna_P1; k1=1; // protokół końcowy sekcja_lokalna_P1; }}

Page 31: Programowanie współbieżne i rozproszone

//////////////////////////////

proces_P2 ( )

{

while (1)

{

k2=0;

while (k1 =0)

{

k2=1;

delay(n); //czasowa rezygnacja z wejścia do sekcji

//aby P1 mógł wejść

k2=0

}

sekcja_krytyczna_P2;

k2=1; // protokół końcowy

sekcja_lokalna_P2;

}

}

Page 32: Programowanie współbieżne i rozproszone

Własności programu

program jest bezpieczny,

możliwość wystąpienia ciągłego zagłodzenia dwóch procesów, co prowadzi do

blokady

Rozwiązanie poprawne - algorytm Dekkera - rozwiązuje problem wzajemnego wykluczania dla dwóch procesów konkurujących ze sobą o dostęp do zasobu dzielonego przy użyciu trzech zmiennych.

Page 33: Programowanie współbieżne i rozproszone

Własności algorytmu Dekkera

własność bezpieczeństwa: wzajemnego wykluczania, nie występuje w nim blokada, żaden proces w nim nie zostanie zagłodzony przy braku współzawodnictwa proces może natychmiast wejść do swojej sekcji

krytycznej posiada możliwość zastosowania na każdym komputerze

WADA: wymaga on aktywnego oczekiwania, czyli pracy procesu w pętli w oczekiwaniu na zmianę lokacji w pamięci, co jest bardzo niepożądane ze względu na marnotrawstwo czasu procesora.

Page 34: Programowanie współbieżne i rozproszone

W algorytmie tym prawo do nalegania na wejście do sekcji krytycznej jest jawnie przekazywane między procesami za pomocą zmiennych K1 i K2. Zmienne te zapewniają już wzajemne wykluczanie, ale po wykryciu współzawodnictwa proces np. P1 sprawdza w dodatkowej zmiennej globalnej czyja_kolej , czy teraz jest jego kolej na wejście do sekcji krytycznej. Jeśli nie to przywraca początkową wartość zmiennej K1 ustępując w ten sposób procesowi P2 i przechodzi w pętlę oczekiwania na swoją kolej. Gdy P2 kończy swoją sekcję krytyczną zmienia zmienną czyja_kolej na 1, dopuszczając proces P1 do jego sekcji krytycznej. Nawet, gdy proces P2 natychmiast zgłosi swoje żądanie na ponowne wejście do sekcji krytycznej, zostanie on powstrzymany przez zmienną czyja_kolej, gdy tylko P1 ponownie zgłosi swoje żądanie. Jeżeli jednak proces P2 pierwszy opuści swoją sekcję lokalną przed procesem P1 (proces P1 jeszcze nie nalega na wejście do sekcji krytycznej, tzn. jest jeszcze w swojej sekcji lokalnej - nie wykonał jeszcze instrukcji K1=0;) może on wejść do swojej sekcji krytycznej, pomimo że nie była to jego kolej.

Page 35: Programowanie współbieżne i rozproszone

Wysokopoziomowe mechanizmy synchronizacji

Semafory

Semafor - abstrakcyjny typ danych zdefiniowany przez Dijkstrę.

Semafor s jest zmienną przyjmującą (w zależności od rodzaju) wartości całkowite

nieujemne lub wartości logiczne.

nadanie wartości początkowej zmiennej całkowitej (semaforowej),

podnoszenie semafora

opuszczanie semafora

Wszystkie operacje semafora są atomowe, co oznacza, iż nie mogą być

wykonywane w tym samym czasie przez więcej, niż jeden proces.

Page 36: Programowanie współbieżne i rozproszone

procesuwykonaniezawieśs

szmniejszssCzekaj

0

0)(

Oznaczenie operacji:

- Nadanie wartości początkowej(s) : sem s=1 //{0,1}

              - Czekaj(s) : wait (s), P(s)

              - Sygnalizuj(s) : signal(s), V(s)

 

Operacja Czekaj(s) (zwana również z ang. Wait(s)) określona jest następująco:

Znaczenie operacji “zmniejsz s” określone jest w zależności od rodzaju semafora.

Page 37: Programowanie współbieżne i rozproszone

Operacja Sygnalizuj(s): (Signal(s)):

jeżeli istnieją procesy zawieszone przez semafor (na skutek wykonania operacji Czekaj(s)), to wznów jeden z nich

w przeciwnym przypadku zwiększ wartość s.

Definicja nie określa, który proces zostanie wznowiony. Znaczenie operacji “zwiększ

s” określone jest w zależności od rodzaju semafora.

Page 38: Programowanie współbieżne i rozproszone

Ogólny schemat działania semafora

Istnieją procesy zawieszone

przez semafor

Wznów jeden z

zawieszonych

procesów

Wygeneruj błąd Zwiększ S

S po zwiększeniu przekraczałoby

maksymalną dopuszczalną

wartość

Page 39: Programowanie współbieżne i rozproszone

Semafor binarny

Przyjmuje tylko wartości logiczne: prawda oraz fałsz.

procesuwykonaniezawieśfałszs

fałszsprawdassCzekaj )(

Sygnalizuj(s): jeżeli istnieją procesy zawieszone przez semafor, to wznów jeden z nich, w

przeciwnym przypadku nadaj s wartość prawda

Page 40: Programowanie współbieżne i rozproszone

Semafor ogólny

Wartość początkowa jest liczbą nieujemną. Operacje elementarne przyjmują postać:

Sygnalizuj(S): jeżeli istnieją procesy zawieszone przez semafor, to wznów jeden z nich, w

przeciwnym przypadku zwiększ wartość s o jeden (s = s + 1)

Sposoby realizacji wznawiania procesów zawieszonych na semaforze.

procesuwykonaniezawieśs

ssssCzekaj

0

10)(

Page 41: Programowanie współbieżne i rozproszone

Semafory ze zbiorem oczekujących

Procesy zawieszone umieszczane są w zbiorze zawieszonych procesów. Wznowienie procesu nie określa, który z nich ma kontynuować działanie. Semafor tego typu łatwo może więc doprowadzić do zagłodzenia przy obecności co najmniej trzech procesów. Zaletą tego semafora jest prostota realizacji i nieznacznie większa szybkość w porównaniu z semaforem z kolejką oczekujących.

Semafory z kolejką oczekujących

Procesy zawieszone umieszczane są w kolejce FIFO. O kolejności wznawiania decyduje pozycja w tej kolejce – najpóźniej zawieszony proces zostaje wznowiony. Zaletą tego semafora jest brak możliwości zagłodzenia jakiegokolwiek procesu.

Zastosowanie semafora

Semafor znajduje zastosowanie do wzajemnego wykluczania procesów przy próbie wejścia do sekcji krytycznej, umożliwiając jej wykonanie w danym czasie tylko określonej (przez wartość początkową) liczbie procesów. Jest on również wykorzystywany w celu wymiany informacji między procesami.

Page 42: Programowanie współbieżne i rozproszone

Zasadę działania operacji semaforowych można przedstawić na rysunku:

Proces A Proces B

P(S) V(S)

S:=S-1S:=S-1

S=0 Ktoś czeka

Zasada działania operacji semaforowych

Page 43: Programowanie współbieżne i rozproszone

Strukturalne mechanizmy synchronizacji

Rejony krytyczne

Rejony krytyczne (ang. critical regions) zaproponowali niezależnie Hoare i Brinch Hansen. Stanowią one czyste przemodelowanie operacji semaforowych Dijkstry P i V w kierunku strukturalizacji.

Punktem wyjścia do ustalenia odpowiedniej notacji językowej było stworzenie instrukcji, którą obejmowałaby sekcję krytyczną, zapewniając dla niej wykluczenie wzajemne. Sekcja krytyczna najczęściej służy do wykonania operacji na pewnym zasobie, a mówiąc językiem „programowania" — na pewnej zmiennej określonego typu. Co więcej zazwyczaj jest niedopuszczalne operowanie na tym obiekcie poza sekcją krytyczną.

Page 44: Programowanie współbieżne i rozproszone

Struktura rejonu krytycznego

Obiekt typu T, na którym są wykonywane operacje wewnątrz sekcji krytycznej,

nazywamy zmienną dzieloną (ang. shared variable). Jej deklaracja w postaci

var v: shared T;

oznacza zadeklarowanie zmiennej v typu T, która może być używana wyłącznie w

określonych sekcjach krytycznych. Instrukcja strukturalna, tworząca sekcję

krytyczną dla instrukcji I1,...,IN związuje ją jednocześnie ze zmienną dzieloną v

region v do I1;...; IN end

Instrukcję tę nazywamy instrukcją rejonu krytycznego (lub krócej rejonem

krytycznym).

Page 45: Programowanie współbieżne i rozproszone

Założenia dotyczące rejonu krytycznego są określone trzema

warunkami:

(1) Wykonywanie instrukcji wewnątrz rejonów związanych z tą samą zmienną dzieloną w tym samym czasie przez dwa lub więcej procesów jest wykluczające się (inaczej mówiąc wewnątrz związanych ze sobą rejonów krytycznych może pracować co najwyżej jeden proces).

(2) Proces może przebywać wewnątrz rejonu krytycznego w skończonym czasie, czyli instrukcje operujące na zmiennej dzielonej muszą mieć możliwość kończenia się.

(3) Wejście do rejonu krytycznego musi być umożliwione dowolnemu procesowi w skończonym czasie.

Warto zauważyć, że powyższa notacja pozwala kompilatorowi języka, w którym zostałaby zastosowana, na sprawdzenie, czy odwołania do zmiennych dzielonych są dokonywane wyłącznie z instrukcji zawartych wewnątrz odpowiednich rejonów krytycznych.

Page 46: Programowanie współbieżne i rozproszone

Rejony krytyczne mogą być wewnątrz siebie zagłębiane na podobnych zasadach

jak instrukcje cyklu w większości języków programowania.

var z1, z2; shared resource;

procedure p;

begin

region z1 do

. . .

region z2 do

. . .

end; (*z2*)

end (*z1*)

end; (*p*)

Page 47: Programowanie współbieżne i rozproszone

Zastosowanie rejonów krytycznych

Przeznaczeniem rejonów krytycznych jest zapewnienie wykluczenia wzajemnego procesów, które korzystają z tego samego zasobu.

PRZYKŁAD Synchronizacja dostępu do zasobów Należy zsynchronizować dostęp N procesów współbieżnych do zasobu R.

var R: shared resource;procedure pp;begin

cycle przetwarzanie-A;

region R do request R; hold(t); release R end; przetwarzanie-B end end;

process ( 1..N) pp end.

Page 48: Programowanie współbieżne i rozproszone

PRZYKŁAD Producent—konsument

Dla uproszczenia przyjmiemy, że operowanie na buforze dla wszystkich procesów

producenta i konsumenta powinno odbywać się wewnątrz sekcji krytycznej.

   const N = MAX

var R shared record

buf: array [1..N] of buffer;

lp, lk: integer :=1,1

end;

pełny, pusty: semaphore :=0, N;

procedure producent;

begin

cycle

(* przygotowywanie wiadomości*)

hold(t1);

(*wysłanie wiadomości*)

P (pusty);

Page 49: Programowanie współbieżne i rozproszone

region R do fill buf [lp]; hold(t2); release buf [Ip]: lp := lp mod N+1 end; V (pełny) end end; (*producent*) procedure konsument; begin cycle

(* odebranie wiadomości*) P (pełny);region R do

quit buf [lk]; hold(t3); release buf [lk]; lk := lk mod N+1

end; V (pusty);

(*przetwarzanie *) hold(t4) end end; (*konsument*) process (1 .. P) producent; (1 .. K) konsument end.

Page 50: Programowanie współbieżne i rozproszone

Warunkowe rejony krytyczne

Niekompletność rejonów krytycznych, polegająca na braku prostej komunikacji między procesami, spowodowała rozwój prac nad ich uzupełnieniem o odpowiednie mechanizmy komunikacyjne. Pierwsze postulaty rozszerzeń zaproponował Hoare , natomiast szerokiego ich rozwinięcia i wzbogacenia o nowe elementy dokonał Brinch Hansen. Powstałe w ten sposób konstrukcje, jakkolwiek mające często różny zapis, otrzymały nazwę warunkowych rejonów krytycznych (ang. conditional critical regions).

Page 51: Programowanie współbieżne i rozproszone

Struktura warunkowych rejonów krytycznych

Ogólna postać warunkowego rejonu krytycznego dopuszcza wystąpienie między

instrukcjami umieszczonymi wewnątrz tego rejonu (dowolną liczbę razy i w dowolnych miejscach) instrukcji synchronizacji await

var R:shared T;

. . .

region R do

I1; I2;...; await W1;

. . .

Ii, Ii+1;...; await Wj;

. . .

IN-1; IN

end

Page 52: Programowanie współbieżne i rozproszone

Działanie instrukcji await, gdzie Wj jest wyrażeniem logicznym

(najczęściej zależnym od zmiennej R), polega na tym, że w czasie jej

wykonywania jest sprawdzany warunek Wj. Jeżeli jest on spełniony, to

proces przechodzi do wykonania następnej instrukcji, natomiast w

przypadku przeciwnym zostaje zawieszony do czasu spełnienia

warunku z jednoczesnym zwolnieniem dostępu do sekcji krytycznej.

Page 53: Programowanie współbieżne i rozproszone

Przyjmując zasadę, że rejony krytyczne powinny być krótkie, służyć sprawdzaniu i zmienianiu warunków, natomiast inne operacje (Jak np. wpisywanie do buforu) powinny odbywać się poza nimi (oczywiście jednak z zapewnieniem wszelkiej ochrony). Stosując się do tych postulatów przed operacjami związanymi z buforem, należy za pomocą warunkowego rejonu krytycznego sprawdzić, czy proces może wykonać dane operacje i czy nie ma żadnego innego procesu już je wykonującego. Po zakończeniu działania na buforze Procesy dokonują wewnątrz rejonu krytycznego zmiany odpowiednich warunków.

Page 54: Programowanie współbieżne i rozproszone

const N = MAX;var R: shared recordnp: integer := 0; (*liczba producentów*) nk: integer := 0; (*liczba konsumentów*) m: integer := 0; (*liczba porcji nieodebranych*) end;buf: array [1..N] of buffer;lp, lk: integer := 1,1;procedure producent; begin cycle

( * przygotowanie wiadomości *)hold(t1);

(*wysłanie wiadomości*) region R do await np = 0 and m < N; np := np +1 end;

Page 55: Programowanie współbieżne i rozproszone

fill buf [lp];

hold(t2); release buf[lp]; lp := lp mod N+1; region R do np := np -l; m := m+1 end end end; (*producent*) procedure konsument; begin cycle (* odebranie wiadomości*) region R do await nk = 0 and m > 0; nk:= nk+1 end;

Page 56: Programowanie współbieżne i rozproszone

quit buf[lk];

hold(t3);

release buf [lk];

lk:= lk mod N+1;

region R do

nk := nk— l;

m := m—1

end;

(* przetwarzanie *)

hold{t4)

end

end; (*konsument*)

process (1..P) producent;

(1..K) konsument

end.

Page 57: Programowanie współbieżne i rozproszone

PRZYKŁAD Czytający-piszący

W przykładzie podamy rozwiązanie drugiej wersji tego problemu. Opierać się ona będzie na sprawdzeniu relacji między liczbą procesów czytających, które wykonują operację czytania (lc) i liczbą procesów piszących, które chciałyby pisać (lp). Warto zauważyć, jak przez zmianę kolejności operacji wewnątrz rejonu krytycznego można pewnej grupie procesów zapewnić priorytet w stosunku do procesów drugiej grupy.

var R : shared record

lc, lp: integer := 0,0

end;

Z: resource;

W: shared boolean := true;

Page 58: Programowanie współbieżne i rozproszone

procedure czytanie;

begin

cycle

region R do

await lp = 0;

lc:=lc+1

end;

request Z;

(* czytanie*)

release Z;

region R do

lc:=lc-1

end

end

end; (*czytanie*)

Page 59: Programowanie współbieżne i rozproszone

procedure pisanie;begin cycle region R do lp:=lp+1; await lc = 0 end; region W do request Z; (*pisanie*) release Z end; region R do lp:=lp-1 end endend;( *pisanie*) process (1.. N) czytanie;

(1..M) pisanieend.

Łatwo zauważyć, że rejon krytyczny związany ze zmienną dzieloną W służy do wykluczenia między sobą procesów piszących w czasie pisania.

Page 60: Programowanie współbieżne i rozproszone

Implementacja warunkowych rejonów krytycznych

Warunkowe rejony krytyczne są naturalnym mechanizmem komunikacji między procesami, dostosowanym do potrzeb języków wysokiego poziomu. Pozwalają one na jawne przedstawienie faktu oczekiwania przez dany proces na spełnienie pewnego warunku dotyczącego zmiennej dzielonej. Ceną za niewątpliwe zalety tej metody synchronizacji są znaczne utrudnienia realizacyjne. Pierwszą propozycję implementacji warunkowych rejonów krytycznych podał Brinch Hansen . Proces wywołując instrukcję rejonu krytycznego w zależności od tego, czy sekcja objęta tym rejonem jest wolna czy nie, przechodzi do wykonania instrukcji rejonu lub jest zawieszany w kolejce wejściowej związanej z daną zmienną dzieloną (RYS). Wykonując instrukcję await przy niespełnionym warunku, proces opuszcza czasowo sekcję krytyczną i zostaje umieszczony w kolejce warunku QE, również związanej z daną zmienną dzieloną. W tym czasie inne procesy z kolejki QV mogą po kolei wchodzić do sekcji krytycznej, natomiast procesy z kolejki QE powinny okresowo sprawdzać, czy nie został spełniony warunek zawieszenia. W chwili, gdy sekcja krytyczna zostaje zwolniona, a obie kolejki są niepuste, występuje konflikt dwóch procesów, które powinny wejść do sekcji krytycznej. W takiej sytuacji musi być podjęta jednoznaczna decyzja i jednocześnie programista musi być jej świadomy. Propozycją Brinch Hansena jest, aby wyższy priorytet nadać procesom z kolejki warunku.

Page 61: Programowanie współbieżne i rozproszone

RYS. Schemat wykonywania rejonu krytycznego (a) i warunkowego rejonu krytycznego (b)

...

SEKCJA

KRYTYCZNA

a)

QV

...

SEKCJA

KRYTYCZNA

...

b)

QV

QE

await

Page 62: Programowanie współbieżne i rozproszone

Z powyższego schematycznego algorytmu implementacji widać od razu kolejną jego wadę. Przy każdorazowym zwolnieniu sekcji krytycznej należy sprawdzać, czy nie został spełniony warunek dla któregokolwiek z procesów oczekujących w kolejce warunku, chociaż do rejonu krytycznego będzie mógł wejść tylko jeden proces, a pozostałe ponownie zostaną zawieszone. Jest to oczywiście wysoce nieefektywne, zwłaszcza w przypadku, gdy wiele procesów może być zawieszonych w tym samym czasie.

Page 63: Programowanie współbieżne i rozproszone

PRZYKŁAD Implementacja warunkowych rejonów krytycznych Celem naszym jest pokazanie realizacji rejonów krytycznych w postaci:

var v: shared T;

. . .

region v do ... await W ... end;

W czasie translacji instrukcji rejonów krytycznych dokonywane jest ich przekształcenie w instrukcje języka sekwencyjnego, uzupełnione procedurami realizującymi algorytm działania rejonów. Przekształcenie to przedstawimy kolejno dla poszczególnych elementów struktury.

(1) Uzupełnienie deklaracji zmiennej dzielonej deklaracją:

var vv: record

v: T;

r: rejon

end;

gdzie pole r typu rejon jest przeznaczone dla potrzeb implementacji.

Page 64: Programowanie współbieżne i rozproszone

(2) Zastąpienie instrukcji wejścia do rejonu (region...) instrukcją:

with vv.v do wejscie(vv.r);

 

(3) Zastąpienie instrukcji await instrukcją: while not W do oczekiwanie(vv.r) end;

(4) Poprzedzenie instrukcji wyjścia z rejonu (end) instrukcją:

wyjście (vv.r) end (* zamyka instrukcję with vv ... *);

W pierwszej wersji implementacji procedur wykorzystamy znane już operacje kolejkach i procesach. Struktura danych typu rejon ma postać:

type rejon = record

stan: Boolean := false; (*dostępność rejonu*)

Qv, Qe: queue := nil, nil; (*kolejka wejściowa i warunku*)

lqe: integer := 0; (*licznik procesów zawieszonych w Qe*)

pr: proc

end;

Page 65: Programowanie współbieżne i rozproszone

Monitory

Monitor jest składnikiem programu, złożonym z deklaracji zmiennych wspólnych, dzielonych przez kooperujące ze sobą procesy, oraz ze zbioru wszystkich procedur działających na tych zmiennych. Zazwyczaj monitor deklaruje się jako zmienną specjalnego typu monitorowego. Schematyczna postać deklaracji monitora wygląda następująco:

var identyfikator-monitora: monitor deklaracje-zmiennych;

procedury; lista-udostępnionych-na-zewnątrz-nazw-procedur end.

Na zmiennych monitora mogą być wykonywane operacje wyłącznie w procedurach monitora, przy czym niektóre z tych ostatnich (lub wszystkie) mogą być wywołane ze środowiska zewnętrznego (np. z procesów lub innych monitorów). Wywołując procedurę monitora, należy podać jego identyfikator, nazwę procedury i listę jej parametrów aktualnych.

identyfikator-monitora.nazwa-procedury(parametry aktualne)

Page 66: Programowanie współbieżne i rozproszone

var M: monitorvar R: resource;

procedure A; begin . . . (* operacja A na zasobie R*) . . . end; (*A*)

procedure Z; begin . . . (* operacja Z na zasobie R*) . . . end;(*Z*)

export A,..., Z end;(*M*) . . . (*proces 1*) . . . M.A; . . . (*proces N*) . . .  M.Z; . . .

Page 67: Programowanie współbieżne i rozproszone

Z kolejką są związane jeszcze dwie pomocnicze operacje:

clear(kol) — procedura przywracająca pierwotny stan kolejki — pusty

(przy powstawaniu monitora kolejki są zawsze puste),

empty(kol) — funkcja sprawdzająca czy kolejka jest

pusta (wartość true), czy nie (wartość false).

Zastosowanie monitorów

PRZYKŁAD Producent-konsument

var bufor: monitor

const N = MAX;

var buf: array [1..N] of buffer;

pełny, pusty: queue;

lp, lk: integer := 1, 1;

m: integer := 0; (*liczba nieodebranych zapełnionych pól buforowych*)

Page 68: Programowanie współbieżne i rozproszone

procedure wpisz;begin

if m = N then delay (pełny) end;fill buf[lp]; hold(t2); release buf[lp]; lp := lp mod N+1; m := m+1; continue (pusty) end; (*wpisz*) procedure pobierz; begin

if m = 0 then delay (pusty) end;quit buf[lk];hold(t3);release buf [lk];lk := lk mod N+1;m := m—1;continue (pełny)

end; (*pobierz*)

Page 69: Programowanie współbieżne i rozproszone

export wpisz, pobierz end; (*bufor*) procedure producent;begin

cycle (* przygotowanie wiadomości*) hold(t1) (* wysłanie wiadomości*) bufor.wpisz end end; (*producent*)

procedure konsument begin

cycle (* odebranie wiadomości *) bufor. pobierz; (*przetwarzanie*) hold(t4) end end; (*konsument*) process (1 . .P) producent; (1 . .K) konsumentend.

Page 70: Programowanie współbieżne i rozproszone

Wyrażenia ścieżkowe

Wyrażenia ścieżkowe (ang. path expressions), będące koncepcyjnie odmiennym mechanizmem synchronizacji procesów współbieżnych, zostały wprowadzone przez Campbella i Habermanna. Zaproponowana przez nich metoda opisuje synchronizację na poziomie procedur. Oznacza to, że każda akcja, która ma podlegać synchronizacji, musi wystąpić w programie w postaci oddzielnej procedury.

Wzajemne powiązania między tymi procedurami są opisywane przy użyciu specjalnych operatorów, ustalając warunki, jakie muszą być spełnione, aby po wywołaniu dana procedura mogła być wykonana.

Zapis wyrażeń ścieżkowych

  Podstawowymi powiązaniami występującymi w wyrażeniach ścieżkowych są sekwencja i selekcja akcji (przez termin akcja będziemy w tym rozdziale rozumieli wykonanie przez proces procedury, które, zgodnie z uprzednią definicją pojęcia akcji, będzie traktowane jako czynność jednostkowa, niepodzielna).

Page 71: Programowanie współbieżne i rozproszone

Omówione podstawowe elementy wyrażeń ścieżkowych mogą być łączone, tworząc bardziej skomplikowane ścieżki. Na przykład ścieżka

p;(q, r);s

 

synchronizuje cztery akcje. Pierwszą z nich musi być wykonanie procedury p, następnie jednej z procedur q lub r , po czym kolejną akcją może być tylko wykonanie procedury s. A więc powyższa ścieżka określa dwie możliwe serie wykonań wymienionych procedur: p-q-s lub p-r-s (RYS.). W podanym przykładzie zostały  użyte dodatkowe nawiasy okrągłe; ich znaczenie jest takie samo, jak w wyrażeniach arytmetycznych. Pozwalają one na sprecyzowanie kolejności analizowania operatorów w ramach ścieżki (w pracy Campbella i Habermanna założono jednakowy priorytet wszystkich operatorów występujących w wyrażeniach ścieżkowych).

Page 72: Programowanie współbieżne i rozproszone

RYS. Graf pierwszeństwa dla ścieżki p; (q, r); s

q

p

r

s

Page 73: Programowanie współbieżne i rozproszone

Kolejnym elementem sterowania wykonaniem procedur jest ich równoczesność. Pozwala ona na równoległe wykonywanie danej procedury lub fragmentu wyrażenia ścieżkowego przez kilka procesów. Operatorami równoczesności są nawiasy kątowe <i> (oryginalnie zaproponowano nawiasy {i}, które jednak zazwyczaj nie występują wśród znaków w urządzeniach peryferyjnych). Przykładem zastosowania równoczesności może być ścieżka

<q; s>

Przykładem bardziej skomplikowanej ścieżki może być wyrażenie

path n,(p; <q ; s>) end

Page 74: Programowanie współbieżne i rozproszone

Zastosowanie wyrażeń ścieżkowych

Wyrażenia ścieżkowe są jasną i zwięzłą metodą opisu synchronizacji dla szerokiej klasy problemów. Zasady stosowania wyrażeń ścieżkowych pokażemy na podstawie kilku wersji przykładu współpracy procesów czytających i piszących.

PRZYKŁAD Czytający-piszący Najprostszą synchronizację obu grup procesów można przedstawić następująco:

var R: resource; procedure czytanie;

begin reguest R; (* czy tanie*) release R

end; (*czytanie*)

Page 75: Programowanie współbieżne i rozproszone

procedure pisanie;

begin

request R;

(*pisanie*)

release R

end; (*pisanie*)

procedure czyt;

begin

cycle

czytanie

end

end;(*czyt*)

Page 76: Programowanie współbieżne i rozproszone

procedure pisz;

begin

cycle

pisanie

end

end; (*pisz*)

path czytanie, pisanie end;

process (1..N) czyt;

(1..M) pisz

end.

Page 77: Programowanie współbieżne i rozproszone

Zastosowane wyrażenie ścieżkowe synchronizuje wykonywanie procedur czytanie i pisanie w taki sposób, że w każdej chwili może być realizowana tylko jedna z nich przez dokładnie jeden proces. Wyrażenie to nie określa również kolejności wykonywania obu tych procedur.

Wymiana użytej ścieżki przez

path <czytanie>, pisanie end;

powoduje, że procedura czytanie może być realizowana równocześnie przez kilka procesów. Jeżeli jakiś proces rozpoczął czytanie, to dostęp do tej procedury będzie natychmiastowy dla innych procesów tale długo jak długo procedura ta będzie wykonywana przez co najmniej jeden proces (priorytet czytania jest wyższy niż pisania).

Page 78: Programowanie współbieżne i rozproszone

W celu wyrównania priorytetów obu operacji czytania i pisania należy poprzednią ścieżkę zastąpić wyrażeniem

path <czytanie>, <pisanie> end;

path pisanie end

 

Pierwsza ścieżka zapewnia równość priorytetów obu operacji, natomiast druga wykluczenie wzajemne wykonania procedury pisanie. Analiza tego rozwiązania pokazuje, że jego wadą jest blokowanie dostępu do zasobu — jeżeli jakiś proces zacznie czytać (lub pisać), to ze względu na równoczesność przez pewien czas może być blokowany dostęp dla zapisu (odczytu).

Zlikwidowanie blokowania jest możliwe przez dodanie do poprzedniego rozwiązania procedury pustej zgłoszenie-czytania

procedure zgłoszenie-czytania,

begin end;

Page 79: Programowanie współbieżne i rozproszone

zmienienie procedury czyt;

procedure czyt;

begin

cycle

zgloszenie-czytania;

czytanie

end

end; (*czytanie*)

oraz wymianę wyrażenia ścieżkowego na

path zgłoszenie-czytania, pisanie end;

path <zgłoszenie-czytania; czytanie>, pisanie end;

 

 

Page 80: Programowanie współbieżne i rozproszone

Proces czytający musi obecnie wykonać sekwencję procedur zgłoszenie-czytania i czytanie. Pierwsza z nich jest procedurą pomocniczą, której jedyną funkcją jest zapewnienie pojedynczego przyjmowania żądań czytania lub pisania w czasie wykonywania tych operacji. Tak więc pierwsza ścieżka powoduje, że szanse startu operacji czytania i pisania są równe. Jeżeli została wykonana procedura zgłoszenie-czytania, to druga ścieżka powoduje, że pisanie będzie mogło być realizowane dopiero po wykonaniu procedury czytanie. Równoczesność w drugiej ścieżce pozwala na równoległe czytanie przez wiele procesów czytających pod warunkiem, że nie nadeszły żadne żądania zapisu informacji.

Page 81: Programowanie współbieżne i rozproszone

Powyższe rozwiązanie odpowiadało pierwszemu problemowi piszących i czytających. Rozwiązanie drugiego problemu, w którym procesy piszące mają wyższy priorytet, wymaga pewnej modyfikacji wyrażenia ścieżkowego do postaci

path zgłoszenie-czytania end;

path zgłoszenie-czytania, <pisanie> end;

path <zgłoszenie-czytania; czytanie>, pisanie end;

Page 82: Programowanie współbieżne i rozproszone

Mechanizmy komunikacji i synchronizacji w systemie Unix

Współbieżność procesów w systemie Unix

Unix jest systemem wielozadaniowym i wielodostępnym, co oznacza, że w jednym momencie z jednego komputera może korzystać wielu użytkowników, oraz że każdy użytkownik może uruchomić w danej chwili więcej niż jeden proces. Proces jest to środowisko wykonania programu, które składa się z segmentu instrukcji, segmentu danych użytkowych oraz segmentu danych systemowych, podczas gdy program jest to plik zawierający instrukcje i dane służące do inicjacji segmentu instrukcji oraz segmentu danych użytkowych procesu.

Pojęcie jednoczesnego (współbieżnego) wykonywania wielu procesów na maszynie jednoprocesorowej jest w znacznym stopniu umowne i oznacza ono podział czasu procesora pomiędzy wykonywane procesy.

Page 83: Programowanie współbieżne i rozproszone

Jednym z dobrodziejstw systemu operacyjnego Unix jest możliwość rozwidlania procesów. Rozwidlający proces zwany procesem macierzystym tworzy procesy potomne, podczas gdy każdy z procesów potomnych ma możliwość tworzenia następnych procesów. Pozwala to nam na współbieżne wykonywanie np. procedur obliczeniowych, co zwłaszcza przy maszynach wieloprocesorowych lub podziale obowiązków na kilka komputerów korzystnie może wpłynąć na czas trwania obliczeń.

Mówiąc o rozwidlaniu procesów nie można nie wspomnieć o metodach komunikacji i synchronizacji międzyprocesowej. O tym jak ważne jest to zagadnienie niech świadczy poniższy przykład. Niech zagadnieniem procesu P1 będzie odjęcie z zasobu dzielonego wartości 5 (student podejmuje pieniądze na książki z konta bankowego). W tym celu odczytuje aktualną wartość konta np. 5,00 , odejmuje od niej wartość 5 i otrzymaną różnicę (0,00) właśnie chce zapisać jako nowy stan kąta. Lecz w tym momencie proces P2 (dział ds. stypendiów naukowych ) przelewa na konto stypendium w wysokości 20. W tym celu odczytuje wartość 5,00 (ciągle jest tam niezmieniona wartość) i dodaje do niej 20. Cały przelew trwał „ułamek sekundy” , nowa wartość to 25,00. Proces P1 dokańcza operację zapisu nowej wartości (tej początkowej pomniejszonej o 5) i stan kąta wynosi 0,00. W wyniku tych operacji konto studenta posiada nieprawidłową wartość.

Page 84: Programowanie współbieżne i rozproszone

Jednak system operacyjny Unix dostarcza nam całą gamę przeróżnych mechanizmów komunikacji i synchronizacji międzyprocesowej. W systemach unixowych, które poprzedzały System III, procesy mogły komunikować się między sobą za pomocą dzielonych wskaźników do plików, sygnałów, śledzenia procesów, plików oraz łączy komunikacyjnych – potoków. W Systemie III zastosowano kolejki proste FIFO (łącza nazwane). W Systemie V pojawiły się semafory, komunikaty oraz pamięć dzielona, potem zdalne wywołanie procedur w systemie Unix BSD.

Dzielone wskaźniki do pliku są rzadko używane do komunikacji. Teoretycznie, jeden proces może ustawić wskaźnik do pliku (na pewne fikcyjne miejsce na pliku), a drugi może sprawdzić, co ten wskaźnik wskazuje. To miejsce w pliku stanowiłoby obszar komunikacji.

Sygnały są używane, gdy proces potrzebuje tylko dać znak innemu procesowi. Za ich pomocą nie można jednak przekazać tylu informacji, aby mogły być one przydatne w większości zastosowań. Wadą sygnałów jest to, że powoduje on przerwanie wykonywania procesu, do którego jest on skierowany. Sygnały służą głównie do kończenia wykonywania procesów.

Page 85: Programowanie współbieżne i rozproszone

Śledzenie procesów służy do kontrolowania przez proces swoich potomków. Proces macierzysty może czytać oraz pisać w obszarze danych swego potomka, co pozwala im na wspólną komunikację.

Pliki są najbardziej powszechną metodą komunikacji międzyprocesowej, nie są jednak odpowiednie dla procesów wykonywanych współbieżnie.

Mechanizm łączy komunikacyjnych skutecznie rozwiązuje problemy synchronizacji między procesami. Pomimo, że łącze, podobnie jak plik, ma swój i-ty węzeł to dowiązania do niego nie istnieją. Jeżeli proces czytający wyprzedzi proces piszący, to musi on czekać na następne dane. Jeżeli proces piszący wyprzedzi proces czytający, to zostanie on wstrzymany, aż dogoniony zostanie przez proces czytający.

Kolejka FIFO jest plikiem specjalnym, który może zostać otwarty do czytania lub pisania przez każdy proces mający odpowiednie uprawnienia. Zagwarantowana jest również niepodzielność wykonywanych operacji. Bajty danych zapisywane lub odczytywane podczas jednego wywołania funkcji systemowej tworzą zawsze spójny blok.

Komunikat jest to niewielka liczba danych, którą można przesłać do kolejki komunikatów. Komunikaty mogą być różnych typów. Proces mający odpowiednie uprawnienia, może pobierać komunikaty z kolejki.

Page 86: Programowanie współbieżne i rozproszone

Przy rozwiązywaniu problemów programowania współbieżnego w tej pracy

wykorzystane zostały następujące mechanizmy:

- mechanizmy IPC Systemu V :

- semafory,

- pamięć dzielona,

- zdalne wywołanie procedur (RPC- Remote Procedurę Cali, wersja Sun RPC).

Aby rozwidlić proces w systemie Unix należy w kodzie programu

wywołać funkcję

int fork()

Page 87: Programowanie współbieżne i rozproszone

Funkcja fork() tworzy kopię procesu, który tę funkcję wywołał. Proces wywołujący funkcję fork() nazywa się procesem macierzystym lub przodkiem (rodzicem) nowego procesu, nowy zaś proces - procesem potomnym lub potomkiem (dzieckiem). Funkcja systemowa fork() wywołana raz (przez proces macierzysty) przekazuje wartość dwukrotnie (przodkowi i potomkowi). Te wartości różnią się tym, że w przypadku procesu macierzystego jest to numer identyfikacyjny nowo utworzonego procesu potomnego, a wartością przekazywaną procesowi potomnemu jest zero. Gdy funkcji for k () nie uda się wykonać pomyślnie, wówczas jej wynikiem jest -1. Jeśli proces potomny chce uzyskać numer identyfikacyjny swojego przodka, to może wywołać funkcję systemową getppid () .

Page 88: Programowanie współbieżne i rozproszone

Przykład: main ()

{ int pid_potomka; if ((pid_potomka=fork())==-1)perror(„Błąd fork" ) ; else if(pid_potomka==0) / /proces potomny printf(„Potomek: pid potomka=%d, pid przodka=%d\n",getpid(), getppid()); else / /proces macierzysty printf(„Przodek:pid potomka=%d, pid przodka=%d\n",pid potomka, getpid());

Page 89: Programowanie współbieżne i rozproszone

Aby zakończyć wykonywanie procesu należy wywołać funkcję

systemową exit()

void exit (int stan)

Argument stan jest wartością stanu końcowego procesu wywołującego funkcję exit().

Powrót z tej funkcji nigdy nie następuje. Przyjmuje się, że zerowy stan oznacza poprawne zakończenie procesu, niezerowy zaś (najczęściej -1) oznacza wystąpienie błędu.

Proces macierzysty procesu kończącego działanie otrzymuje jego kod

stanu przy pomocy funkcji systemowej wait().

int wait(int *stan)

Page 90: Programowanie współbieżne i rozproszone

Argument *stan jest miejscem, pod które wstawiony zostanie kod wyjścia procesu potomnego (argument funkcji exit () ). Funkcja zwraca identyfikator procesu lub -1 w przypadku błędu.

Jeżeli istnieją procesy potomne, to funkcja systemowa wait() czeka na zakończenie jednego z nich. Nie można zlecić czekania na określony proces potomny. Potomek, który pierwszy zakończy działanie, powoduje „odwieszenie" rodzica, który wywołał wait().Jeśli wskaźnik stan ma wartość NULL, stan zakończenia procesu potomnego nie jest nigdzie zapamiętany.

Semafory

W systemie UNIX operacje semaforowe (chociaż w dalszym ciągu najważniejsze to nadanie wartości początkowej, zwiększenie i zmniejszenie) nie wyglądają już tak prosto.

Operacji P(S) (opuszczenie) odpowiada wywołanie funkcji semop() z następującymi argumentami:

struct sembuf sem_lock={0,-1,0};

semop(sid,&sem_lock,1);

Page 91: Programowanie współbieżne i rozproszone

Aby używać semaforów w programach pisanych w języku C należy do ich treści dołączyć za pomocą dyrektywy #include następujące pliki:

#include <sys/types.h> #include <sys/ipc.h> #include <sys/sem.h>

Oto funkcja zablokuj() odpowiadająca operacji P(S). Argument sid jest numerem identyfikacyjnym zestawu semaforów zwróconym przez funkcję semget(), zaś numer_semafora jest kolejnym numerem semafora w zestawie licząc od zera.

Page 92: Programowanie współbieżne i rozproszone

void zablokuj (int sid, int numer_semafora){

int wartosc;struct sembuf sem_lock={numer_semafora,-1,0};wartosc=semctl(sid,numer_semafora,GETVAL,0);if(!wartosc)

{fprintf(stderr,"PID:%d-Proces wstrzymany na semaforze !\n",getpid());

fflush(stdout); }

i f ( ( semop (sid, &sem_lock, 1) ) ==-1) {

fprintf (stderr, "PID: %d-Blokowanie nie powiodlo sie!\n", getpid ()); f flush (stdout) ;

exit (EXIT_FAILURE) ; }

elseprintf ( "PID : %d-Semafor opuszczony do wartosci %d\n", getpid ( ) , wartosc) ;}

Page 93: Programowanie współbieżne i rozproszone

Wywołanie wartosc=semctl (sid,numer_semafora,GETVAL, 0) nadaje zmiennej wartość aktualną wartość semafora o numerze podanym jako drugi argument.

Natomiast operacji V(S) - podniesienie ,odpowiada wywołanie funkcji semop() z następującymi argumentami:

struct sembuf sem_lock={0,1,0};

semop(sid,&sem lock,1);

Oto funkcja odblokuj() odpowiadająca operacji V(S).

Page 94: Programowanie współbieżne i rozproszone

void odblokuj (int sid, int numer_semafora) {

struct sembuf sem_unlock={numer_semafora,1,0};int wartosc;

i f ( (semop (sid, &sem_unlock, 1) ) ==-1){

fprintf (stderr, "PID: %d-0dblokowanie nie powiodlo sie! \n",getpid() ) ; fflush (stdout) ; exit (EXIT_FAILURE) ; } else}

wartosc=getval (sid, numer_semafora) ; printf ( "PID: %d-Semafor opuszczony do wartosci %d\n", getpid(), wartosc ); }

}

Page 95: Programowanie współbieżne i rozproszone

System UNIX daje nam możliwość wykonywania jednoczesnych operacji semaforowych, przy czym każda z nich może być inna. Wykonanie operacji jednoczesnej wtedy kończy się sukcesem, gdy zostaną wykonane wszystkie jej operacje składowe.

Poniższy kod wykonuje zablokowanie semafora o numerze SEMAFOR_PELNE (element sem_num struktury sembuf ustawiony na -1) z jednoczesnym odblokowaniem semafora o numerze SEMAFOR_CK (element ten ustawiony na 1) z zestawu semaforów identyfikowanego przez zmienną sid (wartość zwrócona przez semget()). Operacja ta będzie blokująca, tzn. w przypadku zajętych zasobów proces będzie tak długo czekał z wywołaniem funkcji semop() dopóki jakiś inny proces ich nie zwolni (element sem_flg struktury sembuf nie jest ustawiony na IPC_NOWAIT).

Page 96: Programowanie współbieżne i rozproszone

struct sembuf sops[2];

sops[0].sem_num=SEMAFOR_PELNE;

sops[0].sem_op=-1;

sops[0].sem_flg=0;

sops[1].sem_num=SEMAFOR_CK;

sops[1].sem_op=1;

sops[1].sem_flg=0;

if((semop(sid,sops,2)==-1) {

fprintf(stderr,"PID:%d-Blokowanie nie powiodlo sie!\n",getpid());

exit(EXIT_FAILURE);

}

Page 97: Programowanie współbieżne i rozproszone

Funkcje systemowe Unixa dotyczące semaforów:

1.

key_t ftok (char *ścieżka, char projekt)

Funkcja ftok () przekształca nazwę ścieżki i identyfikator projektu na klucz, używany w komunikacji międzyprocesowej. Klucze służą do identyfikowania kolejek komunikatów, semaforów i pamięci dzielonej. Typ danych key_t znajduje się w pliku <sys/types . h> .

Procesy, które korzystają z jednej lub kilku metod komunikacji międzyprocesowej powinny mieć uzgodnioną nazwę ścieżki oraz identyfikator projektu aby mieć pewność, że procesy korzystają z tego samego kanału komunikacyjnego /tego samego zestawu semaforów /tego samego obszaru pamięci dzielonej.

Funkcja zwraca nową wartość klucza na podstawie kombinacji numeru i-węzła i podrzędnego numeru urządzenia z pliku podanego w argumencie ścieżka wraz z identyfikatorem projektu podanym jako drugi argument, lub -1 w przypadku błędu. Może to nastąpić np. gdy nazwa ścieżki określona argumentem ścieżka nie istnieje, lub gdy nie jest dostępna dla procesu wywołującego funkcję ftok () .

Page 98: Programowanie współbieżne i rozproszone

Przykład:

key_t klucz; klucz=ftok(".",'S')

printf("Wartość klucza wygenerowanego przy pomocy ftok() :%x\n" ,klucz);

Efekt działania programu:

[root@localhost /root]# Wartość klucza wygenerowanego przy pomocy ftok():53454d55

2.

int semget(key_t klucz, int nsems, int semflg)

Wywołanie systemowe semget () tworzy nowy zestaw semaforów lub

uzyskuje dostęp do już istniejącego. Zwraca identyfikator IPC zestawu semaforów

przy pomyślnym wykonaniu lub -1 w przypadku błędu.

Argument klucz jest wartością zwróconą przez funkcję f tok () .

Argument nsems określa liczbę semaforów ,które zostaną utworzone dla nowego

zestawu. W przypadku otwarcia już istniejącego zestawu semaforów argument ten

jest ignorowany, możemy nadać temu argumentowi wartość 0.

Page 99: Programowanie współbieżne i rozproszone

Argument semflg mówi o tym, czy ma być utworzony nowy zestaw, czy też będzie używany już istniejący.

Gdy semflg jest równe:

IPC_CREAT - zostanie utworzony nowy zestaw semaforów jeżeli do tej pory nie istniał. Semget () zwraca identyfikator zestawu, który został utworzony lub identyfikator już istniejącego, który posiada podaną wartość klucza. IPC_CREAT|IPC_EXCL - zostanie utworzony nowy zestaw semaforów lub semget () zwróci błąd. Gwarantuje to, że nie będzie używany już istniejący zestaw.

Przykład:

semid=semget(klucz,l,0666|IPC_CREAT|IPC_EXCL)

Wynikiem takiego wywołania będzie nadanie zmiennej semid numeru identyfikacyjnego nowoutworzonego zestawu semaforów złożonego z jednego semafora (drugi argument funkcji) lub -1 w przypadku, gdy zestaw semaforów o wartości klucza równej parametrowi klucz już istnieje. Nowoutworzony zestaw będzie posiadał prawa czytania i pisania dla właściciela, grupy oraz innych użytkowników (prawa 0666).

Page 100: Programowanie współbieżne i rozproszone

3.

int semop(int semid, struct sembuf *sops, unsigned nsops)

Wywołanie systemowe semop () umożliwia wykonywanie operacji na semaforach, zwraca 0 gdy sukces, -1 w przeciwnym wypadku.

Argument semid jest numerem identyfikacyjnym zestawu semaforów zwróconym przez semget().

Argument sops jest wskaźnikiem do tablicy operacji, które mają zostać przeprowadzone na grupie semaforów. Wskazuje to na tablicę następujących struktur zdefiniowanych w <sys/sem.h>:

struct sembuf

{

ushort sem_num; //numer semafora

short sem_op; //operacja (dodatnia, ujemna lub zero) short sem_flg; //flagi operacji

}

Page 101: Programowanie współbieżne i rozproszone

Gdy sem_op jest ujemny jego wartość zostaje odjęta od wartości semafora. Odpowiada to zajęciu (zablokowaniu) zasobów. Jeżeli nie ustawiono semjlg na IPC_NOWAIT proces wywołujący funkcję semop() śpi do czasu aż wymagana liczba będzie dostępna.

Gdy sem__op jest dodatni jego wartość jest dodawana do semafora. Odpowiada to zwolnieniu (odblokowaniu) zasobów.

Gdy sem_op jest równy zero to proces wywołujący funkcję semop() będzie czekał, aż wartością semafora będzie zero.

Argument nsops jest liczbą operacji w tablicy (liczba elementów tablicy struktur).

Page 102: Programowanie współbieżne i rozproszone

Przykład:

void locksem(int sid)

{

struct sembuf sem_lock={0,-1, 0 };

if((semop(sid,&sem_lock,1))==-!)

{

fprintf(stderr,"PID:%d-Blokowanie semafora nie powiodło sie!\n", getpid());

fflush(stdout);

exit(EXIT FAILURE);

}

}

Funkcja ta powoduje opuszczenie (zablokowanie) semafora o numerze 0 z zestawu identyfikowanego przez sid (parametr zwrócony przez funkcję semget ())

4.

int semctl(int semid, int semnum, int cmd, imion semun arg)

Page 103: Programowanie współbieżne i rozproszone

Wywołanie systemowe semctl() używane jest do kontrolowania zestawu semaforów, zwraca 0 gdy sukces, -1 w przeciwnym wypadku.Argument semid jest numerem identyfikacyjnym zestawu semaforów zwróconym przez semget().Argument semnum jest numerem semafora w zestawie (liczonym od zera). Argument cmd jest komendą, która ma zostać wykonana:

IPC_STAT - pobiera strukturę semid_ds i zachowuje ją pod adresem buf argumentu semun.

IPC_SET - ustawia wartość ipc_perm struktury semid_ds. Wartość pobiera z buf unii semun.

IPC_RMID - usuwa zestaw z jądra.GETALL - Używany do pobierania wartości wszystkich semaforów z zestawu.

Wartości całkowite przechowywane są w tablicy unsigned short int wskazanej przez array - członka unii semun.

Page 104: Programowanie współbieżne i rozproszone

GETNCNT - zwraca ilość procesów oczekujących na zasoby.

GETPID - zwraca PID procesu, który jako ostatni wywołał semop().

GETYAL - zwraca wartość pojedynczego semafora z zestawu.

SETALL - ustawia wartości wszystkich semaforów wartościami z tablicy array zawartej w unii semun.

SETY AL - ustawia wartość jednego semafora z zestawu. Wartość pobiera z val zawartego w unii semun.

Argument arg jest elementem typu semun.Typ ten jest unią zadeklarowaną w <sys/sem.h>

union semun {

int val; /* wartość dla SETVAL */struct semid_ds *buf; /* bufor dla IPC_STAT i IPC_SET */unsigned short int *array; /* tablica dla GETALL i SETALL */struct seminfo * _buf; /* bufor dla IPC INFO */

}

Page 105: Programowanie współbieżne i rozproszone

Przykład:semval = semctl(sid,0,GETVAL, 0) ;

Funkcja zwróci wartość semafora o numerze 0 z zestawu identyfikowanego przez sid (parametr zwrócony przez funkcję semget () ).

union semun unia_sem;

if (semctl(semid, 0,IPC_RMID,unia_sem)==-1)

fprintf(stderr, "Nie udało sie usunac semafora\n");

else

printf("Semafor został usuniety\n");

Funkcja semctl () w tym przypadku usunie zestaw semaforów identyfikowany przez semid (parametr zwrócony przez funkcję semget()), złożony z jednego semafora ( drugi argument).

Page 106: Programowanie współbieżne i rozproszone

Dla każdego zestawu semaforów w systemie przydzielona jest jedna struktura semid_ds.

struct semid_ds {

struct ipc_perm sem_perm;

time_t sem_otime;

time_t sem_ctime;

struct sem *sem_base;

struct wait_queue *eventn;

struct wait_queue *eventz;

struct sem_undo *undo;

ushort sem nsems;

};

Najważniejsze z elementów struktury to:

sem_perm -jest to struktura typu ipc_perm, który jest zdefiniowany w sys/ipc . h.

Przechowuje prawa dostępu, oraz informacje o twórcy i właścicielu zestawu;

sem_otime - czas ostatniej operacji semop ();

sem_ctime - czas ostatniej zmiany struktury. Np. zmiana praw;

sem nsems - liczba semaforów w zestawie.

Page 107: Programowanie współbieżne i rozproszone

Aby pobrać strukturę semid_ds należy wywołać funkcję semctl() z parametrem IPC_STAT:

union semun semopts;

struct semid_ds moja_ds;

semopts.buf=&moja_ds; //pobranie aktualnej wartości struktury

semctl(sid,0,IPC_STAT,semopts);

printf(„Stare prawa dostępu :%o\n", semopts.guf->sem_perm.mode);

Aby zapisać zmiany w strukturze należy wywołać funkcję semctl() z parametrem IPC_SET:

sscanf(nowe_prawa,"%ho",&semopts.buf->sem_perm.mode); semctl(sid,O,IPC SET,semopts);

Page 108: Programowanie współbieżne i rozproszone

Pamięć dzielona.

Pamięć dzielona jest najszybszym z mechanizmów IPC, ponieważ nie istnieje żaden pośrednik. Dane w niej umieszczone przez proces piszący stają się natychmiast dostępne dla innych procesów. Pamięć dzielona pozwala na dostęp do tej samej, logicznej pamięci kilku nie spokrewnionym procesom. Jest bardzo wydajną metodą przekazywania danych.

Pamięć dzielona jest specjalnym zakresem adresów, tworzonych prze IPC na użytek jednego procesu i pojawiającym się w jego przestrzeni adresowej. Inne procesy mogą następnie dołączyć segment pamięci dzielonej do swojej przestrzeni adresowej. Segment pamięci dzielonej może zostać utworzony przez jeden proces, a korzystać z niego może dowolna liczba procesów. Wszystkie procesy mogą używać pamięci dzielonej tak samo, jakby została ona przydzielona funkcją malloc(). Dokonanie zapisu do pamięci dzielonej prze jeden z procesów spowoduje, że będą one widoczne również dla innych procesów mających do niej dostęp. Może istnieć kilka segmentów pamięci dzielonej, z których każdy jest dzielony przez określony podzbiór aktywnych procesów. Każdy proces może mieć dostęp do kilku segmentów pamięci dzielonej.

Page 109: Programowanie współbieżne i rozproszone

Pamięć dzielona nie udostępnia żadnych mechanizmów synchronizacji procesów. Nie ma możliwości, aby automatycznie zapobiegać odczytywaniu pamięci przez jeden proces, zanim inny nie zakończy jej zapisywać. W tym celu należy samemu zapobiec takiej sytuacji, np. tak jak to zostało zrobione w tej pracy, używając semaforów.

Funkcje systemowe Unixa dotyczące pamięci dzielonej.

1.

int shmget(key t klucz, int size, int shmflg)

Wywołanie systemowe shmget () tworzy nowy segment pamięci dzielonej lub uzyskuje dostęp do już istniejącego. Zwraca identyfikator IPC segmentu pamięci przy pomyślnym wykonaniu lub -1 w przypadku błędu.

Argument klucz jest wartością zwróconą przez funkcję f tok () .

Argument size określa rozmiar nowotworzonego obszaru pamięci dzielonej.

Argument shmflg mówi o tym, czy ma być utworzony nowy segment, czy też będzie używany już istniejący.

Page 110: Programowanie współbieżne i rozproszone

Gdy shmflg jest równe:

IPC CREAT - zostanie utworzony nowy segment pamięci dzielonej jeżeli do tej pory nie istniał. Shmget () zwraca identyfikator segmentu, który został utworzony lub identyfikator już istniejącego, który posiada podaną wartość klucza.

IPC_CREAT|IPC_EXCL - zostanie utworzony nowy segment pamięci lub shmget () zwróci błąd. Gwarantuje to, że nie będzie używany już istniejący obszar.

Przykład:

shmid=shmget(klucz,100,0666 IPC CREAT IPC EXCL)

Wynikiem takiego wywołania będzie nadanie zmiennej shmid numeru identyfikacyjnego nowoutworzonego obszaru pamięci dzielonej o wielkości 100 bajtów (drugi argument funkcji) lub -l w przypadku, gdy obszar pamięci o wartości klucza równej parametrowi klucz już istnieje. Nowoutworzony segment będzie posiadał prawa czytania i pisania dla właściciela, grupy oraz innych użytkowników (prawa 0666).

Page 111: Programowanie współbieżne i rozproszone

2.

int shmat(int shmid, char *shmaddr, int shmflg)

Wywołanie systemowe shmat () służy do podłączenia (mapowania) segmentu pamięci dzielonej w obszar adresowy. Shmat () zwraca adres pod którym segment został przyłączony do procesu lub -1 w przypadku błędu.

Argument shmid jest numerem identyfikacyjnym segmentu pamięci dzielonej zwróconym przez shmget () .

Argument shmadrr powinien być ustawiony na 0. W takim przypadku jądro wybiera adres dla procesu wywołującego. W innym przypadku musimy zrobić to sami. Jeżeli nie chcemy wymuszać stronicowego wyrównania adresu (zaokrąglenia w dół do najbliższego rozmiaru strony) ani nie chcemy aby segment został wmapowany jako "tylko_do_odczytu" (SHM_RDONLY) argument shmflg ustawiamy na zero.

Page 112: Programowanie współbieżne i rozproszone

Przykład:if((segptr=shmat(shmid,0,0))==-1)

{

perror(”shmat”);

return(1);

}

3.

int shmctl(int shmid, int cmd, struct shmid ds *buf)

Wywołanie systemowe shmctl () używane jest do kontrolowania segmentu pamięci dzielonej, zwraca 0 gdy sukces, -l w przeciwnym wypadku. Argument shmid jest numerem identyfikacyjnym obszaru pamięci zwróconym przez shmget(). Argument cmd jest komendą, która ma zostać wykonana:

IPC_STAT - pobiera strukturę shmid_ds i zachowuje ją pod adresem buf.

Page 113: Programowanie współbieżne i rozproszone

IPC_SET - ustawia wartość ipc_perm struktury shmid_ds. Wartość pobiera z

argumentu buf.

IPC_RMID - zaznacza segment do usunięcia.

Argument buf jest wskaźnikiem do elementu typu shmid_ds. Typ ten jest strukturą

zadeklarowaną w <sys/shm.h>

Podanie komendy IPC_RMID nie usuwa segmentu, lecz go tylko zaznacza do

usunięcia. Ostateczne usunięcie segmentu następuje po odłączeniu segmentu

przez ostatni proces. Przykład:

Aby zaznaczyć do usunięcia segment należy wywołać funkcję shmctl() z

parametrem IPC_RMID

shmctl(shmid,IPC_RMID,0);

Page 114: Programowanie współbieżne i rozproszone

Aby pobrać strukturę semid_ds należy wywołać funkcję shmctl () z parametrem IPC STAT:

char *prawa;

struct shmid_ds struktura_ds;

shmctl(shmid,IPC_STAT,&struktura_ds);

printf("Stare prawa dostępu: %o\n" , struktura__ds . shm_perm.mode) ;

Aby zapisać zmiany w strukturze należy wywołać funkcję shmctl() z parametrem IPC_SET:

printf("Podaj nowe prawa :");

scanf("%o",prawa);

struktura__ds . shm_perm.mode=*prawa; if((shmctl(shmid,IPC_SET,&struktura_ds))==-1)

printf("Błąd shmctl\n"};

else

printf("Zaktualizowano prawa dostępu..\n",struktura ds.shm perm.mode ) ;

Page 115: Programowanie współbieżne i rozproszone

4.

int shmdt(char *shmaddr)

Wywołanie systemowe shmdt () odłącza segment pamięci dzielonej, zwraca 0 gdy sukces, -1 w przeciwnym wypadku.

Argument shmaddr jest wskaźnikiem do obszaru pamięci dzielonej (wartość zwrócona przez shmat () ).

Aby zobaczyć aktualnie istniejące mechanizmy IPC należy z linii komend wydać polecenie ipcs. Uzyskamy w ten sposób informacje na temat istniejącego klucza, numeru identyfikacyjnego utworzonych mechanizmów IPC, właściciela mechanizmu, prawach dostępu do niego, liczby bajtów segmentu oraz liczby procesów z niego korzystających w przypadku pamięci dzielonej, liczby semaforów w zestawie.

Page 116: Programowanie współbieżne i rozproszone

Przykładowy wynik wykonania polecenia ipcs na ekranie terminala:

—— Shared Memory Segments ———

key shmid owner perms bytes nattch status

0x53454d55 1 root 666 50 0

—— Semaphore Arrays ——

key semid owner perms nsems status

0x53454d550 root 666 6

—— Message Queues ———

key msqid owner perms used-bytes messages

Page 117: Programowanie współbieżne i rozproszone

Rozwiązywanie problemów wzajemnego wykluczania za pomocą semaforów

Dzięki semaforom w prosty sposób można zrealizować wzajemne wykluczanie. Wystarczy do tego jeden semafor binarny.

binarny_semafor S=1; // wartość początkowa semafora ustawiona na 1process P{

while (TRUE){

sekcja_lokalna;P(S); // opuszczenie ( zablokowanie )

semaforasekcja_krytyczna; // korzystanie z zasobu dzielonegoV(S); // podniesienie

( odblokowanie ) semafora}

Page 118: Programowanie współbieżne i rozproszone

Ponieważ wartość początkowa semafora jest równa 1 tylko jeden proces będzie mógł wykonać P(S) natychmiast. Pozostałe procesy będą musiały poczekać, aż proces ten wykona operację V(S), inaczej mówiąc pozostałe procesy będą wstrzymane na semaforze S.

Page 119: Programowanie współbieżne i rozproszone

Wzajemne wykluczanieFunkcja proces(czas_kryt, czas_lok) Początkowa wartość

semafora:SEMAFOR_WW=1;

Protokół wstępny

Zablokuj(SEMAFOR_WW)

Wyświetl(znak)

Czekaj(czas_kryt)

Wyświetl(znak)

odblokuj(SEMAFOR_WW)

Czekaj(czas_lok)

Sekcja krytyczna

Protokół końcowy

Sekcja lokalna

Page 120: Programowanie współbieżne i rozproszone

Rozwiązywanie problemu wzajemnego wykluczania z tablicą czasów trwania sekcji za pomocą semaforów

Aby do rozwiązania problemu wzajemnego wykluczania za pomocą semaforów wprowadzić możliwość podawania z klawiatury czasów przebywania procesów w ich sekcji lokalnej i krytycznej, należało te procesy w jednoznaczny sposób zidentyfikować.

Każdy proces w systemie Unix otrzymuje od niego numer nazywany numerem identyfikacyjnym procesu (PID). Daje to programiście możliwość kontroli nad rozwidlonymi procesami. Aby uruchomić funkcję proces() z parametrami czas_krytyczny i czas_lokalny należało najpierw (po rozwidleniu procesu macierzystego na liczbę procesów podanych przez użytkownika) gdzieś zapisać PID-y każdego z procesów. Posłużyła do tego pamięć dzielona. Przez ograniczenie liczby procesów do 10 otrzymano rozmiar pamięci dzielonej 10*sizeof(int) .

Page 121: Programowanie współbieżne i rozproszone

Numery procesów zostały zapisane w kolejności zgłoszenia się. Do zapewnienia wzajemnego wykluczania procesów chcących zapisać swój PID do obszaru pamięci dzielonej należało zastosować tradycyjnie jeden semafor (w programie został on nazwany SEMAFOR_CZASY ). Do indeksacji miejsca wstawiania PIDu użyto także semafora ( SEMAFOR_INDEX ). (patrz rys. Funkcja zapisz_pid( ) ) Następnie każdemu z procesów przyporządkowany został zestaw danych składający się z dwóch liczb zmiennopozycyjnych odpowiadających kolejno czasowi przebywania procesu w sekcji krytycznej i w sekcji lokalnej. Mając już zestaw potrzebnych parametrów uruchomiono funkcję proces(czas_kryt, czas_lok) (patrz rys. Funkcja proces(czas_kryt, czas_lok) ).

Page 122: Programowanie współbieżne i rozproszone

‘p’

‘u’

START

Generowanie kluczaklucz=ftok()

Menu()

Zainicjuj_zestaw_semaforów_i_pamięć_dzieloną(rozmiar_magazynu,klucz)

Usuń_semafor_i_pamięć_dzieloną()

Otwórz_zestaw_semaforów_i_pamięć_dzieloną(klucz)

Otwórz_zestaw_semaforów_i_pamięć_dzieloną(klucz)

Liczba procesów ?

Wczytaj tablicę czasów

Wybierz czasy kryt. i lokal. z tablicy odpowiadające indeksowi PID-u w pamięci dzielonej

Rozwidl (liczba_procesów)

Zapisz PID do pamięci dzielonej

Uruchom proces(czas_kryt, czas_lok)

................

................

‘i’

EXIT

Wybierz czasy kryt. i lokal. z tablicy odpowiadające indeksowi PID-u w pamięci dzielonej

Zapisz PID do pamięci dzielonej

Uruchom proces(czas_kryt, czas_lok)

Rozwiązanie problemu wzajemnego wykluczania z tablicą czasów trwania sekcji za pomocą semaforów