grundbegriffe der graphentheorie - link.springer.com978-3-642-97521-9/1.pdf · anhang a...
TRANSCRIPT
Anhang A
Grundbegriffe der Graphentheorie
Unter einem Graph konnen wir uns eine zeichnerische Konstruktion vorstellen, in der Punkte, sogenannte Knoten, mit spezifizierten Geraden, den Kanten, verbunden werden (Abb. A.l).
e y d
Abbildung A.l: Beispiel eines Graphen
In obigem Beispiel haben wir die Kanten x, z, y und noch drei weitere, nicht naher benannte Kanten. Diese Kanten verbinden die Knoten a, b, c, d, e. Wir sehen also, daB das Konzept eines Graphen nicht allzu schwer zu verstehen ist, und schreiten zu exakteren Definitionen. Wir betrachten im ubrigen hier generell nur Graphen ohne Mehrfachkanten und Schlingen (= schlichte Graphen) mit endlich vielen Knoten. Definition: Ein Graph G besteht also aus einer endlichen, nicht leeren Menge V
357
von p Knoten zusammen mit einer gewissen Menge X von q zweiwertigen Teilmengen von V. Jedes ungeordnete Paar (xeX und x = {u,v}) von Knoten ist eine Kante von G. Man sagt, x verbindet u und v. Da die Knoten u und v unmittelbar verbunden sind, sagt man, die Knoten seien benachbart. Der Knoten u und die Kante x inzidieren einander. Inzidieren verschiedene Kanten mit demselben Knoten, so heii~en sie benachbart. In obigem Beispiel sind x und y, sowie z und y jeweils benachbarte Kanten. x und z sind hingegen nicht benachbart. Es gelte V = {vo,Vl, ... , v p },
X = {Xl,X2, ... ,xq },
G= (V, X) ist ein Graph. Oben haben wir angegeben, daB wir Knoten in Zukunft mit v bezeichnen und indizieren, und Kanten mit x bezeichnen und indizieren. V und X bezeichnen die Knoten- bzw. die Kantenmengen. Das Paar bestehend aus V und X ist dann ein Graph. Unter der Kantenfolge eines Graphen verstehen wir eine alternierende Folge v6n Ecken und Kanten vo, Xl, VI, ..• , Vn-l, x n , Vn , die mit Vo beginnt und mit Vn endet, und in der jede Kante mit den beiden verschiedenen Ecken inzidiert, die in der Folge unmittelbar neben ihr stehen. Eine Kantenfolge heifit dann geschlossen, wenn Vo = Vn
gilt. Eine Kantenfolge heifit offen, wenn sie nicht geschlossen ist. Eine Kantenfolge heifit Weg, wenn aIle Ecken verschieden sind, und gilt n ~ 3, und liegt ein geschlossener Weg vor, so heifit die Kantenfolge ein Kreis. Definitionen: Ein Graph heifit zusammenhangend, wenn je zwei Ecken durch einen Weg verbunden sind. Ein maximal zusammenhangender Teilgraph von G heiBt Zusammenhangskomponente von G. Die Lange einer Kantenfolge entspricht der Anzahl der in ihr vorkommenden Kanten. Ein gerichteter Graph ist ein Graph, bei dem jede Kante einen Anfangsknoten und einen Endknoten aufweist. Man schreibt daher eine Kante mit dem Anfangsknoten a und dem Endknoten b auch als (a, b). 1m Gegensatz zu einem ungerichteten Graphen weist also eine Kante eines gerichteten Graphen eine Richtung auf. Man spricht daher haufig nicht einfach von Kanten, sondern anstatt dessen von Pfeilen.
358
Definition eines gerichteten Graphen oder Digraphen: Ein gerichteter Graph oder Digraph besteht aus einer endlichen, nichtleeren Menge V von Ecken, zusammen mit einer Menge X von geordneteOn Paaren verschiedener Ecken. Die Elemente von X werden (gerichtete) Kanten genannt. Wir schreiben die Kanten auch als geordnete Paare (u, v). Es gilt u, mY; u heiBt Anfangsknoten und v Endknoten des Pfeils.
V\ a b
Digraph Kein Digraph, da x I und "2 parallel sind
Abbildung A.2: B~ispiel eines Digraphen
V = {a,b,e} X = {(a, e), (e, a), (b, en Definition der Erreichbarkeit: Ein Knoten b eines Digraphen D = (V, X) heiBt von einem Knoten aEV aus erreichbar, wenn es in D eine Pfeilfolge und damit einen Weg mit dem Anfangsknoten a und dem Endknoten b gibt. a und b heiBen miteinander verbunden, wenn in G D eine Kantenfolge und damit eine Kette mit den Endknoten a und b existiert. Ein Weg ist eine Kantenfolge von jeweils benachbarten Kanten, deren Knoten durehwegs verschieden sind. Entspricht der erste Knoten dem letzten Knoten, so nennen wir den Weg geschlossen, und die Kantenfolge wird Kreis genannt. Bei einem Digraphen muB in der Kantenfolge jeweils der Anfangsknoten der folgenden Kante mit dem Endknoten der vorausgehenden Kante iibereinstimmen. Ein geschlossener Weg eines gerichteten Graphen heiBt Zyklus. G D ist der ungerichtete Graph, der aus D gebildet werden kann, indem man die 'Richtung' aufhebt und zwei Kanten zwischen den gleichen Knoten, die nun keine entgegengesetzte Orientierung mehr aufweisen, zu einer einzigen Kante zusammenfaBt. Bemerkung: ZweckmaBigerweise vereinbaren wir, daB ein Knoten a von sich selbst
359
aus 'erreichbar' und mit sich selbst 'verbunden' sei. Einen von einem Knoten a eines Digraphen aus erreichbaren Knoten nennen wir manchmal auch N achfolger im weiteren Sinne von a, und analog einen Knoten, von dem a aus erreichbar ist, nennen wir Vorganger im weiteren Sinne von a. Die Menge aller von einem Knoten a eines Digraphen D = (V, X) aus erreichbaren Knoten von D bezeichnen wir im folgenden mit R(a); fUr die Menge aller Knoten von D, von denen aus a erreichbar ist, fUhren wir das Symbol R( a) ein, insbesondere gilt a€R( a), a€R( a). Entsprechend legen wir fUr V' ~ V die Mengen R(V') = {a€Vla€R(a'),a'€V'} = U R(a')
a'EV'
R(V') = {a€Vla€R(a'), a' €V'} = U R(a') fest. a'EV'
Definition: Ein ungerichteter oder gerichteter Graph G mit der Kanten- bzw. Pfeilmenge X wird transitiv genannt, wenn fiir je drei verschiedene Knoten a, b, c, von G aus (a, b,), (b, c, )€X (bzw. {a, b,}, {b, c, }€X) auch (a, c, ) €X (bzw. {a, c, }€X) folgt. Ein vollstandiger gerichteter oder ungerichteter Graph ist stets transitiv. Ein vollstandiger gerichteter Graph ist transitiv und symmetrisch, d.h. mit (a, b, )€X ist auch (b, a, )€X. Definition: Die transitive Hiille eines ungerichteten oder gerichteten Graphen (V, X) ist der transitive Graph (V, X') mit der kleinstmoglichen Kantenbzw. Pfeilmenge X' ~ X, sodaB (V, X') ein transitiver Graph ist (Abb. A.3).
b "2. •• '1
d~ /.~ ~.c k(. • • • • .. .. c "i v,
Antisymmelrisch
Symmelrisch (Schleifen erlaubl; Transitiv
sonS! asymmelrisch) VOllstandig
Abbildung A.3: Beispiele von Graphen
Bei ungerichteten und gerichteten Graphen, die weder parallele Kanten bzw. Pfeile noch Schlingen besitzen, konnen wir bei einer endlichen Knotenmenge und einer endlichen Kantenmenge, die wir voraussetzen,
360
bei ungerichteten Graphen nur hochstens (~) d.L n(n;I) Kanten, bzw. bei einem gerichteten Graphen hochstens n(n -1) Pfeile haben (Abb. A.4; ein Graph werde indiziert genannt, wenn seine Knoten indiziert sind).
Abbildung A.4: Beispiel eines indizierten Graphen
Definition: Ein Knoten 9 eines gerichteten Graphen G, von dem hochstens Kanten weggehen, und zu dem keine Kanten hinfiihren, heiBt QueUe; ein Knoten s, zu dem hochstens Kanten hinfiihren, aber von dem keine Kanten weggehen, heiBt Senke von G. Fiihren weder Kanten hin noch weg, so heiBt der Knoten isoliert. In obigem Beispiel ist a3 eine QueUe, und a2 als auch a4 heiBen Senken des Graphen. Definition: Eine Knotenmenge B ~ V eines Digraphen D = (V, X) heiBt Basis von D, wenn gilt (1) R(B) = V (2) Es existiert kein B' c B mit R(B') = V; (d.h. B ist die "kleinste" Teilmenge von V, die R(B) = V erfiiUt.) Definition: Eine Knotenmenge A ~ V eines Digraphen D = (V, X) heiBt Antibasis von D, wenn gilt (1) R(A) = V (2) Es existiert kein A' c A mit R(A') = V. B = {aI,a6} ist eine Basis von D; Al = {ad und A2 = {a5} sind Antibasen von D (Abb. A.5).
361
Abbildung A.5: Basis und Antibasis
Man kann folgende Behauptungen beweisen: Jeder Digraph besitzt (mindestens) eine Basis und eine Antibasis. AIle Basen B (Antibasen A) eines Digraphen haben die gleiche Machtigkeit, sie sind also Teilmengen von V von minimaler Machtigkeit, die gleichzeitig R(B) = V(bzw. R(A) = V) erfiillen.
Jede Basis (Antibasis) eines Digraphen D enthalt samtliche Quellen (Senken) von D . Ein Digraph D ohne Zyklen (zyklenfreier Digraph) besitzt genau eine Basis (Antibasis), die aus allen Quellen (Senken) von D besteht. Definition: Ein Digraph D heiBt stark zusammenhangend, wenn fiir je zwei Knoten a und b von D sowohl a von b aus, als auch b von a aus erreichbar ist. D wird schwach zusammenhangend oder kantenweise zusammenhangend genannt, wenn je zwei Knoten von D miteinander verbunden sind. I Bemerkung: Entsprechend kann man die starken und die schwachen Zusammenhangskomponenten eines Digraphen D definieren. Zwei Knoten a und b von D liegen in einer starken (schwachen) Zusammenhangskomponente, wenn a von b aus und b von a aus erreichbar (a und b miteinander verbunden) sind (Abb. A.6).
Schwache Zusammenhangskomponenten: DI, D2 . Starke Zusammenhangskomponenten: {aI, a2}j {a3}j {a4}j {as}j D2.
lZwei Knoten sind miteinander verbunden, wenn in GD ein Weg existiert mit den beiden Knoten als Anfangs- und Endknoten.
362
Abbildung A.6: Starke bzw. schwache Zusammenhangskomponenten des Graphen D mit den Teilgraphen Dl und D2
Definition: Seien D = (V, X) ein Digraph und F(a) die Menge aller Pfeilfolgen von D mit dem Endknoten aEV, dann heillt die GroBe
( ) { Maximale Lange einer Pfeilfolge in F(a) (=I leer) p a 0 (F(a) ist leer)
Vorwartsrang oder kurz Rang des Knotens a: Bemerkung: Liegt ein Knoten in einem Zyklus, so habe er den Rang 00. FUr die Range der Knoten des unten dargestellten Digraphen gilt p(aI) = 1, p(a2) = 2, p(a6) = 0, p(a4) = p(a5) = p(a3) = 00 (Abb. A.7).
Abbildung A.7: Der Rang eines Knotens
Aus der Definition folgen die Behauptungen:
• Der Rang eines Knotens in einem Digraphen mit n Knoten ist entweder hochstens gleich n - 1 oder gleich 00.
363
• 1st ein Knoten a in einem Zyklus enthalten, so haben wir p( a) = 00. (a' mufi jedoch nicht in einem Zyklus enthalten sein, damit p(a') = 00 gilt!)
• 1st ein Digraph D zyklenfrei, dann ist der Rang jedes Knotens von D endlich.
Definition: Seien D = (V, X) ein Digraph und F' (a) die Menge aller Pfeilfolgen von D mit dem Anfangsknoten aE V, dann heiBt
( ) { Maximale Lange einer Pfeilfolge in F' (a) (i= leer) CT a 0 (F'(a) ist leer)
Riickwartsrang des Knotens a:
FUr den obigen Digraphen gilt CT(al) = 1, CT(a2) = 0, CT(a3) = CT(a4) = CT(as) = CT(a6) = 00.
Obige Bemerkungen gelten auch fUr den Riickwartsrang. Ein Knoten a mit p( a) = cr( a) = 00 muB nicht notwendig einem Zyklus angehorenj dies wird z.B. durch den Knoten a4 des folgenden Digraphen gezeigt (Abb. A.8).
3. 34 as e----+. e---... e
/\ /\ Abbildung A.8: Zyklenfreier Digraph
Zyklenfreie Digraphen erlauben eine spezielle Numerierung der Knoten nach wachsenden Knotenrangen, die topologische Sortierung genannt wird. Die topologische Sortierung der Knoten eines zyklenfreien Digraphen ist nun folgendermaBen erklart: Definition: Eine Sortierung der Knoten eines zyklenfreien Digraphen D = (V, X) mit V = {aI, ... ,an} nach deren Rang heiBt topologische Knotensortierung oder kurz topologische Sortierung von D (Abb. A.9).
364
Abbildung A.9: Digraph
Bemerkung: Topolische Sortierung muB nicht eindeutig sein, da Knoten gleichen Ranges untereinander beliebig angeordnet werden konnen (Abb. A.lO).
r----...--------.. r ~ .......... ~ .-. e-. ~ . .-. . .-.-. a. ~~s a7 ~9 a.. a.2
Abbildung A.lO: Topologisches Sortieren von D nach dem Rang
p(A1 ) = 0 p(A2) = p(A3) = 1 P(A4) = P(A6) = 2 P(A5) = P(A7) = 3 p(AlO) = p(As) = 4 p(Ag) = 5 p(All ) = 6 P(A12 ) = 7 Bemerkung: Es ist oft zweckmaBig, die Knoten eines zyklenfreien Digraphen neu in topologischer Sortierordnung zu indizieren, da fUr einen Knoten a mit endlichem Rang bei Indizierung nach aufsteigendem Rang in dem topalogisch sortierten indizierten zyklenfreien Digraph D jeder Knoten eine kleinere Knotennummer als jeder seiner N achfolger, und eine grofiere Knotennummer als jeder seiner Vorganger hat. Sei D ein topologisch sortierter und in Sortierordnung indizierter zyklenfreier Digraph mit der Knotenmenge {all . .. ,an}, dann sind al eine QueUe und an eine
365
Senke von D. Damit ist insbesondere die Existenz mindestens einer QueUe und mindestens einer Senke eines zyklenfreien Digraphen sichergestellt (da jeder Knoten endlichen Rang hat!). Es gilt folgender Satz: In einem zyklenfreien Digraphen ist jeder Knoten von einer QueUe aus erreichbar, und entsprechend ist von jedem Knoten aus eine Senke erreichbar. Definition: Ein zyklenfreier Digraph mit genau einer Quelle und genau einer Senke heiBt Netzwerk. Obiger Satz, angewandt auf Netzwerke, spielt in der Netzplantechnik eine groBe Rolle: In einem Netzwerk mit der Quelle q und der Senke s existiert fur jeden von q verschiedenen Knoten a ein Weg von q nach a, und fUr jeden von s verschiedenen Knoten b ein Weg von b nach s.
A.O.l Baume
Definition von ungerichteten Baumen: Ein zusammenhangender Graph, der keinen Kreis enthalt (kreisloser Graph), heiBt Baum. Ein kreisloser Graph mit k Zusammenhangskomponenten wird Wald mit k Baumen genannt. Bemerkung: Ein Knoten a eines Baumes B, der mit nur hochstens einem Knoten verbunden ist, wird als Endknoten oder Blatt von B bezeichnet. Die folgende Abbildung zeigt einen Wald mit den beiden Baumen BI und B2; al, ... , a5 sind die Blatter des Baumes BI (Abb. A.11).
a s
Abbildung A.11: Beispiele ungerichteter Baume
366
Satz: Ein Graph Gist genau dann ein Baum, wenn fUr je zwei verschiedene Knoten von G genau eine diese beiden Knoten verbindende Kette existiert. Bemerkung: Durch das Entfernen einer Kante aus einem Baum entsteht ein nicht zusammenhangender Graph. Ein Baum enthalt also keinen echten Teilgraph, der aIle Knoten von B umfaBt und zusammenhli.ngend ist. Satz: Ein Baum mit ii' Knoten enthaIt genau n - 1 Kanten. Bemerkung: Ein Wald mit k Bitumen und n Knoten enthaIt genau n - k Kanten. Definition: Ein Digraph D = (V, X) heifit gerichteter Baum mit der Wurzel reV, wenn der D zugeordnete Graph GD ein Baum und {r} Basis von D ist. Ein Digraph mit k schwachen Zusammenhangskomponenten wird gerichteter Wald mit k Bitumen genannt, wenn jede schwache Zusammenhangskomponente ein gerichteter Baum ist. Bemerkung:
• Die - eindeutig festgelegte - Wurzel r eines gerichteten Baumes B ist die einzige QueUe von B.
• Eine Senke eines gerichteten Baumes B nennen wir in AnaIogie auch Endknoten oder Blatt von B. Ein Weg in B, dessen Endknoten gleichzeitig Endknoten von B ist, hei6t Ast von B. (D.h. nicht unbedingt von der Wurzel r.)
• Ein gerichteter WaId mit k Bitumen und n Knoten besitzt genau n - k Pfeile.
Definition: Ein gerichteter Baum, von dessen samtlichen Knoten hochstens m Kanten wegfiihren, hei6t m-arer Baum, (fUr m = 2 spricht man vom Binarbaum). Fiihren genau m Kanten von jedem Knoten mit Ausnahme der tiefsten Ebene, den sogenannten Blattknoten, weg, so spricht man von einem vollstandig besetzten m-aren Baum (Abb. A.12). (3) und (2) stellen gerichtete Bitume jeweils mit der Wurzel VI dar. (3) ist ein Binarbaum. Der Digraph von (1) ist dagegen kein gerichteter Baum. (2) besitzt die Endknoten (= Blattknoten) V4, Vs, V6, V7.
(Vb V2, vs) und (V2' V3, V4) sind Aste von (2). Die Endknoten von (3) sind V6, Vs, Vg, VlO, Vn, V12. (V2' VS, vg) ist z.B. ein Ast von (3).
367
(\) (2) (3)
L'----------~v~--------~, Kein ger. Bauro! Gerichtete Bllume
Abbildung A.12: Beispiele fUr gerichtete Baume
A.O.2 Digraphen und Matrizen
Wir werden im folgenden stets annehmen, daB der jeweils betrachtete Digraph D = (V, X) n Knoten besitze, und die Knoten nach einer fest en Vorschrift durchnumeriert seien, sodafi V = {VI' ... ' V n } ist. Fur die Indexmenge gelte also: I={l, ... , n}. Adjazenzmatrizen: Definition: Die einem Digraphen D = (V, X) zugeordnete n x n Matrix A(D) mit den Elementen
ai,j = { ~ wenn
heiBt Adjazenzmatrix von D. Bemerkung:
(Vi,Vj)EX
sonst
Man kann auch einem beliebigen gerichteten Graphen D mit der Knotenmenge V = {VI, ... ,Vn } eine Adjazenzmatrix A(D) = (aij)nxn
gemafi aij = Anzahl der Pfeile (Vi,Vj) zuordnen (Abb. A.13).2
2Nach [Langefors 1973], S. 282.
368
Information Information Entscheidungen, die Kontrollinformation erzeugen
Unternehmensfunktionen
Beschaffung 2
Lager 1
Verkauf
Abbildung A.13: Beispiel einer Darstellung des Informationsflusses
Adjazenzmatrix eines Informationssystems fUr den InformationsfluB (nach obigem Bild; Abb. A.14).
• Die Adjazenzmatrix eines Digraphen D ist bei vorgegebener Knotennumerierung eindeutig festgelegt. Einer Umnumerierung der Knoten von D entspricht das Vertauschen von Zeilen und der zugehorigen Spalten (d.h. Spalten gleicher Nummer) von A{D).
• Da unser Digraph D keine Schlingen besitzt, besteht die Hauptdiagonale der Adjazenzmatrix A{D) eines Digraphen aus lauter
369
3
D:
Nullen. 1st Vi eine Quelle von D, so enthiUt die i-te Spalte - und im Falle einer Senke Vj von D die j-te Zeile von A(D) - nur Nullen (Abb. A.15).
Nach 8 9 10 I 11 12
1 1 2 1 3 1 4 1 1 5 1 1 1 6 1 7 1 1 8 1 1 1 (1) 9 1 10 1 11 1 1 12 1 1 13 1 1 14 1 1
Abbildung A.14: Adjazenzmatrix
(l ""5
A(D):
"'3-"'4
Spaltensumme
"'1 "':1 "'3 "'4 "'5
"'1 0 0 0 0 0
V; 1 0 1 1 0
". 3
1 0 0 0 0
"4 0 0 1 0 0
". 0 0 0 0 0 5
. ~ 0 ~ 1 0
AnzahI der unmittelbaren Nacbfolger
13 14
1 1
1
1
(1) (1)
Zeilensumme 0
3 Anzahld.
1 umittelb. 1 Nacbfolger
0
Abbildung A.15: Adjazenzmatrix eines Digraphen
Ein gerichteter Graph und seine Adjazenzmatrix: Sei D ein Digraph mit der Adjazenzmatrix A(D), dann gilt:-
370
D symmetrisch {:} D antisymmetrisch {:} D vollstandig {:} D transitiv {:}
fUr i, j, k€{l, 2, ... ,n}
Bemerkung:
aij = aji
aijaji = 0 aij = 1 fUr i =1= j aus aij = ajk = 1 fur i =1= k folgt aik = 1
Die Adjazenzmatrix eines topologisch sortierten Digraphen kann immer in eine obere Dreiecksmatrix umindiziert werden (Abb. A.16).
Adjazenzmatrix:
A(D)= ( ~ ~ ~ ~) 1 1 0 0 011 0
Indiziert nach topologischer Sortierung Adjazenzmatrix nach Umindizierung:
123 4 v4 - vi 1 (0 1 1 0) v3 - v; 2 0 0 1 1 v~ _ v; 3 0 0 0 1
v1 -v4 4 0 0 0 0
Abbildung A.16: Umindizierung
Potenzen der Adjazenzmatrix: Die Elemente der s-ten Potenz AS der Matrix A bezeichnen wir mit a~;) (i,j€{1,2, ... ,n};s€INI), aW ist als Skalarprodukt der i-ten Zeile mit der j-ten Spalte von A, also
n
a~J) = I: aikakj
k=l
und gerade gleich der Anzahl der von Vi nach Vj fuhrenden Pfeilfolgen von D mit der Pfeilzahl 2. Satz: Sei A die Adjazenzmatrix eines Digraphen D, dann ist das Element a~;) der Matrix AS gleich der Anzahl der von Vi nach Vj fUhrenden verschiedenen Pfeilfolgen von D mit der Pfeilzahl s (i, j€{l, 2, ... ,n}; s€INI)
371
(Abb. A.17 und Abb. A.18). Beispiele:
Abbildung A.17: Gerichteter Graph mit Zyklus
(0100) (1000) (0100) (1000) Al _ 1000 . A2 _ 0100 . A3 _ 1000 . A4 _ 0100
- 1100 ' - 1100 ' - 1100 ' - 1100 0110 2100 1200 2100
(A2 und A4 sind alternierend, d.h. es existiert ein Zyklus!)
A= (~ ~ o 0 o 0
! ~ ~ ~l 001 0 o 0 0 1 o 0 0 0
Abbildung A.18: Gerichteter Graph ohne Zyklus
(
001021) (011100) (000003) 000002 001010 000000 2 000000 000001 3 000000 4
A = 000001 xA= 000010 = A = 000000 ; A =0 000000 000001 000000 000000 000000 000000
(0 bezeichne eine entsprechend dimensionierte Matrix mit lauter Nullen.) Die Erreichbarkeitsmatrix eines Digraphen: Definition: Die einem Digraphen D = (V, X) zugeordnete n x n-Matrix R(D)
372
mit den Elementen
(i,jE{1,2, ... ,n}) sonst
heifit Erreichbarkeitsmatrix von D. Beispiel:3
BV.I\B= 110 ( 101 )
010
Bestimmung cler Erreichbarkeitsmatrix Wij = Weg minimaler Pfeilzahl von Vi nach Vj. Z(Wij) = Pfeilzahl von Wij.
fill '/, = J fill vjER(vd fUr VjER( Vi)
Wir definieren nun die Matrix Rs(D) mit den Elementen
rtf. = { 1 fill vjER(Vi) mit dij ::; S
tJ 0 sonst
Weiters gelte Ro(D) = I.
Satz: Es gelte
Dann gilt bfj > 0 genau clann, wenn vjER(Vi) und dij ::; s.
3 A v B bezeichnet die komponentenweise Verkniipfung der Matrizen A und B mit der Iogischen Funktion V, wobei 1 fiir 'wahr' und 0 fiir 'faisch' stehe. A V ./\ B bezeichnet eine Art Matrixmuitiplikation der Matrizen A und B, bei welcher die Addition durch die Iogische Operation V (oder) und die Muitiplikation durch die Iogische Operation /\ (und) ersetzt wird. 1 und 0 werden wieder ais Wahrheitswerte interpretiert (1 ++ wahr und 0 ++ faIsch).
373
Sonst gilt b1j = O(i,j€{1,2, ... ,n}). (1 bezeichne die Einheitsmatrix.) Die Korrektheit dieser Behauptung folgt unmittelbar aus dem obigen Satz iiber Adjazenzmatrizen. Satz: Sei q die kleinste Zahl s€INI mit Rs = Rs+1' Es gilt dann R = R q •
Die Korrektheit dieser Behauptung konnen sich die LeserInnen leicht selbst iiberlegen. Adjazenzmatrix der transitiven Hiille Dt eines Graphen D :
A(Dt) = R(D) - 1.
Starke Zusammenhangskomponenten konnen aus der Matrix R X = R(D) X RT (D) (x = komponentenweise Multiplikation) bestimmt werden, da
x rij = rijrji;
rij ist aber genau dann 1, wenn vi€R(vj) und Vj€R(Vi), also beide in derselben starken Zusammenhangskomponente liegen. Beispiel (Abb. A.19):
Abbildung A.19: Gerichteter Graph
010000 011010 011011 011011 001000 (
100000 )
Bo = 000100 ; 001001 001001 001001 (
111100 ) ( 111111 ) ( 111111 )
Bl = 000110 ; B2 = 000111 ; Ba = 000111
Bo =1
000010 000001
B1 =1+A B2 = 1 +A+A2 B3 = 1 + A + A2 + A3 B4 = B3·
000011 000011 000011 000001 000001 000001
374
Beispiel (Abb. A.20):
Abbildung A.20: Gerichteter Graph
( 1100 ) ( 1100 ) ( 1100 ) _ 1100 . _ 1100 . _ 1100 _ ,
Bl - 1110 ,B2 - 1110 ,B3 - 1110 - B2.
0111 1111 1111
Also:
( 0100 ) ( 1100 ) t 1000 " 1100
A(D ) = 1100 j R = 0010
1110 0001
375
Anhang B
Losungen der Beispiele
B.l Kapitel 2: Die Codierung und Darstellung von Daten in Speichern
1. Losung: 1492
342 x 3 = 1026; die nachstgro:Bere Zweierpotenz ist 211 = 2048, es sind also 11 Bits zur Abspeicherung eines Zeichens notig. 693/11 = 63 Zeichen pro SupaMerk-Speichereinheit; 23498/63 = 372.98, daher miissen 373 Speichereinheiten gekauft werden: 373x 4 = 1492 M uscheln sind zu zahlen.
2. Losung: b
3. Losung: 5 Stunden, 3 Minuten und 14 Sekunden
471216 = 4 X 163 + 7 X 162 + 1 X 161 + 2 * 16° = 18194 Sekunden = 303 Minuten und 14 Sekunden = 5 Stunden, 3 Minuten und 14 Sekunden.
4. Losung: 16
Die Symbole 0-9 und A-F.
5. Losung: 75
117 / 16 = 7 Rest 5 7 / 16 = 0 Rest 7 Die Reste von unten nach oben gelesen ergibt 75.
6. Losung: 6
377
Die Binarzahl ist 100111101, wie das Divisionsrestverfahren ergibt:
Division Rest 317: 2 = 158 1 158 0 79 1 39 1 19 1 9 1 4 0 2 0 1 1 0
7. Losung: 8
F416 = (15,x 161 + 4ho = 24410
F4 ist dezimal gleich 244; mit dem Divisionsrestverfahren erhalten wir die Biarzahl:
Division Rest 244: 2 - 122 0 122 0 61 1 30 0 15 1 7 1 3 1 1 1 o
Die Binarzahl ist (von unten nach oben lesen) gleich 11110100 (wie auch durch direkte Ubersetzung von F4 gepriift werden kann: Fist binar 1111, 4 ist binar 0100). Diese Zahl hat 8 Stellen.
8. Losung: 9
FAD16 = 4013
FAD ist dezimal gleich 4013; mit dem Divisionsrestverfahren erhalten wir die Binarzahl: 111110101101. Diese Zahl hat 9 Zeichen "1".
378
9. Losung: b
25 = 32, aber Null muB auch gespeichert werden; die gro:Bte Binarzahl mit funf Stellen ist 111112 = 3110.
10. Losung: b
4 x 8 = 32 Bit, 8 Bit pro Byte.
B.2 Kapitel 3: Datenspeicher
1. Losung: b
2. Losung: a
3. Losung: c
Es wird ein 12 Bit-Code verwendet; es miissen immer zwei Nullen zwischen zwei Mustern sein
4. Losung: a
5. Losung: e, b, a, c, d
6. Losung: 20480000
5 * 1024 = 5120 5120 * 10 = 51200 Byte/Spur 51200 * 40 Spuren = 2 048 000 pro Oberflache 10 Oberfiachen --+ 20 480 000 Byte
7. Losung: a
8. Losung: b
9. Losung: a, d
10. Losung: a, c, e
11. Losung: b, c, d, e
12. Losung: e
13. Losung: c
Es miissen durchschnittlich 400 Satze gelesen werden, pro Satz der Indexdatei sind 400/(128/(28 + 4)) = 100 Zugriffe notig, die 20 Sekunden dauern.
379
14. Losung: b, d, e
B.3 Kapitel 4: Datenstrukturen und Datenorganisation
1. Losung: 1, 11, 15
2. Losung: c
LIFO: nur das jeweils zuletzt angefugte Element ist bei der nachsten Entnahme zuganglich.
3. Losung: 2, 12
Da 4 push-Operationen 5 pop-Operationen gegenuberstehen, bleiben im Stack nur zwei Elemente vom Anfang ubrig: 2 und 12.
4. Losung: 69
Zu den Nachfolgern des Knotens j zahlen alle Knoten auBer j. Die Summe der Werte der Nachfolgerknoten ist 69.
5. Losung: 4
B.4 Kapitel 5: Die Entwicklung einer Problemlosung
1. Losung: 3
2. Losung: 120
Das Programm berechnet die Faktorielle f einer Zahl n.
3. Losung: a, b, c
4. Losung: 216
5. Losung: 28
Die Schleife wird 7 mal durchlaufen, die Summe ist 7 + 6 + 5 + 4 + 3 + 2 + 1 = 28.
380
B.5 Kapitel 6: Die Korrektheit von imperativen Programmen
1. Losung:
x_a
y_b
y'" 0
r-x- lx::yJ. y
x-y
y_ r
ggT-x
Abbildung B.1: Struktogramm fiir ggT
2. Losung:
Bleibt dem Leser iiberlassen.
3. Losung:
siehe [Goldschlager, Lister 1990], S. 133 if.
4. Losung:
siehe [Goldschlager, Lister 1990]' S. 133 if.
5. Losung:
siehe [Goldschlager, Lister 1990], S. 133 if.
6. Losung:
Bleibt dem Leser iiberlassen.
7. Losung:
Bleibt dem Leser iiberlassen.
8. Losung:
Das Nimm-Spiel (Abb. B.2):
381
'Anzahl der Stlibcben eingeben'
'Habe 'j' Stlibcben genommen!'
Abbildung B.2: Nimm-Spiel-FluBdiagramm
9. Lasung: (Abb. B.3):
382
I ~ ~ ~
Stab 1 Stab 2 Stab 3
~ ~ ~ Stab 1 Stab 2 Stab 3
Abbildung B.3: Tiirme von Hanoi
Das nachfolgende Bild veranschaulicht zwei Beispiele zur optimalen (redundanzfreien) Vorgangsweise durch Handsimulation (Abb.BA).
2 Scheiben (n=2) 3 Scheiben (n=3)
I .b. ~ ~ I
b ~ ~ I .L ~ 1,
I I r=b J. ~
~ J-, 1, I I
L 1 r-l I
~ b ~ I L ~ A
I
~ ~ A I
1, ~ r-l I
~ ~ ~ ~ .e ~
Abbildung BA: Hanoi-Handsimulation
383
Das nachfolgende Bild veranschaulicht die Vorgangsweise des rekursiven Losungsalgorithmus (Abb. B.5).
n Scheiben Problem ~ ~ ~ I
Umstecken von n-l Scheiben vom Quellstab
J. ~ k auf den Hilfsstab: (Reduzierte GroBe des Problems n-l, da ungeklilrt ist, wie die-
I ser Turm mit (n-l) Schieben umgesteckt werden soil.)
n-te Scheibe vom Quellstab auf den ~ J. k Zielstab stecken:
Umstecken von n-l Scheiben vom ~ ~ ~ Hilfsstab auf den Zielstab:
Abbildung B.5: Rekursiver Losungsalgorithmus
RAHMEN:
n einlesen
Stecke (0,1,2)
STECKE (N,A,B):
Stecke (0-1 ,a,6-a-b)
'Scheibe 'n' von 'a' oach 'b"
Stecke (0-1,6-a-b,b)
Abbildung B.6: Hanoi-Struktogramm
384
I
I
Rahmen: Stecke (n, a, b):
Scheibe '0' voo 'a' nach 'b'
Abbildung B. 7: Hanoi-Flufidiagramm
B.6 Kapitel7: Der Aufbau von elektronischen Datenverarbeitungsanlagen
1. Lasung: 195, Ausgabe: 1, 2
2.
Schreiben wir das Programm auf und dazu fiir jede Anweisung, wie oft sie aufgefiihrt wirdj multiplizieren mit der entsprechenden Ausfiihrungszeit ergibt summiert die gesamte Ausfiihrungszeit:
READ I 20 20 STORE LIMIT I 9 9
LOOP LOAD ZAEHL II 9 18 ADD EINS II 10 20 STORE ZAEHL II 9 18 WRITE II 30 60 LOAD LIMIT II 9 18 SUB ZAHL II 8 16 BGZERO LOOP II 7 14 HLT I 2 2
195
Lasung: Ausgabe = 7
385
Nach Zeile 7 ist der Inhalt des Akkumulators = 5. Nicht ausgefiihrt werden Zeilen 9, 10, 11. Der Inhalt des Akkumulators fiir jeden Befehl:
1 A 2 B 3 4 5 6 7 8 9
10 11 12 MAX 13 14
3. Losung: Ausgabe = 4
DS 0 DS 0 READ STORE A READ STORE B SUB A BGZERO MAX LOAD A WRITE HLT LOAD B WRITE HLT
Nicht ausgefUhrt werden die Zeilen 12-14.
4. Losung: 15
2 2 7 7 5 5
7 7 7
Die Veranderung der Speicherzellen wahrend des Programmablaufs ist:
SiN
o 0 5 5 9 4 12 3 14 2 15 1
o
Nach dem letzten Schleifendurchlauf enthalt der Akkumulator den Wert 15. Dieser Wert wird ausgegeben. Das Programm berechnet die Summe der Zahlen von Eins bis zum gegebenen n.
5. Losung: 11 S N o 0 3 1 8 2
21 3 44 4
386
Das Programm liest Zahlen ein, bis Null eingegeben wird. Dabei wird N fiir jede eingegebene Zahl urn Eins erhaht. Dann berechnet es den Mittelwert der eingegebenen Zahlen, indem es S in den" Akkumulator Hi-dt und durch N dividiert. Der Inhalt des Akkumulators nach der Division wird ausgegeben.
6. Lasung: 13
Es werden 13 Anweisungen ausgefiihrt, wobei der Akkumulator von 5 auf 0 heruntergezahlt wird. Die Zahl Null wird ausgegeben.
7. Lasung: d
8. Lasung: c
Das Steuerwerk liest einen Befehl in codierter Form aus dem Speicher. Der Befehl wird im Befehlsregister gespeichert. Die Abarbeitung des Befehls beginnt, indem das Steuerwerk in Ubereinstimmung mit dem Befehl im Befehlsregister der Reihe nach entsprechende Signale an Rechenwerk und Speicherwerk sendet.
9. Lasung: a, d
10. Lasung: c
B.7 Kapitel 8: Der Betriebsmittelverbrauch von algorithmischen Problemlosungen
1. Lasung: b
Bei der Ermittlung des Betriebmittelverbrauches von algorithmischen Problemlasungen versucht man die Laufzeit T und den Speicherbedarf S als eine Funktion der Problemgra:l3e anzugeben: T(n) und S(n). Unter der Problemgra:l3e n versteht man bei Suchund Sortierproblemen zB die Anzahl der Karteiblatter der elektronischen Kartei, in der gesucht bzw die sortiert werden solI.
2. Lasung: b, d
Lineare Zeitkomplexitat ist geringer als quadratische, da bei linearer Zeitkomplexitat die Laufzeit so schnell wie die ProblemgraBe wachst, daher ist Aussage (b) richtig. Die Laufzeit des anfangs angenommenen Algorithmus steigt bei einer Verdreifachung der ProblemgraBe auf das neunfache, daher ist Aussage
387
(d) richtig.
3. Losung: c
Die Mikroanalyse dient zur Ermittlung der effektiven Laufzeit eines Algorithmus auf einer konkreten EDV-Anlage. Wir konnen die effektive Laufzeit durch Abfassung eines Maschinenprogrammes und die Mikroanalyse ermitteln, wenn uns die Ausfiihrungszeiten fiir jeden Maschinenbefehl bekannt sind.
B.8 Kapite19: Systemsoftware: Betriebssystem, Ubersetzer und Dienstprogramme
1. Losung: a, b
2. Losung: e
3. Losung: c, e
Die Antworten c und e sind richtig, die anderen Antworten sind Verwirrungen aus den Aussagen im Buch: Ein Pascal-Compiler iibersetzt Pascal-Programme, nicht Backus-Naur-Formen. Cobol ist eine Programmiersprache, kein Betriebssystem. Prolog ist eine Programmiersprache, kein Syntaxdiagramm.
4. Losung: 10
(Ausdruck) -+ «Funktion) (Ausdruck) (Ausdruck) ) -+ «Funktion) ( (Funktion) (Ausdruck)
(Ausdruck) ) (Ausdruck) ) -+ (* ( (Funktion) (Ausdruck) (Ausdruck) )
(Ausdruck) ) -+ (* ( + (Ausdruck) (Ausdruck) ) (Ausdruck») -+ (* ( + (Variable) (Ausdruck) ) (Ausdruck) ) -+ (* ( + x (Ausdruck) ) (Ausdruck) ) -+ (* ( + x (K onstante) ) (Ausdruck) ) -+ (* ( + xl) (Ausdruck) ) -+ (* ( + xl) (Konstante) ) -+ (*(+xl)9)
Das sind 10 Ableitungsschritte.
5. Losung: 10
388
(Ausdruck) -+ ((Ausdruck) (Ausdruck) (Funktion)) -+ (( (Ausdruck) (Ausdruck) (Funktion) )
(Ausdruck) (Funktion) ) -+ (( (Variable) (Ausdruck) (Funktion) )
(Ausdruck) (Funktion) ) -+ (( x (Ausdruck)(Funktion) ) (Ausdruck)
(Funktion) ) -+ (( x (Variable) (Funktion) ) (Ausdruck)
(Funktion) ) -+ (( x y (Funktion) ) (Ausdruck) (Funktion) ) -+ (( x y - ) (Ausdruck) (Funktion) ) -+ (( x y - ) (Variable) (Funktion) ) -+ (( x y - ) y (Funktion) ) -+ ((xy-)yj)
Das sind 10 Ableitungsschritte.
6. Losung: 8
(8) --+ (0) (V) (0) --+ (11) (ll) (V) (0) --+ grosse (ll) (V) (0) --+ grosse katzen (V) (0) --+ grosse katzen beissen (0) --+ grosse katzen beissen (11) (ll) --+ grosse katzen beissen kleine (ll) --+ grosse katzen beissen kleine hunde
Das sind 8 Ableitungsschritte.
7. Losung: 9
(8) --+ (0) (P) --+ (A) (ll) (P) --+ viele (ll) (P( --+ viele froesche (P) --+ viele froesche (V) (W) --+ viele froesche quaken (W) --+ viele froesche quaken (N) (ll) --+ viele froesche quaken im (ll) --+ viele froesche quaken im teich
Das sind 9 Ableitungsschritte.
8. Losung: 8
389
Es sind 8 Substitutionen natig, um den Satz aus den Grammatikregeln abzuleiten:
{Satz} --+ {Subj} {Praed} --+ {Hw} {Praed} --+ enten {Praed} --+ enten {Zw} {Oe} --+ enten schwimmen {Oe} --+ enten schwimmen {Pp} {Hw} --+ enten schwimmen im {Hw} --+ enten schwimmen im teich
9. Lasung: 8
Acht Substitutionen sind natig, um den Ausdruck aus den Grammatikregeln abzuleiten.
{Satz} --+ {~b} (Praed) --+ (Art) (Hw) (Praed) --+ die (Hw) (Praed) --+ die froesche {Praed} --+ die froesche (Zw) (Ob) --+ die froesche fangen {~b} --+ die froesche fangen {Hw} --+ die froesche fangen fliegen
10. Lasung:
Bleibt dem Leser iiberlassen.
B.9 Kapitel 10: Anwendungssoftware: Informationssysteme
1. Lasung: c
2. Lasung: c
B.10 Kapitel 11: Nichtsequentielle Parallele Verarbeitung
1. Lasung: a
390
SISD - Single-Instruction-Single-Datapath-Machine SIMD - Single-Instruction-Multiple-Datapath-Machine MIMD - Multiple-Instruction-Multiple-Datapath-Machine
2. Losung: 2357
3. Losung: d
( a) ist offensichtlicher U nsinn, bei (b) und (c) ist das Gegenteil wahr.
B.ll KapiteIl2: Kommerzielle DatenmodeIIe und Datenbanken
1. Losung: 219
Entitat Entlehner: Name, Adresse, Bibliotheksausweisnummer Beziehung entlehnt: Datum Entitat Buch: Signatur, Verfasser, Titel, Erscheinungsort, Er
scheinungsjahr
2. Losung: 217
2 Entitaten 1 Beziehung Attribute: Auftrag: Nr. Artikel: Nr., Einheit Entnahme: Auftragsnr., Artikelnr., Datum, Menge
3. Losung: 2, 1, 7
4. Losung: d, e
5. Losung: b, d
B.l2 KapiteIl3: Datennormalisierung und ihre Vorteile
1. Losung: Nein.
391
Projektnummer -+ Projektname Mitarbeiternummer -+ Mitarbeitername Primarschliissel ist Projektnummer, Mitarbeiternummer
2. Losung: a, c, d
(b) ist Unsinn, geringerer Aufwand auch hier.
3. Losung: 11
Die Relationen sind "Schiller", "besucht" und "Kurs" mit jeweils 3, 5 bzw. 3 Tupel.
4. Losung: b, c, e
Die richtigen Antworten sind (b), (c), und (e), die anderen Antworten sind Verwirrungen aus den im Buch enthaltenen Definitionen.
5. Losung: 3
Die Abfrage lautet:
Select Name, Menge from Lager where Farbe = 'griin' and Preis < 120;
Die Ergebnistabelle ist:
Name Menge Springfrosch Klebeschlange Knallfrosch
Das sind 3 Tupel (Zeilen der Tabelle).
6. Losung: 1
Select Projektnummer, Projektname from Projekt
25 40 40
where (Leiter = "Maier" or Leiter = "Miiller") and Ende ~ 31. 10. 1990 and Ende ~ 10. 2. 1991
I 3 I Lageroptimierung I 7. Losung: 4
select Lieferant from Artikel, Lieferanten where ALieferantennr = LLieferantennr and Artname = 'Blei-
392
stift';
Hardtmuth AG Faber Brevillier Urban IBA
B.l3 Kapitell4: Datenmodellierung mit dem erweiterten ER-Modell
1. Lasung:
Grad: Beschreibt den begrifflichen Zusammenhang von Entitaetenmengen aa) unare Beziehungen, d.s. Zusammenhange von einer Entitatenmenge mit sich selbst. ab) binare Beziehungen, d.i. der Zusammenhang zweier Entitatenmengen ac) n-are Beziehungen (n >= 3): Unter einer ternaren Beziehung (n=3) verstehen wir den Zusammenhang von 3 Entitaetenmengen Konnektivitat: kann 1 oder n sein. Eine 1 bedeutet, daB jedem Element einer Entitatenmenge in der Beziehung genau ein Element zugeordnet ist. Analog n. Elementbeziehungsklasse: Eine Beziehung kann zwingend oder optional zu einer Entitatenmenge sein, diese Typologie wird als Elementbeziehungsklasse bezeichnet.
2. Lasung:
NULL-Werte sind nicht Null im numerischen Sinne, sondern bezeichnen "keine Eintragung" in der Tabelle. Sie sind nur ffir Fremdschliissel in Entitatenrelationen mit optionaler Beziehung erlaubt.
3. Lasung:
Teilmengenhierachie: Entitatenmenge El und E2 seien Teilmengen einer Entitatenmenge E, wenn jedes Element von El und E2 immer gleichzeitig Element von E ist. Eine Teilmengenhierachie kann Teilmengen aufweisen, die sich iiberlappen. Generalisierungshierachie: Eine Entitatenmenge E werde als Generalisierung der Entitatenmengen El, E2 ... , En bezeichnet, wenn jedes
393
Element von E auch Element in genau einer und nur einer Teilmenge E1, E2, ... , En ist. Unterschied: Eine Generalisierungshierachie kann im Gegensatz zur Teilmengenhierachie nie sich iiberlappende Teilmengen haben. Generalisierungshierachien implizieren die Vereinigung disjunkter Entitatenmengen in der erzeugenden Entitatenmenge. Teilmengenhierachie impliziert dies nicht.
4. Losung:
Applikationen
5. Losung:
Professionist
Bau
Investor Bauprojekt
B.14 Kapitel 15: Die Turingmaschine
1. Losung: c
2. Losung: 14
Das Band ist nun ... 0, 0, 0, 0, 0 ....
3. Losung:
Die Menge der Eingabeworte, die die TM veranlassen, in den Endzustand iiberzugehen.
4. Losung:
394
state input action state qo 1 -+ qO qo 0 -+ ql ql 1 -+ q2 q2 0 haIt.
5. Losung: state input action state
qO 0 -+ qO qo 1 -+ ql ql 1 -+ ql ql 0 haIt.
395
Literatur- und Quellenverzeichnis
[Albert und Ottmann 1986] Albert, J. und Ottmann, Th.: Automaten, Sprachen und Maschinen ffir Anwender, BI-Wissenschaftsverlag, Reihe Informatik: 38, Mannheim (1986).
[Bartee 1972] Bartee, T. C.: Digital Computer Fundamentals, McGraw-Hill Kogakusha Ltd., Tokio (1972).
[Berra et al. 1989] Berra, P. B. et al.: The Impact of Optics on Data and Knowledge Base Systems, in: IEEE Transactions on Knowledge and Data Engineering, Vol. 1, No.1, Mfu'z 1989, S. 111-132.
[Biermann 1990] Biermann, Allen W.: Great Ideas in Computer Science, MIT-Press, Cambridge, MA & London (1990).
[Date 1987] Date, C. J.: A Guide to the SQL-Standard, AddisonWesley Publishing Comp., Reading, Mass. (1987).
[Duncan 1990] Duncan, R.: A Survey of Parallel Computer Architectures, Computer, Vol. 23, No.2 (Feb. 1990).
[Enslow 1987] Enslow, P. H.: What is a 'distributed' data processing system? in: Gagski, D. D., et al., Tutorial Computer Architecture, IEEE Computer Society Press, Washington, D. C. (1987).
[Flynn 1966] Flynn, M. J.: Very High Speed Computing Systems, Proc. of the IEEE, 54 (Dec. 1966).
[Gabor 1969] Gabor, D.: Associative holographic memories, IBM Res. J., vol. 13, S. 156-159 (Mfu'z 1969).
[Goldschlager, Lister 1990]Goldschlage~ L., Lister, A.: Informatik: Eine moderne Einfiihrung, Carl Hanser Verlag, Miinchen (1990).
[Knuth 1973] Knuth, D.: The Art of Computer Programming, Vol. 3, Sorting and Searching, Addison Wesley, Reading, Mass. (1973).
[Knuth] Knuth, D.: The Art of Computer Programming, Vol. 1, Ad-
397
dison Wesley, Reading, Mass. {1972}. [Kudlich 1988] Kudlich, H.: Datenbank-Design, Springer-Verlag, Wien
{1988}. [Lambert "und Ropiequet 1986] Lambert, S. u. Ropiequet, S. {Eds.}:
The New Papyrus, The current and future state of the art, Microsoft Press, Redmond {1986}.
[Langefors 1973] Langefors, B .. : Theoretical Analysis of Information Systems, Auerbach Publ. Inc., Philadelphia, Pennsylvania {1973}.
[Langefors, Sundgren 1975] Langefors, B., Sundgren, B.: Information System Architecture, New York {1975}.
[Lee 1989] Lee, K.: Automatic Speech Recognition: The Development of the Spinx System, Kluwer Academic Publishers, Boston, MA {1989}.
[Markel, Davis 1979] Markel, J. D. und Davis, D.: Text-Independent Speaker Recognition from a Large Linguistically Unconstrained Time-Spaced Data Base, in: IEEE Transactions, Vol. ASSP-27, No.1, S. 74-82 {1979}.
[Maurer 1977] Maurer, H.: Theoretische Grundlagen der Programmiersprachen, BI-Wissenschaftsverlag, Mannheim {1977}.
[Rembold 1990] Rembold, U. {Hrsg.}: Einfiihrung in die Informatik, fUr Naturwissenschaftler und Ingenieure, Carl Hanser Verlag, Miinchen {1990}.
[Saito et al. 1987] Saito, A. et al.: High Storage Density, Optical Discs using Pit-Edge-Recording on Pd-Te-Se Bin Film, in: Proceedings OSA Top. Meet. Opt. Data Storage, Vol. 10, Stateline Nv, Mar, 1987, S. 64-67 {1987}.
[Shaughnessy 1987] Shaughnessey, D.O.: Speech Communication: Human and Machine, Addison-Wesley, Reading, MA {1987}.
[Skillicorn 1988] Skillicorn, D. B.: A Taxonomy of Computer Architectures, Computer, Vol. 21, No. 11 {Nov. 1988}.
[Stucky, Schlageter 1983] Stucky, W., Schlageter, G.: Datenbanksysteme {Konzepte und Modelle}, Teubner, Stuttgart {1983}.
[Teoreyet al. 1982] Teorey, T. J. and Fry, J.: Design of Database Structures, Prentice Hall, Englewood Cliffs, N. J. {1982}.
[Teorey et al. 1986] Teorey, T. J., Young, D. and Fry, J. P.: A Logical Design Methodology for Relational Databases Using an Extended Entity-Relationship Model, ACM, Compo Surveys, Vol. 18, No.2, S. 197 - 222 {1986}.
[Teoreyet al. 1989] Teorey, T. J., Wei, G., Bolton, D. L. und Koenig,
398
J. A.: ER Model Clustering as an Aid for User Communication and Documentation in Database Design, Comm. ACM, Vol. 32, No.9, S. 975-987 (1989).
399
Index
Abstraktionsebene 225,226,249, 250
Adjazenzmatrix 368-371, 374 Algorithmus 149, 153-156, 158,
160, 163-167, 169, 171, 174,176,177,188,189, 209,211-214,217,218, 257, 263-265, 270, 387, 388
Alphabet 229, 230, 232, 233 Amplitudenwerte 32 Anfangsknoten 137, 138, 358, 359,
364 Anfangszustand 342, 344, 346 Anordnungspermutation 212, 213 Anweisung 161, 162, 171, 220,
237,248 Anwendungsprogrammierer 41 Arbeitsanweisungen 154-156 Arbeitsplatzdrucker 324 Arbeitsplatzrechner 30,69,267,
322 Architektur 42, 268, 269 Array 89 Atom 60-62 Atomkern 59,60 Attribut 130, 145,272-274,277,
278, 280, 284, 286-288, 290-292, 299, 304, 305, 307,311,313,317,318, 332
400
Attributetupel 287, 288, 291 Attributskombination 286, 287 Aufsuchen 38, 46, 133, 143, 295,
320 Auftragssteuersprache 228, 229 Aufzeichnung 28, 29, 32, 94, 113,
115, 116, 119, 120, 281 Aufzeichnungsdichte 95, 121, 122 Aufzeichnungsmedium 107, 117 Ausgabewert 354, 356 Ausgangschip 77 Aussprache 35
Bandeinheiten 94-96 Bandfeld 343 Bandsymbo1341, 342 Basismaterial 77 Basiszeichen 232, 233 Baud 198 Baum 138-140, 147, 367 Bedingung 155, 161, 175, 187,
190 Beendigung 170, 201, 221 Befehl 41, 170, 184, 186, 187,
189, 197, 199, 201, 205, 215, 236, 245, 265, 300, 302, 387
Befehlsregister 186, 187, 387 Befehlszahlregister 208 Beginn 172, 196, 223, 233, 251,
349,352 Behauptung 237, 356, 374
Betreuer 330 Betriebsart 223 Betriebsmittel219, 220, 226, 229 Betriebssystem 41, 89, 221, 222,
225, 229 Betriebssystemkern 225, 226 Beziehung 34, 154, 155, 257, 275,
276,278,280,282,293, 303-305,311-314,317-320,322-331,333,391, 393,394
Beziehungsrelation 279,303,325, 327, 333
Bildungsgesetze 232 Bit 11, 13, 14, 17, 21, 23, 24,
26, 30, 43, 55, 79, 81, 84,89,92,99,108,111, 112,121,130,198,207, 217, 379
Block 61, 75, 90, 92, 94, 126 Bytes 15, 24, 25, 43, 47, 81, 84,
87, 94, 105, 106, 184
Cache-Speicher 199 CD-ROM-Platte 21, 24, 99, 101-
106, 125 Chip 70, 71, 79, 120 CMOS-Technologie 71,72, 74 Code 16, 19-24, 99, 104, 105,
379 Codierung 9, 10, 176, 193, 377 Controller 86, 87
Datei 96, 127, 133, 134, 144, 145, 228
Datenbank 278, 284, 294-299, 306-310, 317
Datenbanksystem 35, 296, 298, 299
Datendurchsatz 87-89, 115
401
Datenelement 107, 132, 133, 284 Datenmode1l271, 280, 297-299 Datensicherheit 86, 87, 91 Datenstruktur 129-131, 134, 141,
249, 250 Design 40, 77, 78, 135, 164, 169,
174, 203, 254, 319, 398 Dezimalzahl 22, 26, 43 Dialogbetrieb 223, 224, 228, 238 Dichte 16, 62, 101, 122, 199 Differenz 56, 57 Digraph 362-370 Diode 65 Diskette 84, 127 Distanz 70, 73, 250, 267 DTM-Programm 347,348
E-R-Modell 275, 310, 317, 334 Ecke 312 Eingabetext 34, 35 Eingabezeichen 230, 343, 348 Eingabezeichenfolge 348, 349 Elektron 60, 63 Elektronen 48, 51, 59-63, 67, 75 Endbenutzer 3, 5, 6, 295, 296,
306 Endknoten 137, 138, 358, 359,
363, 366, 367 Energieebene 59-63, 75 Entscheidungsdiagramm 160, 162,
166 Entwurf 35, 71, 78, 79, 96, 127,
158,183,236,243,244, 310,317
E:r!<ennung 37, 38, 40, 268, 269 Expertensysteme 6, 250, 251 Exponent 26
Feder 49, 51, 52, 308 Feldeffekttransistor 74
Filter 33 Flash-Speicher 81, 82, 120, 124 Flip-Flop 55 Funktionstabelle 342-344
Genauigkeit 27, 101 Geschwindigkeit 38, 45, 48, 59,
70,92,95,119,120,202, 203, 221
Gigabyte 82, 85, 93-97, 110, 125 Gitter 267 Glasmaske 77 Gleitpunktzahl26 Grammatik 38, 40, 234, 236, 239-
242 Graph 136-138, 267, 357, 358,
360,361,366,367,370, 372
Halbleiterspeicher 4,46,47, 79, 81, 120, 124
Haltezustand 345 Hanoi 179, 259, 383 Hauptwelle 34 Hertz 34 Hilfszeichen 232-234 Hinzufiigen 147, 306 Hologramm 116, 117, 119 Holographie 116 Holospeicher 116-119, 124
Indexdatei 127, 145, 379 Indikator 262, 263 Induktionsbehauptung 174, 175 Input 34, 55, 349 Instruktion 199, 201 Integration 320, 321
Job 127, 221-223
Kantenfolge 358, 359
402
Klammer 189 Klasse 6, 97, 115,210,237,247,
249, 341, 346, 348, 349 Knoten 136-141, 147, 210, 267,
358-369, 380 Knotenmenge 360, 361, 365, 368 Kollisionsfunktionen 143 Komplement 56, 57, 185 Kontrolldaten 89 Korrektheit 4,169-171,173,174,
176,177,188,297,374, 381
Korrektheitsbeweise 169 Korrekturbit 22 Korrekturen 150, 151, 319 Kristall62
Loschen 306 Laserstrahl 103, 104, 108, 113 Laufwerk 89-91 Laufzeit 182, 210, 211, 213-215,
218, 355, 387, 388
Magnet 52, 108, 112 Magnetisierung 29, 52, 94, 107,
111, 121-123 Magnetplatte 99, 121, 126, 202 Mantisse 25-27 Maschine 4, 119, 189, 203, 216,
225-229, 245, 255-257, 260,264,265,339-344, 346, 347, 349, 350, 352
Maschinenbefehl189, 200, 215, 245, 341, 388
Maschinencode 78, 219, 220, 354 Masterplatte 103, 105 Matrikelnummer 273, 274, 280,
288 Mehrprogrammbetrieb 222-224 Membran 28
MHz 201-203 Motorola 199, 200, 202 Muster 15, 16, 39, 40, 117, 350
Nachfolger 133, 134, 138, 147 Nachname 286,289 NOR-Funktion 66,68 Normalform 285, 286, 288-291,
300,307,310,315,316, 335
NOT -Funktion 68 NULL-Wert 300, 323 Nur-Lesespeicher 79, 80
Objektprogramm 220 Objektstrahl 117 Objektwelle 116 Operand 192 Operation 57,70, 193,201,203,
217,260,339,341,343, 345, 347, 373
Output 34, 67
Packungsdichte 69, 72, 79, 82, 115, 121, 122
Parameterisierung 34, 35 Partikel 122 PCM-Vercodierung 32 Pfad 19, 120, 138 Pfeile 131, 210, 360, 361 Phasenwechseltechnologie 113, 115,
120, 124 Phonem 35 Phosphorunreinheiten 62, 63 Photographie 115, 116 Pipeline 199, 200 Plattenarray 86, 87 Platteneinheit 82, 124 Plattenlaufwerk 87 PlattenoberfHiche 127
403
Plattenspeicher 82, 98, 120, 121, 202, 203
Platzbedarf 72, 74, 135 Problemebene 247, 251 Problemlosung 252 Produktion 46, 71, 75, 78 Programm 153, 170, 171, 173-
176, 187, 189, 192,203, 205,206,215,220,221, 223-228,230,231,236-238,244,247,250,251, 254-256, 261-263, 265, 296,298,340,350,351, 354-356, 380, 385-387
Programmierer 135, 149, 150, 176, 247, 250, 284,' 296
Programmiersprache 85, 150, 153, 154,176,220,229-231, 236-240, 247, 250, 354
Programmierung 4, 176, 189, 210, 220,236-239,244,250-252
Projekt 276, 279, 305, 323, 327, 329,330
Prozess 252 Prozessor 70, 86, 199-203, 221,
222,226,253-257,260-263, 265-269
Prozessorgeschwindigkeit 201-203 Pufferspeicher 97, 199, 201-203
Quantifizierungsebene 29,30 QueUe 365-367, 370
RAID-Ebene 87-90 Realisierung 4, 51, 68, 69 Realzeitbetrieb 223, 224 Rechenwerk 185, 186, 198, 207,
387
Register 57, 58, 126, 201, 202, 208
Relais 54, 55, 58, 59, 68 Relation 129, 130,136, 137, 170,
173,174,274,278-280, 284-295,299,303,305-307,316,323,324,332, 333, 336
Reorganisation 134, 145 Resonanzwellen 34 Ressourcen 4, 41, 42, 221, 225 Ruhestrom 80 Rundreiseweg 347
Schalter 49-52, 54, 64, 65, 68, 71
Schaltkreis 29, 51, 55, 66-68, 71 Scheibe 179, 257 Schema 48, 296, 298 Schicht 64, 66, 72, 73, 77, 107,
113, 121, 226, 268 Schliissel 127 Schlange 136 Schleife 173-176, 248, 380 Schreibleistung 86 Schreiboperation 89-91 Schreibweise 11, 12, 25, 214 Sektor 21, 84, 106, 111, 127 Semaphor 262, 263 Senke 366, 367, 370 Silizium 61, 62, 73, 75-77, 79 Siliziumkristall 62, 63 Siliziumoxyd 76, 77 Simulation 34, 349 Sohnknoten 139, 141 Spannung 53-55,63,64,66,67,
73 Speicher 15, 23, 39, 42, 45-47,
55, 58, 81, 83, 97, 100, 107, 119, 120, 124, 130,
404
132, 136, 183-185, 190, 201, 203, 228, 265, 339
Speicheradresse 142, 143, 145, 192
Speichereinheit 22, 42 Speichermedien 21, 92, 97-101,
103, 108-111, 115, 116, 120,124,125,145,224, 228
Speichermedium 29, 82, 86, 96, 228
Speicherplatz 15, 89, 142, 143, 190, 209, 285
Speicherstelle 261, 262 Speicherwerk 182, 186, 198, 207,
387 Speicherzelle 46, 55, 183, 189,
193, 204, 340 Spooling 224 Sprache 31, 33, 35, 36, 38-42,
221,229,230,232,233, 236,237,240-242,247, 249, 250, 296, 299
Spracherkennung 36, 37, 39 Sprachmuster 39, 268 Sprechererkennung 36, 37 Sprungbefehl 187 Stapel 126, 135 Stapelbetrieb 223, 228 Stapelverarbeitung 223, 224 Start-Stop-Verfahren 94 Stellenwert 13, 14, 25, 56 Steuerwerk 186, 187, 207, 387 Stichprobe 29, 30 Stimme 34 Strahl 103, 111 Stromverbrauch 71, 72, 74 Struktogramm 162-167,176,211,
381,384
Summanden 56 Syntax 149, 229, 230, 247, 249,
301 Systemzustand 55
Teiltabelle 210 Testen 71, 150, 176 Tiefen 102, 103 Ton 27-29, 32, 33, 36, 41, 101 Tongenerator 34 Tonressourcen 31, 41, 42 Transformiere 333 Transistor 65, 66, 71, 72, 74, 77 Tupel 273, 275, 278, 279, 285,
287, 299, 306-308, 353, 392
Turingmaschine 339-342, 344-348,350
U mmagnetisierung 107, 108 Unterprogramm 162, 245-248
Verarbeitungseinheit 199, 341 Vercodierung 4, 9, 10, 15, 16,
20,31,32,39,105,130, 280,341
Verifikation 37, 250, 251 Verkettung 132-134 Verzweigung 161, 162, 187, 229 Vibration 27 Vierergruppen 14, 15 VLSI-Technologie 58, 71, 79 Vokabularien 38, 40 Vokaltraktes 34 Vorzeichen 26
Wahrheitswert 50 Wald 366, 367 Welle 30, 32, 33, 116 Wellenform 32, 39 Wertemenge 273, 274
405
Wissensabstraktion 250-252 WORM-Platten 100, 106, 107,
124 Wortmuster 37 Wurzel 138, 140, 147, 367 Wurzelknoten 137-140
Zahlensystem 11, 12, 27, 56 Zeigerfeld 134 Zeitscheibe 222-224 Zentraleinheit 198, 208, 223, 238 Zugriffsgeschwindigkeit 99,100,
108, 111, 115, 125, 145 Zusammenhangskomponente 367,
374 Zusammenhangstyp 275, 276, 282 Zyklen 201, 340, 348, 362 Zyklus 138, 201, 202, 345, 349,
364 Zykluszeit 201, 202
A.-W. Scheer
Architektur integrierter Informationssysteme Grundlagen der Unternehmensmodellierung
2., verb. Aufl. 1992. DM 49,80 ISBN 3-540-55401-7
Erstmals im deutschsprachigen Raum beschreibt das vorliegende Buch eine Architektur, in der Funktions-, Organisations-, Daten- und Steuerungssicht eines lnformationssystems detailliert behandelt werden, urn die Komplexitiit integrierter Informationssysteme bewiiltigen zu kiinnen.
Wirtschaftsinformatik Informationssysteme im Industriebetrieb
3., neu bearb. Aufl. 1990. DM 69,- ISBN 3-540-53381-8
Dieses Buch priisentiert die konsequente Nutzung der Datenverarbeitung in allen Bereichen des modemen Industriebetriebes. Fiir die Funktionsbereiche Produktion, Technik, Beschaffung, Absatz, Personal, Rechnungswesen und Verwaltung werden Datenstrukturen konstruiert, urn Dispositions-, Abrechnungs-, Auswertungs- und Planungssysteme zu unterstiitzen.
EDV-orientierte Betriebswirtschaftslehre Grundlagen fur ein effizientes Informationsmanagement
4., viillig neu bearb. Aufl. 1990. (Springer-Lehrbuch) DM 29,80 ISBN 3-540-52397-9
Praxisnahe Beispiele und die Betonung der Anwendungszusammenhange mach en das Buch sowohl fur den Studenten als auch fur den Praktiker aus betriebswirtschaftIicher Fachabteilung oder EDV-Bereich zur interessanten Literatur.
CIM - Computer Integrated Manufacturing Der computergesteuerte Industriebetrieb
4., neu bearb. u. erw. Aufl. 1990. DM 55,- ISBN 3-540-52158-5
Mit Computer Integrated Manufacturing (CIM) wird die computerunterstiitzte Bearbeitung integrierter betrieblicher Ablaufe zwischen Produktionsplanung und -steuerung, Konstruktion, Arbeitsvorbereitung, Fertigung und Qualitiitssicherung verstanden. Den Schwerpunkt des Buches bilden Realisierungs- und Implementierungsstrategien. Es wird eine am Institut des Verfassers entwicltelte Implementierungsstrategie vorgestellt und anhand konkreter Beispiele demonstriert.
Springer Preis1nderungen vorbehalten. B3.06.071
P. Mertens, F. Bodendor( W. Konig, A. Picot, M.Schumann
Grundzuge der Wirtschaftsinformatik 2., verb. Aufl 1992. (Springer-Lehrbuch) DM 22,- ISBN 3-540-55790-3
Dieses Buch filhrt in die Grundzilge der Wirtschaftsinfonnatik ein und unterstiltzt den Unterricht auf unterschiedlichen Ebenen des Bildungssystems. Es ist konsequent an integrierten Anwendungssystemen orientiert.
P.Mertens (Hauptherausgeber); W.Konig, H.Krallmann, A.-W.Scheer, D.Seibt, P.Stahlknecht, H.Strunz, R. Thome, H. Wedekind (Hrsg.)
Lexikon der Wirtschaftsinformatik Redaktionelle Bearbeitung: A. Back-Hock
2., vollst. neu bearb. u. erw. Aufl. 1990. DM 39,80 ISBN 3-540-52684-6
1m Lexikon der Wirtschaftsinfonnatik werden in alphabetischer Reihenfolge die wichtigsten Stichworte dieses noch recht jungen Gebiets behandelt. Die Darstellung entspricht der Art eines Handworterbuchs, sie ennoglicht eine tiefergehende, die Zusammenhange aufzeigende Erlauterung der Begriffe.
K.Kurbel
Entwicklung und Einsatz von Expertensystemen Eine anwendungsorientierte Einfuhrung in wissensbasierte Systeme
2., verb. Aufl. 1992. DM 29,80 ISBN 3-540-55237-5
Das Buch ist ein Lehrbuch zur Einfilhrung in die Expertensystemtechnologie, ihre Methoden und ihre Anwendungspotentiale, vor allem im betrieblichen Bereich.
M.Lusti
Dateien und Datenbanken Eine anwendungsorientierte Einfuhrung
2., durchges. Aufl. 1991. DM 38,- ISBN 3-540-53527-6
. Schwerpunkte dieses anwendungsbezogenen Lehrbuches sind der Entwurf und die Abfrage von Datenbanken in Anwendersprachen. Besonderer Wert wird auf die didaktisch-methodische Gestaltung gelegt: Jedes Kapitel beginnt mit einer strukturierten Liste der wichtigsten Begriffe. Zusammenfassungen und Aufgaben wiederholen und vertiefen den stoff jedes Kapitels.
Springer Preistnderungen vorbehalten. 83.06.071