Rechnerarchitektur
Springer Berlin (Verlag)
978-3-540-10352-3 (ISBN)
- Titel erscheint in neuer Auflage
- Artikel merken
1 Einleitung.- 1.1 Was ist Rechnerarchitektur?.- 1.2 Zum Stand der Technik bei den Hardware-Komponenten.- 1.3 Motivation für innovative Rechnerarchitekturen.- 1.4 Das hierarchische Schichtenmodell eines Rechnersystems.- 1.5 Die Konstituenten einer Rechnerarchitektur.- 1.5.1 Definitionen.- 1.5.2 Abstrakte Datentypen.- 1.6 Taxonomie von Rechnerarchitekturen.- 1.6.1 Allgemeine Bemerkungen.- 1.6.2 Operationsprinzipien.- 1.6.3 Strukturen von Rechnerarchitekturen.- 1.6.4 Die OS-Matrix.- 2 Die klassische von Neumann-Maschine.- 2.1 Die Struktur der klassischen von Neumann-Maschine.- 2.2 Das Operationsprinzip der von Neumann-Maschine.- 2.3 Berechnung und Ablaufkontrolle durch die von Neumann-Maschine.- 2.4 Programmstrukturen.- 2.5 Das Petrinetz-Modell für konkurrente Prozesse.- 2.6 Grundlagen der Speicher organisation im von Neumann-Rechner.- 2.6.1 Der Working Set eines von Neumann-Programms....- 2.6.2 Schutzmechanismen.- 3 Strukturen von Einprozessor-Systemen.- 3.1 Die zentrale Recheneinheit (CPU).- 3.1.1 Die minimale von Neumann-Maschine.- 3.1.2 Mehrregister-Maschinen.- 3.1.3 Anwendung des Pipeline-Prinzips im Prozessor.- 3.2 Speicherorganisation und Speicherverwaltung.- 3.2.1 Seitenadressierung.- 3.2.2 Abbildung eines kleineren logischen Adreßraums auf einen größeren physikalischen Adreßraum.- 3.2.3 Abbildung eines größeren logischen Adreßraums auf einen kleineren physikalischen Adreßraum.- 3.2.4 Cache-Speicher.- 3.2.5 Speicher-Segmentierung.- 3.3 Capability-Adressierung.- 3.3.1 Capability-Adressierung und Speichersegmentierung.- 3.3.2 Referenz über Capability-Register.- 3.3.3 Einführung eindeutiger Objekt-Identifikatoren.- 3.4 Bus-Organisation.- 3.5 Ein/Ausgabe-Organisation.- 3.6 Mikroprogrammierung und „vertikale Verlagerung“.- 4 Konzepte der Parallelarbeit.- 4.1 Der Parallelismus und seine Nutzung.- 4.2 Die Ebenen der Parallelarbeit.- 4.3 Erkennung von implizitem Parallelismus.- 4.3.1 Automatische Erkennung von Parallelismus auf der Operations-Ebene.- 4.3.2 Automatische Erkennung von Parallelismus auf der Anweisungs-Ebene.- 4.4 Programmierung von Parallelarbeit.- 4.4.1 Anweisungs-Ebene.- 4.4.2 Prozeß-Ebene: Explizite Synchronisation.- 4.4.3 Prozeß-Ebene: Implizite Synchronisation.- 4.4.4 Der tasking-Mechanismus von Ada (GREEN).- 4.4.5 Die Multiprogramming-Ebene.- 4.5 Datenstrukturen und Parallelarbeit.- 4.6 Arrays oder Pipelines von Bearbeitungselementen und ihr Wirkungsgrad.- 4.7 Vergleich zwischen Pipeline und Array von Bearbeitungselementen.- 4.8 Verbindung der PEs zu einem Prozessor-Array.- 4.9 Wirkungsgrad von Multiprozessor-Systemen.- 5 Innovative Rechnerstrukturen mit von Neumann-Operationsprinzip.- 5.1 Zellulare Systeme: Die Holland-Maschine.- 5.1.1 Vorbemerkungen über zellulare Systeme.- 5.1.2 Die Holland-Maschine.- 5.1.3 Comforts Variante der Holland-Maschine.- 5.1.4 Kritik der Holland-Maschine.- 5.2 Arrays von Bearbeitungselementen; ILLIAC IV.- 5.2.1 Grundsätzliches.- 5.2.2 Das Grundkonzept der ILLIAC IV als Beispiel eines Prozessor-Arrays.- 5.2.3 Die Organisation des ILLIAC IV.- 5.2.4 Programmierung der ILLIAC IV.- 5.2.5 Kritik der ILLIAC IV.- 5.3 System mit einer Vielzahl von Datenprozessoren: CDC 6600.- 6 Feldverarbeitungs-orientierte Rechnerarchitekturen.- 6.1 Vektor-Maschinen.- 6.1.1 Leistungsfähigkeit der Pipeline-Verarbeitung.- 6.1.2 Operationsprinzip der Vektor-Maschinen.- 6.1.3 Struktur von STAR 100 und CYBER 200.- 6.1.4 Struktur der CRAY-1.- 6.2 Verfeinerung des Konzepts der Bearbeitung geordneter Datenmengen; STARLET.- 6.2.1 Strukturbildungsfunktionen und Speicherzugriffsfunktion.- 6.2.2 Die Informationsdarstellung in der STARLET-Maschine.- 6.2.3 Der Struktur-Datentyp VECTOR der STARLET-Maschine..- 6.3 Assoziative Rechner.- 6.3.1 Assoziativspeicher.- 6.3.2 STARAN, ein assoziativer Feldrechner.- 7 Selbst-beschreibende Information und Datentypen-Architekturen.- 7.1 Vorteile einer Typenkennung.- 7.1.1 Typenabhängige Befehlsausführung.- 7.1.2 Erhöhung der Fehlersicherheit.- 7.1.3 Aufbau von Struktur-Datentypen.- 7.1.4 Unterstützung der Mechanismen höherer Programmiersprachen.- 7.1.5 Unterstützung des Betriebssystems.- 7.2 Hierarchische Typenkennung.- 7.3 Anwendung des DRAMA-Prinzips: Datentypen-Architekturen.- 7.3.1 Allgemeines über Datentypen-Architekturen.- 7.3.2 Hierarchischer Aufbau von Datentypen aus einem Grundbaustein.- 7.4 Tagged Architectures und DRAMA-Maschinen.- 8 Spracharchitekturen.- 8.1 Prinzipien der Schließung der „semantischen Lücke“ zwischen HLL und ML.- 8.2 Keller-Maschinen.- 8.2.1 Der Maschinen-Datentyp KELLER.- 8.2.2 Anwendung des Kellers zur Berechnung von Ausdrücken und Anweisungen.- 8.2.3 Keller für den Unterprogramm-Aufruf.- 8.2.4 Keller zur Darstellung der Blockstruktur einer HLL.- 8.2.5 Beispiel einer Kellermaschine: P-Maschine.- 8.3 Unmittelbare Ausführung des HLL-Programms: Die SYMBOL-Maschine.- 8.3.1 Allgemeine Kennzeichnung des SYMBOL-Systems.- 8.3.2 Sprache, Datentypen und Informationseinheiten der SYMBOL-Maschine.- 8.3.3 Speicherverwaltung im SYMBOL-Rechner.- 8.4 Direkt ausführende Architektur mit Darstellungstranformation: Burroughs B6700.- 8.4.1 Allgemeine Kennzeichnung der B6700.- 8.4.2 Informationseinheiten und Keller-Organisation der B6700.- 8.4.3 Programmausführung in der B6700.- 8.5 Sprachorientierte Rechnerarchitekturen: APL-Maschinen.- 8.5.1 Eigenschaften von APL.- 8.5.2 Direkte Ausführung von APL.- 8.5.3 Beispiel einer APL-Maschine.- 8.6 DRAMA-Maschinen als sprachunterstützende Architektur.- 9 Datenfluß-Multiprozessorarchitekturen.- 9.1 Einleitung.- 9.2 Der „Prozessor-Baum“ für die Berechnung arithmetischer Ausdrücke.- 9.3 Reduktionsmaschinen (applicative machines).- 9.4 Datenfluß-Architektur mit fester Zuordnung der Operationseinheiten.- 9.5 Elementares Datenfluß-Schema und elementarer Datenfluß-Prozessor.- 9.6 Verallgemeinertes Datenfluß-Schema und die Datenfluß-Basismaschine.- 9.7 Das LAU-System.- 9.8 Zusammenfassende Betrachtungen über Datenfluß-Architekturen.- 10 Allzweck-Multiprozessorarchitekturen.- 10.1 Multiprozessor-Systeme mit zentralisierter Kontrolle.- 10.1.1 Definitionen.- 10.1.2 Asymmetrische Multiprozessor-Systeme.- 10.1.3 Symmetrische Multiprozessor-Systeme.- 10.1.4 Zentrale Betriebssystem-Aufgaben in Multiprozessor-Systemen.- 10.2 Strukturen von Multiprozessor-Systemen mit zentralisierter Kontrolle.- 10.2.1 Strukturen von Verbindungseinrichtungen.- 10.2.2 Realisierungen von Verbindungseinrichtungen.- 10.3 Beispiele für Multiprozessor-Systeme.- 10.3.1 Cmmp — ein symmetrisches Multiprozessor-System.- 10.3.2 Cm* — ein symmetrisches Multiprozessor-System.- 10.3.3 Ein Multiprozessor-System mit Hardware-Überwacher.- 10.4 Verteilte Systeme.- 10.4.1 Die drei Klassen verteilter Systeme.- 10.4.2 Verteilte Polyprozessor-Systeme: Allgemeine Betrachtungen.- 10.4.3 Übertragungs- und Zugriffsprotokolle.- 10.4.4 Inter-Prozeß-Kommunikations-Protokolle.- Literatur.
| Erscheint lt. Verlag | 1.1.1981 |
|---|---|
| Reihe/Serie | Heidelberger Taschenbücher ; 208 |
| Zusatzinfo | XV, 380 S. |
| Verlagsort | Berlin |
| Sprache | deutsch |
| Maße | 133 x 205 mm |
| Gewicht | 460 g |
| Themenwelt | Mathematik / Informatik ► Informatik ► Netzwerke |
| Mathematik / Informatik ► Informatik ► Theorie / Studium | |
| Informatik ► Weitere Themen ► Hardware | |
| Schlagworte | Rechnerarchitektur |
| ISBN-10 | 3-540-10352-X / 354010352X |
| ISBN-13 | 978-3-540-10352-3 / 9783540103523 |
| Zustand | Neuware |
| Informationen gemäß Produktsicherheitsverordnung (GPSR) | |
| Haben Sie eine Frage zum Produkt? |
aus dem Bereich