Hauptmenü öffnen
verweis=Datei:%22von_Neumann%22_Architektur_de.svg

Bildungs- und Lehraufgabe: Die Schülerinnen und Schüler..

  • kennen die berufsspezifische Sicherheitsvorschriften sowie berufseinschlägige Umwelt- und Qualitätsstandards und können die Unfallgefahren im beruflichen Alltag analysieren,
  • kennen die ergonomisch richtige Haltung bei der Ausführung berufsspezifischer Arbeiten und können diese beschreiben,
  • können Geräteverbindungen nach Einsatzgebieten unterscheiden und fallbezogen auswählen,
  • können Daten in unterschiedlichen Formaten erkennen sowie geeignete Datenformate auswählen und begründen.

Quelle: Landeslehrplan der Vorarlberger Landesberufsschulen für den Lehrberuf Informationstechnologie - Technik, Landesberufsschule Feldkirch BGBl. II Nr. 211/2016 Anlage 63 gültig ab Schuljahr 2017/2018.

- Bemerke: Informationstechnologie (Schwerpunkte: Betriebstechnik oder Systemtechnik) löst Informationstechnologie- Technik gem. GZ: BMBWF_10.590/0001-I/10/2018 ab. Bedeutet: Den Lehrberuf "IT-Techniker", den ich 2018 betreten habe und über den ich hier auf dieser Notizen-Seite schreibe, gibt es nicht mehr. Nachdem ich mich über die neuen 2 Lehrberufe informiert habe ist mir u.A. natürlich aufgefallen dass sich (logisch resultierend nach dieser Änderung) der Lehrplan in gewissen Teilen drastisch verändert hat. Anders als beim Fach NWT hingegen, hat sich der grundlegende Abschnitt der "Bildungs- und Lehraufgaben" nicht geändert. Es kam anscheinend sogar noch mehr dazu, je nachdem welcher der 2 neuen Berufe man hat. Siehe hierfür die angegebene Quelle.


Inhaltsverzeichnis

Allgemeine Einführung (#1)

Geschichte (#1.1)

Rechenhilfen und Rechenmittel (#1.1.2)

Der Abakus war einer der frühesten Hilfsmittel zum Addieren und Subtrahieren. (Multiplikation und Division sind auch möglich) Er ist bis heute noch in vielen Kinderzimmern und asiatischen Ländern vorzufinden.

Ein großer Meilenstein im Rechnen des 15. Jahrhunderts war der Rechenstab, welche erst mit der Erfindung des elektronischen Taschenrechners im 20. Jhr. abgelöst wurde.

(Randinfo: Bis zum ende des 19. Jahrhunderts nutzten die Menschen noch sog. Kerbhölzer um zB. Schulden bei Banken zu notieren, indem man die Größe der Schulden in römischen Zahlen einritzte.)

Mechanische Rechenmaschinen (#1.1.3)

 
Nachbau der Rechenmaschine von Wilhelm Schickard, 1623. Quelle: Wikimedia
 
6-stellige Rechenmaschine von Blaise Pascal, 1652. Quelle: Wikimedia
 
Leibniz' Vier-Spezies-Rechenmaschine - Original, 1690. Quelle: Wikimedia
 
Arithmometer von Charles Xavier Thomas Colmar, 1852. Quelle: Wikimedia

Im Zeitalter der mechanischen Rechenmaschinen wurden dir Grundlagen unserer heutigen modernen Rechnersysteme geschaffen. Viele kühne Ideen, das Rechnen auf Maschinen zu übertragen, scheiterten in früherer Zeit an der Möglichkeit der technischen Umsetzung.
So z.B. wurde die Idee wahrscheinlich einer Additionsmaschine von LEONARDO da VINCI (1452 - 1519) erst 1968 durch ROBERTO GUARELLI im Auftrag der IBM umgesetzt.

Wilhelm Schickard und Blaise Pascal

WILHEM SCHICKARD (1592 - 1635) war einer der Pioniere, der bereits um 1623 die sog. Schickard-Maschine (eine "Rechenuhr") unter Verwendung der NAPIERschen Rechenstäbe erfand und in einem Brief an Johannes Kepler darüber berichtete.
Obwohl bedeutsam, erfuhr die Schickard-Maschine keine weitere Verbreitung.

Lange Zeit galt deshalb BLAISE PASCAL (1623 - 1662) - Schriftsteller, Philosoph, Mathematiker und Physiker - als der Erfinder der mechanischen Additionsmaschine, der sogenannten Pascaline.
PASCAL entwickelte die Rechenmaschine, um seinen Vater bei der aufwändigen Rechenarbeit eines Steuererhebers zu unterstützen.

WILHELM LEIBNITZ

Bekanntester Deutscher bei der Entwicklung von Rechenmaschinen war GOTTFRIED WILHELM LEIBNITZ (1636 - 1716).

  • Seine Rechenmaschine vereinigte als erste alle vier Grundrechenarten auf direktem Wege mittels Staffelwalzen.
  • LEIBNITZ war auch der erste, der sich um eine Umsetzung des von ihm eingeführten binären Zahlensystems bemühte. Damit gehört er zu den Wegbereitern der modernen Informationsverarbeitung.

Charles Xavier Thomas

Der Elsässer CHARLES XAVIER THOMAS de COLMAR (1785 - 1870) lässt mit dem "Arithomether" die erste industriell gefertige Additionsmaschine entstehen. Von dieser mechanischen Rechenmaschine wurden rund 18.000-Stück hergestellt und danach nahezu 100 Jahre lang zahlreiche nachgebaut.







Charles BABBAGE + die "erste ProgrammiererIN der Welt"

Ein weiterer Meilenscheritt hin zur modernen Computertechnik war die Differenzmaschine des englischen Mathematiker CHARLES BABBAGE (1791 - 1871). Mit seine Konzept des Vierspezies-Rechenwerkes, welcher über:

  • Einen Zahlenspeicher für 1000-Zahlen
  • einer Lochkartensteuereinheit für den Programmablauf
  • Datentransport sowie Geräten zur Datenein- und -ausgabe
  • und einem Drucker

verfügte, schuf er das Prinzip eines programmierbaren Digitalrechners. Mit der Idee des bedingten Sprungbefehls und der Schleife in der Programmierung ging die Freunding BABBAGEs, Lady AUGUSTA ADA BRYON (1815 - 1852), zeitgleich als die erste "Programmiererin" in die Geschichte der Datenverarbeitung.




Elektromechanische Rechenmaschinen (#1.1.4)

Im 19. Jhr. leitete HERMANN HOLLERITH, welcher 1924 die Firma IBM gründete, mithilfe seiner Erfindung der Lochkartenmaschine die Ära der elektrotechnischen Massendatenverarbeitung ein.

Initiiert durch die Tatsache, dass die Auswertung der Volkszählung 1880 (USA) mehr als sieben Jahre gedauert hatte, setzte Hollerith zur Auswertung der Daten eine Lochkarte mit 80 Stellen zur Datenspeicherung ein.

  • Zur Auswertung entwickelte er eigene Locher, Zählmaschinen und Sortierer, die 1889 als Patent angemeldet wurden und 1901 auf der Pariser Weltausstellung eine Goldmedaille erhielten.
 
Maschine nach Holleriths Lochkartenrechner * Rechts: Lochkartenleser und Zählwerke * Links: Lochkartenlocher Quelle: Wikimedia

Gründung von IBM

Im Eilzugtempo eroberte sich diese Erfindung in vielen Ländern wie Österreich, England und Deutschland.
Die von HOLLERITH gegründete Firma wurde über verschiedene Fusionen 1924 zur International Business Maschines Corporation (IBM) umgewandelt. Die Lochkartentechnologie mit ihrer 89-Stellen-Lochkarte wurde in den 1950er und 1960 Jahren zum Business-Standard.













Elektronische Rechenmaschinen (#1.1.5)

 
Harvard Universities' Nachbau des Harvard-IBM Mark I Computers, 2014.Quelle der 2 Bilder: Wikimedia (1) (2)
 
Nachbau der Zuse Z3 im Deutschen Museum in München, 2006. Quelle: Wikimedia
 
Bild indem ein Mann und eine Frau mit einem IBM Typ-704 für Berechnungen für die Luftfahrtforschung arbeiten, 1957. Quelle: Wikimedia


Auf der Grundlage des sog. BABBAGEschen Konzeptes setzten sich in den 1950er-Jahren die sog. "von-NEUMANN-Rechnerarchitektur" durch. Die fünf Hauptkomponenten hierbei sind Steuerwerk, Rechenwerk, Speicher, Eingabe und Ausgabe. Nach diesem Prinzip wurden und werden in den verschiedenen Generationen von Basistechnologien Computer gebaut:

  • Relais- und Röhrenrechner als erste Generation,
  • Transistorenrechner in der zweiten,
  • integrierte Schaltkreise in der dritten
  • und schließlich die heutigen Mikro-Chips als vierte Generation.

Software, Programmiersprachen

Entscheidend für die Entwicklung waren aber waren aber nicht nur die Computertechnik, sondern auch die Software.

Maschinencodes (1. Gen) wurden schnell durch

ersetzt. Ähnliches gilt auch für die Betriebssysteme als Basissoftware für das Zusammenwirken der einzelnen Hardwarekomponenten.

Pioniere des modernen Computers

Pioniere des Modernen Computers sind in den USA HORWARD H. AIKEN (1900 - 1973) mit seinem "Mark1" und in Deutschland "Z1- bis Z4-Serie".

Der erste voll programmierbare Rechner war allerdings der von ZUSE 1941 in Berlin vorgestellte elektromechanische Computer "Z3".

Rechenmaschinen wie die Z4 wurden Anfang der 1950er-Jahre in kontinentaleuropäischen Hochschulen verwendet.

In den 60/70er wurden die Großrechner (Mainframes) immer leistungsfähiger. Markt- und Technologie-Führer war hierbei IBM, die neben Anlangen für die Privatwirtschaft vor allem Anlangen an Militär- und Forschungseinrichtungen lieferten. (Neben IBM trieben Universitäten und private Forschungseinrichtungen, wie die "Bell Laborities" oder "Rank Xerox") die technologische Grundlagenforschung und Weiterentwicklung stetig weiter voran)

Personal Computing (#1.1.6)

In den 70er kamen die ersten Mikroprozessoren auf den Markt, die die technische Grundlage des PC bildeten.
Anfang der 80er stelle IBM den ersten PC mit dem Betriebssystem MSDOS, entwickelt von BILL GATES und PAUL ALLEN vor. Anfang als die Antwort auf zunehmende kleine Homecomputer gedacht, bildeten sie später die Grundlage des heutigen PCs.
(Neben IBM PC teilen sich Unternehmen wie Apple, Commodore oder Atari den Markt der Homecomputer)

Obwohl es durch die Einführung des PC ein Computer nun einiges erschwinglicher war, gab es noch ein Problem: Die Programme waren alle sehr schwer und Text-basiert. Dies änderte sich, als Apple 1984 die erste Grafische Benutzeroberläche (GUI) auf den Markt brachte.

Parallel zur Entwicklung des PC traten auch noch andere technologische Entwicklungen voran. 1980 wurde das Ethernet spezifiziert, welches die physikalische Grundlage des Local Area Networks (LAN) bildet.

1985 wurde die erste Version von Microsoft Windows angeboten, welche sich explosionsartig durch die Verbreitung des PCs sowie einfach Bedienbare Programme ausbreitete, und wurde somit Standard.
Aufgrund geschickter Marketingmaßnahmen (zB. kostenloser Internet Explorer) verschwanden auch immer mehr Konkurrenten und konnten sich in einigen Bereichen "einfach zurücklehnen". (zB. Befolgt der IE nur SEHR geringe Standards des W3C-Konsortiums).


 
Screenshot von WorldWideWeb (auch bekannt als Nexus), dem ersten Webbrowser, unter NeXTStep. Quelle: Wikimedia

Internet (#1.1.7)

1989 wurde von T. Berners-Lee das WorldWideWeb (WWW, W3) entwickelt. Es beinhaltete das HTTP-Protokoll, die Seitenbeschreibungssprache HTML und einen ersten zeichorientierten Browser.
Zuerst war es überwiegend nur für die nutzen der weltweiten Kommunikation oA. genutzt. 1994 fand es aber auch vermehrt private Nutzung:

  • 5 Jahre später, also 1994, entwickelte SUN die Programmiersprache Java, welche im Zusammenhang mit dem Internet für Plattform-unabhängige Applikationen sorgen sollte.

Überblick Zeitachse (#1.1.8)

Jahr Beschreibung
1935 Konrad Zuse beginnt in Deutschland mit der Entwicklung einer programm-gesteuerten Rechenanlage.
1936 Bau einer schreibenden Tabeliermaschine mit auswechselbarem Programm. Der Programmwechsel erfolgte durch Austauschen der Schalttafel.
1941 Zuse stellt der Welt die erste programmgesteuerte Rechenmaschine der Welt, die Z3, vor. Das Programm ist in einem Kinofilmstreifen gelocht. Die Z3 enthält 2600 Fernmelderelais.
1944 Der Harvard MARK I von Hovard H. Aiken rechnet mit 72 Addierwerken zu je 23 Dezimalstellen. Das Gerät besteht aus 700.000 Einzelteilen.
1946 John Eckert und John Mauchly stellen ENIAC, den ersten Elektrorechner der Welt vor. Er enthält 18.000 Elektronenröhren und 15.000 Relais. Die Programmerung erfolgt über Schalttafeln und Stecker.
1949 Entwicklung des MARK II, der mit Magnettrommelspeicher arbeitet.
1952 Der Mark IV erhält einen Ferrit-Kernspeicher.
1953 Zweite Rechnergeneration, die nicht mehr mit Röhren, sondern mit Transistoren bestückt ist. Bau der Rechenanlage G1 im Max-Planck-Institut.
1954 Beginn der Massenproduktion von Transistoren und damit Anfang der industriellen Fertigung von Computern.
1956 Als externe Speicher werden Magnetbandgeräte eingesetzt.
1957 Die Programmiersprache FORTRAN wird vorgestellt.
1958 Die ersten transistorgesteuerten Computer werden angeboten. Erste EDV-Anlage mit simultaner Bearbeitung mehrerer Programme.
1960 Neben Magnettrommelspeichern werden erstmalig Magnetplattenspeicher verwendet.
1961 Die Programmiersprache COBOL wird präsentiert. Der Stil dieser Programmiersprache ist stark an die natürliche Sprache angelehnt und dient vor allem der Programmierung kaufmännischer Anwendungen.
1964 Das Zeitalter der "Dritten Computer-Generation" mit integrierten Schaltkreisen schreitet auf den Markt.
1966 Texas Instruments erfindet den Thermodrucker.
1967 Die ersten Mehrbenutzersysteme (Time-sharing-Rechner) kommen auf den Markt.
1970 Erste kommerzielle EDV-Anlage, deren Arbeitsspeicher aus Halbleitern besteht. IBM 370/145. Beginn des Zeitalters der "Vierten Computer-Generation" - Hochintegrierte Schaltkreise, erste Software-Konzerne wie SAP (1972) und Microsoft (1975) werden gegründet.
1971 Erster technisch-wissenschaftlicher Taschenrechner "[HP-35" von Hewlett Packard
1974 Der erste frei programmierbare Taschenrechner "[HP-65" wird von Hewlett Packard, kurz HP, vorgestellt.
1975 Die ersten Small-Business Computer für kleinere Betriebe kommen auf den Markt. Paul Allen gründet zusammen mit Bill Gates die Softwarefirma Microsoft.
1976 Texas Instruments (TI) stellt den ersten magnetischen Blasenspeicher mit einer Kapazität von 92.000 Bit pro Chip vor. Erste Aktivitäten von Apple (Firmenlogo)
1978 Beginn des Mikrocomputer-Booms in den USA, Markteinführung sind Commodore, Tandy, Apple. Das Jahr 1977 wird als das Geburtsjahr der Computer bezeichnet. Bill Gates und Paul Allen gründen MICROSOFT offiziell.
1977 Erster kommerzieller genutzter Computer mit synthetischer Sprache. Die ersten 5.25 Zoll Diskettenlaufwerke kommen auf den Markt.
1979 Der Boom der Heim-, Hobby und Personalcomputer "schwappt" auf Europa über. Erste Textverarbeitungs- und Tabellenkalkulationsprogramme kommen auf den Markt.
1980 Seagate bringt eine erste Fesplatte mit 5MB Speicherplatz auf den Markt. Kostenpunkt: 3.500$ !
1981 Das Betriebsystem "CP/M" setzt sich bei Mikrocomputersystemen als Marktführer durch. Microsoft bringt das Betriebssystem MS-DOS 1.0 auf den Markt.
1982 Der Personal-Computer von IBM hält in Europa Einzug und setzte Maßstäbe. MS-DOS 1.1 wird zum Quasi-Standard für 16-Bit-Mikrocomputersysteme. Die Kompatibilität zum IBM-PC wird von den Mitbewerbern in zunehmendem Masse als Werbeargument angeführt. Der PC namens Commodore C64 wird über 20 Millionen mal verkauft.
1983 Microsoft präsentiert sein erstes Word, MS-DOS 2.0 und einen Flight Simulator.
1984 MS-DOS von Microsoft trägt nun die Version 3.1. Die ersten grafischen Benutzeroberflächen von Apple erscheinen (MacOS). Der MacIntosh lässt sich über ein experimentelles Zeigegerät namens 'Maus' bedienen. Zuerst als Witz über Apple gedacht (Quote von John C. Dvorak: "Ich kann mir jedoch kaum vorstellen, dass es jemand freiwillig in die Hand nimmt.") und dank des PC-Booms heute überall aufzufinden.
1985 Der Amiga setzt sich als Spielcomputer bei vielen Jugendlichen durch. Apple bringt den ersten Laser-Drucker auf den Markt. Microsoft versucht sich mit Windows 1.0 (Flop)
1986 Das CD-ROM beginnt seinen Siegeszug als Software-Distributionsmittel. SCSI-1 wird standardisiert. Microsoft kommt mit MS-DOS 32.
1987 Der Computer setzt sich allmählich in der Geschäftswelt durch. Apple läutet die MAC II Generation mit ersten Plug and Play Funktionen ein. Microsoft bringt Windows 2.0 und die erste Windows-Anwendung Excel auf den MArkt.
1988 Der EISA-Standardbus (Extended ISA, aka. ISA-Bus mit 32 Bit) wird standardisiert.
1989 Der PCMCIA-Standard wird festgelegt, was dem "Mobilen PC" einen Aufschwung verleiht. Microsoft liefert erstmals Offices auf CD.
1990 Das Windows-Zeitalter wird mit Windows 3.0 eingeläutet. Für die Werbung wird über 10 Mio. $ ausgegeben. Gleichzeitig beendet Microsoft die Zusammenarbeit mit IBM.
1991 Apple bringt die ersten Mac PowerBook's auf den Markt. Das Internet wird öffentlich und bringt mit dem WWW den großen Durchbruch. Das MS-DOS trägt nun die Version 5.0 und die Programmiersprache Visual BASIC kommt auf den Markt.
1992 Hersteller wie Compaq erobern das Kinderzmmer und den immer stetiger wachsende Home-Markt. Windows 3.1 ist erhältlich.
1993 Die ersten erschwinglichen CD-Brenner erscheinen. Die Plug und Play Spezifikation werden definiert. Windows NT, NT Workstation und Advanced Server bringen Sicherheit ins Netzwerk. Erste Pentium Rechner.
1994 Festplatten erreichen den Gigabyte-Bereich. Alternative Speichermedien wie Iomega Zip Drive (100MB) kommen auf den Markt.
1995 Windows 95 und Office 95 werden massiv von Microsoft beworben und setzen neue Maßstäbe.
1996 Von Microsoft: Windows NT 4.0, Internet Explorer 2.0 und 3.0, Windows CE, [ https://de.wikipedia.org/wiki/Visual_J%2B%2BVisual Visual J++] (Microsofts versuch einer Implementierung von Java), Office 97.
Von Netscape: Navigator 2.02 und 3.0
1997 Erste Java-Programme. Erste Pentium-II Rechner. Microsoft Internet Explorer 4.0
1998 Windows 98 wird erstmals als Plug und Play fähig angepriesen. Jedoch unterstützen noch nicht alle Hersteller diesen Standard.
1999 Pentium III wird zum Standard. Wachsende Ängste um Millenniums-Taughlichkeit der Programme und der Hardware. Mit der Angst wird in der Computerbranche viel Geld verdient.
2000 Windows 2000 und Office 2000. Die Ereignisse und Möglichkeiten in der Computer-Branche überschlagen sich. Das Internet wird täglich zum Gesprächsthema und somit auch dessen Sicherheit.
2001 Windows XP kommt heraus, Festplatten für den normalen Benutzer mit 80 und mehr GB sind erhältlich, erste erschwingliche DVD Brenner kommen heraus, Pentium4 wird Industriestandard. AMD wird mit den XP-Prozessoren zum größten Intel-Gegner.
2002 Microsoft setzt Sicherheit als neuen Schwerpunkt. Apaches Webserver besitzt eine Marktdominanz mit über 60% Webserver-Anteil.
2003 Microsoft bringt Windows Server 2003 heraus. SCO verklagt führende Linux-Distributoren auf Lizenzgebühren.
2004 Intels Prozessoren überschreiten die 3GHz Taktfrequenz.
2005 Festplatten mit 300GB sind erhältlich.
2006 Noch schneller, größer, besser...

Digitale Informationsverarbeitung (#1.2)

Zahlensysteme dienen dazu, Zahlen nach einem bestimmten Verfahren darzustellen.

  • Das Dezimalsystem verwendet 10 Ziffern ("0"..."9") und dank seiner für den Menschen recht einfachen Anwendung ist es das in aller Welt bevorzugte Zahlensystem.
  • Das Binärsystem, auch Dualsystem genannt, verwendet nur 2 Ziffern ("0" und "1"). Es eignet sich gut für die elektronische Datenverarbeitung, da man hier sehr leicht zwischen zwei Zuständen unterscheiden kann: niedrige Spannung (="0") oder hohe Spannung (="1") - mit einer Kette aus selbst dicht hintereinander-folgenden Stromstößen kann eine einfache Kette an Binären Daten schnell und leicht verschickt werden.
  • Das Hexadezimalsystem verwendet 15 Ziffern ("0"..."9";"A"..."F") und wird oft zur Darstellung von im Computer gespeicherter Daten verwendet, weil Binärzahlen sehr lang und sehr unübersichtlich werden können.

Darstellung der Zahlensysteme (#1.2.1.4)

Zur Demonstration wird dieselbe Dezimalzahl "159,5" in allen drei gängigen Zahlensystemen dargestellt.

Binär Dezimal Hexadezimal
Zusammensetzung

1×102 = 100
5×101 = 50
9×100 = 9
5×10-1 = 0,5

1×27 = 128
0×26 = 0
0×25 = 0
1×24 = 16
1×23 = 8
1×22 = 4
1×21 = 2
1×20 = 1
1×2-1 = 128

9*161 = 144
F*161 = 15
8*161 = 0,5

Ergebnis 159,5d 10011111,1b 9F,8h

Zur leichteren Unterscheidung bei der gleichzeitigen Verwendung verschiedener Zahlensysteme können verschiedene Schreibweisen verwendet werden.

Schreibweise Binär Dezimal Hexadezimal
Tiefstellung der Basis 11012 1310 D16
Präfix %1101 #13 $D
Postfix 1101b 13d Dh

Informationseinheiten (#1.2.2)

Das Bit, Byte und Word (#1.2.2.2/3/4)

  • Das Bit ist die kleinste Einheit. Sie kann einen Zustand von 0 oder 1 annehmen.
  • Mehrere Bits können zusammen eine Zahl von bis zu 2Anzahl an Bits annehmen. 8 Bits aneinander werden ein Byte genannt.
  • Ein "(Daten-)Word" ist 16-Bits und Double Word 32-Bits groß. Die Bedeutung liegt im Zusammenhang des darstellbaren Zahlenbereichs, sowie den Busbreiten der gängigen Prozessoren in 16- bzw. 32 Bit Technologie zusammen.


Kodierung (#1.2.3)

Problemstellung (#1.2.3.1)

Für den Computer sind alle Informationen, die er verarbeitet, binäre Zahlen-ströme. Man möchte den Computer aber nicht nur dazu verwenden, mathematische Berechnungen durchzuführen, sondern auch, um Zeichen auszugeben.

Hierzu wird eine Art Tabelle angefertigt, in dem ein Buchstabe oder ein Symbol einer fixierten Zahl zugewiesen wird.

Es gab dutzende Versuche von verschiedenen Firmen und Ländern, eine eigene Tabelle rauszubringen und diese zum Standard zu machen. Bis heute aber haben sich nur 3 wirklich durchsetzen können:

ASCII (normale Zeichen) (#1.2.3.2)

Dieser Standard kodiert ein Zeichen mit 8 Bits, das heißt dass es auf 256 Zeichen beschränkt ist. Die ersten 128-Zahlen wurden wie folgt standardisiert:

  • Als erstens kamen die Drucksteuerzeichen
  • gefolgt von Zeichen für die Interpunktion und den
  • normalen Zeichen des Alphabets

Der erweiterte Teil des ASCII Codes ist für nationale und andere Sonderzeichen reserviert (128 Bits).

Wegen der Beschränkung der Sonderzeichen, sowie die nicht-Standardisierung der Sonderzeichen von ASCII (Auf jedem Betriebsystem anders dargestellt), wurde der ANSI Code entwickelt.

ANSI (ASCII + Sonderzeichen) (#1.2.3.3)

ANSI basiert auf den ersten 127 Bits der ASCII-Zeichen, verwendet aber 16 Bits für die Darstellung der Zeichen.
Der Wertebereich liegt somit bei 65536 Zeichen.
Dieser Wertebereich ist zwar ausreichend, aber nicht international normiert (d.H. Die Zeichen sind je nach OS/App/Sprache anders), weswegen Unicode entwickelt wurde.

Unicode (Sonderzeichen bekannter Schriftkulturen) (#1.2.3.4)

Unicode ist ziemlich gleich aufgebaut wie ANSI (16 Bits), jedoch ist es überall gleich und unabhängig von OS/App/Sprache. Somit können Programme problemlos in die meisten Sprachen übersetzt werden. (Java benutzt Unicode)

Computerarchitektur (#2)

Von-Neumann Architektur (#2.1)

 
verweis=Datei:%22von_Neumann%22_Architektur_de.svg

Die Architektur heute gängiger Computersysteme haben in der Regel als gemeinsame Basis die vom Mathematiker John von Neumann (1903 - 1957) konzipierte Form des Universalrechners. Sie wurde 1949 erstmals im Militärcomputer EDSAC realisiert.

Die Von-Neumann Architektur setzt sich aus den Vier folgenden Funktionseinheiten zusammen:

  1. Rechenwerk (ALU)
  2. Steuerwerk (CU)
  3. Speicher (Memory)
  4. Ein-/Ausgabeeinheiten

Als Verbindung zwischen den Funktionsblöcken steht der Systembus, welcher wiederum aus dem Steuer- Daten- und Adressbus besteht.

An dieser Struktur ändert sich unabhängig von Aufgabenstellung grundsätzlich nichts. Die Anpassung für jedes zu lösende Problem erfolgt mit den im Speicher abgelegten Programmen, welche Informationen zur Steuerung des Rechners beinhalten.
Bei den Informationen wird zwar zwischen Befehlen und Daten unterschieden, es gibt aber nur einen gemeinsamen Speicher für beides. Jede Speicherzelle ist mit einer festen Adresse eindeutig identifizierbar.


Arbeitsweise Von-Neumann Architektur (#2.2)

Ein Programm eines Von-Neumann-Rechners besteht also aus einer Folge von Datenwerten, die im Speicher in Form von Maschinensprache abgelegt sind.
Weil die Maschinensprache (0 und 1) sehr schwer lesbar ist, wurden Assemblersprachen entwickelt, die jedem codierten Befehl einen Mnemocode (String) zuordnen, der die Bedeutung des Befehls andeuten soll. Beispiel:

0011  01011011  Maschinensprache
ADD      91     Assemblersprache (mnemonische Darstellung)

Diese Befehle werden bei einem Von Neumann-Rechner nun sequenziell (schrittweise) aus dem Speicher angefordert und abgearbeitet. Ergebnisse werden wieder in den Speicher zurückgeschrieben.

Das Problem wenn man ein Programm direkt in Assembler schreibt: Jede CPU-Architektur hat einen anderen Befehlsatz, siehe Wikipedia: Liste von Hallo-Welt-Programmen in verschiedensten Assembler-Sprachen.

Erkennung wesentlichen Komponenten (#2.4)

Die CPU (Central Processing Unit) (#2.4.1)

Die CPU führt sämtliche Berechnungen durch. Moderne CPUs produzieren viel Wärme und benötigen deswegen einen Kühlkörper.

  • Die zwei größten Hersteller sind Intel und AMD.


Der RAM (Random Access Memory) (#2.4.2)

Im RAM werden die vom Prozessor aktuell benötigten Programme und Daten in Bytes gespeichert. Da Moderne Rechner über viele Millionen Byte RAM verfügen, wird die Kapazität in Megabyte (MB) oder sogar Gigabyte (GB) angegeben

  • Derzeit sind vorallem DDR2 und DDR3 verbaut. (bei neuen Grafikkarten DDR4 und DDR5)


Das Mainboard (Motherboard) (#2.4.3)

Das Mainboard sorgt dafür, dass die einzelnen Komponenten elektrisch miteinander verbunden sind.
Zusätzlich besitzt es noch einige Verwaltungs-, Steuerungs- und Überwachungsfunktionen, um einen sicheren Betrieb zu gewährleisten.

  • Die Position von externen Anschlüssen und Sockel wurden Standardisiert, so dass verschiedene Mainboards in das gleiche Gehäuse reinpassen.


Das Gehäuse (Case) (#2.4.4)

Das Gehäuse dient zum Einbauen der verschiedenen Komponenten.

  • Wie beim Mainboard gibt es bestimmte Formfaktoren, nomierte Aussparungen und Maße.


Das Netzteil (PSU) (#2.4.5)

Das Netzteil wandelt die Netzspannung (230V) in konstante 12,5V und 3,3V Gleichspannung um, und versorgt damit alle wichtigen Komponente.

  • Die Stecker wurden zum Glück auch standardisiert.


Die Festplatte (Drive) (#2.4.6)

Auf der Festplatte werden Programme und Daten gespeichert, die aktuell vom Prozessor nicht benötigt werden. Die Kapazität wird in Gigabyte (GB) oder auch in Terrabyte (TB) angegeben.

  • Die Speicherung erfolgt bei herkömmlichen HDD's (Hard Drive Disks) durch Magnetismus, und die Daten gehen auch ohne Strom nicht verloren.


Das CD/DVD/BD-Laufwerk (#2.4.7)

Früher hatte jeder PC solch ein CD-ROM-Laufwerk, aber durch die heute USB-Technologie, das Internet und dem Platzmangel in Minis und Slim-Notebooks wird es immer weniger verwendet.

  • Früher wurde die Software auch als Diskette mitgeliefert, aber weil diese meist veraltet war, ist es besser sich die neueste Version vom Internet herunterzuladen.


Die Anschlüsse (#2.4.8)



Mikroprozessoren (#3)

Die heutigen Prozessoren sind so modern, dass sie Milliarden von Zahlen je Sekunde addieren, subtrahieren, multiplizieren und dividieren.

Aufbau (#3.1.1)

 
Veranschaulichung der Komponenten einer grundlegenden CPU

Jede CPU besteht prinzipiell aus folgenden Blöcken. Bei Modernen Prozessoren sind bestimmte Blöcke, wie die ALU, sogar mehrfach vorhanden.

  • ALU (Arithmetic Logic Unit, Rechenwerk): Die ALU ist der eigentliche Rechner. In ihr werden alle arithmetischen und logischen Funktionen/Berechnungen ausgeführt
  • CU (Control Unit, Steuerwerk): Hier sind alle Befehle gespeichert, die der Mikroprozessor ausführen kann
  • Registersatz (Register File): Dient zur Speicherung von Daten und Befehlen
  • AU (Address Unit, Addresswerk): Dient zur Berechnung der Adressen (z.B. wo sollen die nächsten Daten geholt werden)

Zur Steigerung der Arbeitsleistung sitzt in der CPU noch ein sog. L1-Cache, welcher für Daten gedacht ist auf die gerade dauerhaft zugegriffen wird. Der L1-Cache ist aber im Gegensatz zum Register nicht von Programmen ansteuerbar, sondern wird von der CPU selbst auf Hardware-Ebene verwaltet und meistens für das zwischen-speichern ("cachen") von vom RAM geholten Daten genutzt um die Refresh-Zeit zu überbrücken - mehr dazu im Abschnitt "#3.3.1.3" . (siehe archivierten Reddit-Post "What is the difference between register and l1 cache").

Funktion (#3.1.2)

Nehmen wir an unsere CPU soll folgende Rechenaufgabe lösen: "55 + 18"

Nun stellen sich aber einige Fragen:

  • 1. Frage: Wie können wir der CPU diese Daten (Zahlen) mitteilen?

Dafür ist der DATENBUS zuständig. Über ihn senden wir der CPU die Zahlen/Befehle (in Binärer Form) Weil wir 2 Zahlen einlesen wollen, müssen wir diese mithilfe der CPU-Register zwischenspeichern. Für die wichtigsten 4 Register hat Intel sogar einen eigenen Namen: AX BX CX DX.

  • 2. Frage: Wie können wir die CPU nun aber dazu veranlassen, die im Register liegenden Zahlen zu addieren?

Zu diesem Zweck werden nicht nur Zahlen, sondern auch Befehle über den Datenbus eingelesen. Diese Befehle besitzen ein ganz bestimmtes Bitmuster, welches im Steuerwerk (CU) der CPU gespeichert ist.

Dieser Assembler-Befehlssatz ist somit bei jeder CPU anders. Da dieser aus 0en und 1en bestehende Assemblercode viel zu schwierig zu lesen und zu erlernen ist, kann der Code auch in einer kompatiblen Maschinensprache eingegeben und nachher in einen Assembler-Code übersetzt werden:

Beispiel aus der Maschinensprache des Intel 8088:
Befehl Code Bedeutung
mov ax 10111010 die nächste Zeile ist eine Zahl. Speichere diese Zahl in das AX-Register
mov bx 10111011 die nächste Zeile ist eine Zahl. Speichere diese Zahl in das BX-Register
add ax bx 10111101 Addiere die Register AX und BX

Aber auch dieser Assembler-Code ist viel zu schwierig, um damit große Programme zu schreiben, weswegen es auch viel höhere Sprachen wie C++ oder VB gibt. Diese werden durch einen Compiler automatisch in den entsprechenden Assemblercode übersetzt.


Da ein Prozessor mehrere Millionen Zeilen eines Programmes / Sekunde verarbeiten kann, wäre eine Festplatte viel zu langsam. Deswegen muss jedes Programm beim starten zuerst in den Arbeitsspeicher geladen werden.

Der Taktgeber (#3.1.3)

Damit eine CPU weiß, wann ein Befehl oder eine Zahl am Datenbus anliegt, muss sie darauf aufmerksam gemacht werden.
Dies geschieht Mithilfe einer Leitung, an der eine Spannung angelegt wird sobald wieder Daten eingelesen werden sollen.

Da die CPU ständig Daten verarbeitet, wechselt die Spannung mehrmals pro Sekunde, und es entsteht ein sog. Taktzyklus. Die max. Anzahl an Taktzyklen wird Taktfrequenz genannt, welche bei heutigen Prozessoren in Gigahertz Bereich liegen kann. Nach diesem Takt arbeiten alle ans Motherboard angeschlossenen Geräte.

 
Funktionsweise des Arbeitsspeicher-Zugriffs mithilfe der Northbridge über den Adress- und Datenbus

Der Addressbus (#3.1.4)

Daten, welche schnell verarbeitet werden müssen liegen im Arbeitsspeicher. Im Arbeitsspeicher bekommt jedes einzelne Byte seine eigene Adresse, auf die wahlfrei und somit immer gleich schnell zugegriffen werden kann.

Allerdings erfolgt dieser Zugriff auf den Arbeitsspeicher auf einem externem Chip, der sog. Northbridge.

Wenn die CPU nun etwas mit dem Arbeitsspeicher machen will, muss die CPU der Northbridge einen Befehl über den Adressbus mitteilen. Die Antwort der Northbridge bekommt die CPU über den Datenbus.

(CPU Befehl --Adressbus-> Northbridge -> Antwort/Rückgabe --Datenbus-> CPU)

Die Anzahl der Leitungen bestimmen die Größe des Speichers die adressiert werden kann. (zB. 32Bit)

Modernere Prozessoren (#3.2)

Am Anfang gab es viele Prozessorhersteller, darunet auch etwa Texas Instruments oder Commodore. Bis heute haben sich aber nur Intel und AMD durchgesetzt.

Prozessor-Bauformen (#3.2.1)

 
Unterseite eines 2001er Pentium 4 Prozessors, die die bei einem PGA-Sockel verwendeten Pins zeigt. Quelle: Wikimedia
 
Rückseite eines Intel Xeon E5-1650V4 Prozessors, die die bei einem LGA-Sockel verwendete Fläche zeigt.Quelle: Wikimedia
 
Vorderseite eines Intel Pentium II Prozessors mit schwarzem SECC-Gehäuse. Quelle: Wikimedia
 
Rückseite eines Intel Pentium II Prozessors ohne schwarzes SECC-Gehäuse: Externe Cache-Bausteine (links und rechts) und in der Mitte der Prozessorkern. Quelle: Wikimedia

Anfangs waren die Prozessoren fest auf die Platine gelötet. Seit dem Intel 486er haben sich eine Reihe von Standard-Sockel entwickelt - für jede Generation gibt es bei Intel einen neuen Sockeltyp.

  • Nach dem Sockel-7 hat jeder Hersteller damit begonnen, seinen eigenen Sockel zu entwickeln.

PGA (#3.2.1.1)

Seit Mitte der 80er haben die CPUs eine sog. PGA-Bauform (Pin Grid Array). Bis auf wenige Jahre ist auch heutzutage diese Gehäuseform vorherrschend.

LGA (Zusatz von mir)

Für x86-Prozessoren wurde das Land Grid Array im Juni 2004 von Intel als Sockel 775 (auch LGA775 genannt) für die Pentium-4-Reihe mit Prescott-Kern eingeführt und wurde ab 2006 auch beim Konkurrenten AMD für den für Server und Workstations gedachten Sockel F eingeführt.

LGA-Prozessoren werden meistens auf Sockel gesetzt, die federnde Kontakte enthalten, was eine geringere mechanische Beanspruchung der Kontakte zur Folge hat.

SEC (#3.2.1.2)

Mit dem Intel Pentium II wandte sich Intel abrupt von der PGA Bauform ab und verwendete die Single Edge Cartridge mit dem Namen SLOT 1. Auch AMD baute eine zeitlang Prozessoren mit dieser Bauform (Slot A).

Historie Prozessorsockel (#3.2.1.3)

Bezeichnung Lebensdauer (Recherche von mir mithilfe Wikipedia[3]) Beschreibung
Sockel 1 1991 bis ? Prozessorsockel mit 238 Pins für Intel 486 SX
Sockel 2 1992 bis ? Prozessorsockel ab 486 DX2 mit einer Versorgungsspannung von 5V
Sockel 3 1992 (80486DX2) bis 1994 (DX4) Prozessorsockel mit 237 Pins ab 486 DX4
Sockel 4 1993 (P5) bis ? Prozessorsockel mit 273 Pins ab Pentium 60 und 66 (P5) mit einer Versorgungsspannung von 5V
Sockel 5 1994 (P54) bis 1996 (P54CS) Prozessorsockel mit 320 Pins für Pentium-Prozessoren von 75 bis 133 Mhz (P54C) und einer Versorgungsspannung von 3.3V und 3.5V
Sockel 6 ? bis ? Angedacht für den 486, wurde aber niemals eingesetzt (235 Pins). Durch die späte Entwicklung wurde er nur auf wenigen Mainboards eingesetzt, insbesondere weil er nur wenige Vorteile gegenüber dem alten Sockel 3 hatte.
Sockel 7 1996 (P54CS) bis 1999 (P55C) Nachfolger des Sockel 5 für Pentium-Prozessoren und gängigster Sockel für Prozessoren mit 321 Pins der 5. und 6. Generation von AMD und IBM/Cyrix als Super-Socket-7 mit 100MHz FSB
Sockel 8 1995 (Pentium Pro) bis 1998 (Pentium II Deschutes) In diesem Sockel passt nur der Pentium Pro mit 387 Pins von Intel
Slot 1 1996 (Intel 440FX) bis 1999/2000 (VIA Apollo Pro 133A) Dieser Prozessor-Anschluss (242) wurde mit dem Pentium II eingeführt. Er wird auch für den Pentium III verwendet. Da der Prozessor mit L1- und L2-Cache auf einer Leiterplatte in einem Modul untergebracht ist, ähnelt dieser Sockel mehr einem Erweiterungssteckplatz.
Slot 2 1998 (Pentium II Xeon) - 2000 (Pentium III Xeon) Der Slot 2 mit 300 Anschlüssen ist der Highend-Prozessorsockel für Intel Multiprozessoren Pentium II Xeon und Pentium III Xeon.
Sockel 370 1998 (Mendocino Celeron) bis 2000 Nachdem Pentium III-Prozessoren mit Coppermine-Kern einen integrierten L2-Cache, auf dem Die (Siliziumschicht), haben, ist eine Platine nicht mehr nötig.
Deshalb verabschiedete Intel sich von der SEC(C)-Bauform und führte die PGA Bauform (wieder) ein, die elektrisch und in der Pin-Belegung aber nicht alle kompatibel zueinander sind.
Slot A 1999–2000 (Einführung) Der Slot A ist für den Athlon K7 von AMD. Das Slotdesign des Slot A (242 Pins) ist vom Prinzip ein spiegelverkehrter Slot 1
Sockel A 2000 (Einführung) bis 2005 (letzte Athlon-XP-Prozessor) Die AMD-Prozessoren Thunderbird und Duron gibt es nur für den Sockel A mit 462 Pins. Der Slot A hat damit bereits wieder ausgedient
Sockel 423 ? bis 2001 Prozessorsockel mit 423 Pins für den Pentium 4 von 1300 bis 2000 MHz
Sockel 478 2001 bis 2004 Prozessorsockel mit 478 Pins für den Pentium 4 ab 1400 MHz und Celeron ab 1700 MHz
Slot M (PAC418) 2001 (1. Gen Itanium) bis ? Um die erforderliche Bandbreite für die IA-64 Prozessorgeneration (Intel Itanium) zu gewährleisten, führte Intel den Slot M (Merced) ein. Über einen Extra-Stecker werden die Masse-Leitungen an das Prozessor-Gehäuse geführt.
Sockel 603 2001 (Xeon 32-bit NetBurst) bis ? Intel Xeon Foster
Sockel 604 ? bis 2008 (Xeon 7400) Intel Xeon 3.06 GHz
Sockel 754 2003 (Einführung) bis 2007 (S1 (Laptop)) Dieser Sockel diente als erste Plattform für den Athlon 64, wurde dann aber durch den Sockel 939 ersetzt. Der Sockel 754 dient langfristig als Plattform für den AMD Sempron und für die Notebookprozessoren Mobile Athlon 64, Turion 64 und Mobile Sempron.
Sockel 939 2004 bis 2006 Dieser Sockel hat eine doppelte Speicherband-breite als der S754. Außerdem verwendet er statt dem klassischen FSB (Front Side Bus) durchweg HT (HyperTransport).
Ab AMD Athlon 64 3500+ (2.2 GHz), 3800 (2.4 GHz) und FX-53 (2.4 GHz), alle drei haben zwei Speicherkanäle
Sockel 940 2003 (AMD Athlon-64 FX-51 und FX-53) bis 2006 Ursprünglich war der Sockel 940 für den AMD's Opteron gedacht. Dann hat AMD diesen Sockel für die Athlon 64 FX-Serie missbraucht. Die nichts anderes als Opterons sind.
Sockel 775 2006 (Core 2 Duo / Conroe) bis 2007 Statt Pins auf der Prozessor-Unterseite drücken flache Kontakte im Sockel auf kleine Blattfedern und stellen so eine Verbindung her. Diese Verbindungstechnik (Land Grid Array / LGA) soll für eine bessere Verbindung sorgen und verbogene Pins (wie es häufig beim "alten" Pin Grid Array / PGA der Fall war) vorbeugen. Der Sockel hat insgesamt 775 Kontakte.
AM2 2006 (Athlon 64 Orleans) bis ? Seit Mai 2006 gilt es für den Athlon 64, Athlon 64 X2 und Semperon mit dem AM2-Sockel und DDR2-Speicherinterface
AM2+ ? (Athlon 64 X2) bis ? Erweiterung des Sockels AM2 für AMD Phenom X3/X4
AM3(+) 2009 (Phenom II) Der AM3-Sockel wird für billige Athlons und Phenoms ab 2 Kernen (X2/X4) verwendet.FX-Prozessoren von AMD haben den AM3+-Sockel
Sockel 1366 2008 (Core i7 Nehalem Bloomfield) bis 2010 (Core i7 Nehalem Gulftown) Ist der neue Sockel (Ende 2008) für die Intel Nehalem Prozessorserie (Core i7).
Der Unterschied zum 775 ist, dass die CPU nicht mehr über den klassischen FSB sondern über eine Punkt-zu-Punkt-Verbindung (QuickPath Interconnect, QPI) an den Chipsatz (DDR3) angeschlossen ist.
Sockel 1156 2009 (Core i7 Nehalem Lynnfield) bis 2012 Neuer Sockel für den Intel Core i5 (Lynnfield abgespeckter i7 dafür billiger 3. Quartal 2009) Mehr als die Hälfte der Pins dienen für die Stromversorgung
Sockel 1155 2011 (Celeron Sandy Bridge) bis 2012 (Core i7 Ivy Bridge) Nachfolger vom 1156 für i3, i5 und i7 mit der Sandy-Bridge-Architektur
Sockel 2011v3 2014 (Erscheinungsjahr) Sockel für Sandy-Bridge-E CPUs (vier Speicherkanäle für DDR3 und 40 PCIe-Lanes)
Sockel 1150 2013 (Erscheinungsjahr) Nachfolger vom 1155 mit der Haswell- und Broadwell- Architektur
Sockel 1151 2015 (Erscheinungsjahr) Nachfolger vom 1150 für die Skylake-, Kabylake- und Coffelake- Architektur

TODO Weiterschreiben 06.09.2019

Intel Prozessoren (#3.3)

Der Pentium (#3.3.1)

1993 brachte Intel den ersten 32-Bit Prozessor (Datenbus 64 Bit, Adressbus und Register je 32 Bit).

Bis heute enthalten alle Prozessoren jene Kernfunktionen die der Pentium damals besaß. Dazu gehören:

Multiprocessing (#3.3.1.1)

Bei den ersten Intel Prozessoren musste jede Anwendung geschlossen werden, wenn eine andere Anwendung gestartet wurde. Multiprocessing bedeutet, dass der Prozessor mehrere Anwendungen gleichzeitig verarbeiten kann.

Allerdings kann kein Prozessor zwei Programme gleichzeitig ausführen. Ein Prozessor schaltet immer nur zwischen den verschiedenen Anwendungen hin und her. (Durch die enorme Geschwindigkeit hat es den Anschein, als würden alle Programme parallel betrieben werden)
Er muss sich natürlich jedes Mal merken wo er beim Programm aufgehört und wieder starten kann. (Und dies wurde durch den 32 Bit-Adressbus möglich)

Cache (#3.3.1.2)

 
Um einen Waitstate der Festplatte oder der CPU während des Refresh-Zyklus des DRAMs zu vermeiden legt die CPU durch Sprung-vorhersage oft oder gleich genutzte Daten in den Cache, um trotzdem weiterarbeiten zu können.

Die Verwendung der DRAM Technologie (Transistor und Kondensator) beim Arbeitsspeicher ist zwar billig, aber dafür viel zu langsam für heutige Prozessoren.

Der Nachteil ist, dass diese Kondensatoren immer wieder Aufgefrischt werden müssen (alle ~16ms), und der Prozessor während dieser Zeit warten muss.

  • Damit es für die CPU zu keinem "Waitstate" kommt, wird zwischen der CPU und dem Arbeitsspeicher ein sog. Zwischenspeicher (Cache) eingebaut.
  • Im Unterschied zum Arbeitsspeicher wird beim Cachespeicher die SRAM-Technologie (Static-RAM) verwendet. Bei dieser Technik werden keine Kondensatoren sonder spezielle Schaltungen mit Transistoren verwendet.
    • Dadurch ist kein Auffrischen mehr notwendig und sie sind fast so schnell wie die CPU. Der hohe Preis (ca. 10-fach) verhindert das SRAM als herkömmlicher Arbeitsspeicher zum Einsatz kommt.

RAM-Cache (#3.3.1.3)

In jedem Pentium-Prozessor befindet sich ein kleiner Cache (16 KB), der interner Cache (L1-Cache) genannt wird. Allerdings kann dieser Cache mehr als nur Daten zwischenspeichern, bis der Prozessor sie benötigt. Der Pentium-Cache beherrscht branch prediction, womit ein Verfahren zu vorhersage von Programmverzweigungen gemeint ist (auch Sprungvoraussage genannt). (Es gibt auch noch einen externen L2-Cache auf dem Motherboard, welcher heutzutage in der CPU ist)


Pipelines (Befehlswarteschlange) (#3.3.1.4)

 
Visualisierung der einzelnen Schritte einer fünf-stufigen CPU Pipeline
 
Die Anzahl an Pipelines ist ausschalggebend dafür, wie viele Befehle! eine CPU parallel abarbeiten kann

Alle CPUs verfügen über eine Pipeline, mit der die Abarbeitungsfolge eines Befehls gemeint ist.
Beim Pentium wurde eine zweite Pipeline (Dual Pipelining) eingebaut. Diese ermöglicht es, mehrere Befehle parallel abarbeiten zu können. (Moderne CPUs besitzen sogar mehr als 2)

Taktfrequenz und Multiplikator (#3.3.1.5)

Bei den ersten Mainboard bestimme der Taktgeber das Arbeitstempo aller Chips. Als Intel Prozessoren mit höherer Taktfrequenz produzieren konnte musste eine Lösung her: Die Overdrive-Prozessoren wurden geboren.

Diese Prozessoren übernehmen das ankommende Taktsignal und multiplizieren es innherhalb der CPU, so dass die Schaltkreise innerhalb der CPU mit höherem Takt betrieben werden können.
Beispiel: der 3.06-GHz-Intel-Pentium-4 läuft mit einer externen Taktfrequenz von 133 MHz und arbeitet mit einem Multiplikator von 23, woraus sich 3.06-GHz ergeben.

Bei älteren Mainboard musste der Multiplikator manuell eingestellt werden, heute funktioniert das aber automatisch.

CPU-Spannung (#3.3.1.6)

In den ersten 10 Jahren wurden alle CPUs mit 5 Volt betrieben, aber mit der Weiterentwicklung und der Steigung der Transistoren in enorme Ausmaße erzeugte der Prozessor zu viel Hitze.

Um dieser Verlustleistung entgegen zu wirken, wurde diese Betriebsspannung immer kleiner (Heute: 1.2V).

  • Ähnlich wie bei der Taktfrequenz musste man diese Spannung früher selber einstellen, heute geht es aber automatisch. (Ausnahme: Übertakung)

Pentium Pro (#3.3.2)

 
Bild eines Bild eines Intel Pentium Pro Prozessors (200 MHz, 256kB Cache, Socket 8): Erster Prozessor mit L2-Cache. Quelle: Wikimedia

Der Pentium Pro wurde 1995 von Intel als High-End-Prozessor für Server und Workstation-Anwendungen unter Windows NT entwickelt.

Dieser Prozessor besteht aus zwei Silizium-Plättchen. Die eine ist der eigentliche Prozessor, und die 2 ist der Hoch-Geschwindichkeits-Speicher Level-2-Cache, der früher auf dem Mainboard aufzufinden war und nun direkt verbaut ist.
Zusätzlich bot dieser Prozessor nur 4 Pipelines und war mit einer Dynamischen Verarbeitung ausgestattet.

Durch die Integration des L2-Cache wurde der Adressbus und der externe Datenbus mit einem einzigen Begriff, namens Front Side Bus (FSB), zusammengefasst.

Pentium MMX (#3.3.3)

Dieser Prozessor bat 57 neue Befehle und 4 neue Register, die sogenannte MultiMediaExtion. (Heute in jedem Prozessor eingebaut)

  • MMX: 1996 integrierte Intel in den Pentium die sog. Multi Media Extention. Diese bot 57 neue Befehle, welche vorallem für Grafikanwendungen und Spiele zu gute kamen.
  • Split Voltage: geteilte Spannungsversorgung
  • Höhere Taktfrequenzen und Multiplikatoren
  • Verbesserte interne Verarbeitung: zB. Sprungvorhersage

Pentium 2 (#3.3.5)

Dieser Pentium bietet einen größeren L1-Cache sowie die MMX Technologie. Dazu kommt, dass der L2-Cache von der CPU getrennt ist. (SEC-Bauart) Dadurch erreicht Intel eine bessere Ausbeute bei der Produktion, da bei fehlerhaftem Material nicht der gesamte Chip unbrauchbar ist.


 
Bild eines Intel Pentium II Prozessors (Klamath, 233MHz) ohne Gehäuse. Gut zu sehen: Die L2-Caches sind vom eigentlichen Prozessor getrennt. Dadurch wurde er aber viel zu langsam, weswegen diese Bauart nicht lange überlebte.Quelle: Wikimedia

Intel Celeron (Pentium 2) (#3.3.6)

Beim Versuch, größeren Marktanteil zu gewinnen, entwickelte Intel eine abgespeckte Version des Pentium-II für Low-End-PCs. Der unterschied lag im entfernden Gehäuse sowie entferntem L2-Cache. (Da dieser aber sehr langsam ohne Cache war, baute Intel doch einen in späteren Versionen ein)

Zusammenfassung Pentium (#3.3.7)

Pentium Pentium MMX Pentium Pro Pentium II
Transistoren 3,3 Mio. 4,5 Mio. 5,5 Mio. 7,5 Mio.
Chip-Fläche 90 mm² 141 mm² 196 mm² 204 mm²
Level-1-Cache 8 KB Daten
8 KB Code
16 KB Daten
16 KB Code
8 KB Daten
8 KB Code
16 KB Daten
16 KB Code
Level-2-Cache - - 256/512 KB 512 KB
MMX nein ja nein ja
Taktfrequenzen 60 - 200 166 - 200 150 - 200 233 - 450
Systembus 60/66 MHz 66 MHz 66 MHz 66/100 MHz
Steckplatz Sockel-5 Sockel-7 Sockel-8 Slot-1

Pentium 3 (#3.3.8)

 
Bild eines Intel Pentium 3 Coppermine Prozessors: Neue Befehle + besserer L2-Cache.Quelle: Wikimedia

Der P3 verbesserte den P2 durch SSE (Streaming SIMD Extenstions), Intels Konkurrenzprodukt zu AMDs 3DNow!TM, eine Reihe interner Verarbeitungs- und Pipelining-Verbesserungen, volle Unterstützung von 100/133-MHz Mainboards sowie verbesserten L2-Cache.

Die neuen 72 MMX-Befehle sollen für eine bessere Leistung für 3D-Spiele, MPEG2-Kodierung sowie ein schnelleres Internet und Datentransfer sorgen.

Die erste Bauform war eine Sonderform des SEC-Gehäuse namens SECC-2. Durch spätere Veränderungen in der Technologie konnte dieser Prozessor jedoch auch im PGA-Gehäuse produziert werden.

Zusammenfassung Pentium 3

Prozessor Pentium III Pentium III EB Pentium III E Pentium III Pentium III S
Codename Katmai Coppermine Tualatin
Transistoren 9,5 Mio. 28 Mio. 44 Mio.
Chip-Fläche 140 mm² 106 mm² 80 mm²
L2-Cache 512 kByte 256 kB 512 kB
L2-Takt halber Takt CPU-Takt
Taktfrequenzen 600 / 550 / 500 / 450 933 / 866 / 800 / 733 / 667 / 533 1100 / 1000 / 950 / 900 / 850 / 800 / 750 / 700 / 650 / 600 / 550 / 500 1333 / 1200 / 1133 1400 / 1266 / 1133
Front Side Bus Takt 100 MHz. 133 MHz. 100 MHz. 133 MHz.
Sockel Slot 1 Sockel 370

Pentium 4 (#3.3.9)

Da auf der Technologie des P III keine Leistungssteigerung mehr möglich waren,entwickelte Intel mit dem Pentium 4 einen komplett neuen Prozessor.

Damit die Wärme schnell genug abgeführt werden konnte, musste ein dementsprechender Kühlkörper montiert werden. Damit dieser große Kühlkörper nicht die CPU vom Mainboard riss, musste auch ein neuer Sockel (423 später 478 bzw. 755) entwickelt werden, der eine Kühlkörper-Halterung enthielt.

Damit für die Leistung des P4 genug Power zur Verfügung steht, musste auch ein neues Netzteil her das über einen zusätzlichen Anschluss verfügte.

Die "Netburst Architektur"

Unter dem Begriff "Netburst Architektur" werden alle Neuerungen die den Pentium 4 betreffen zusammengefasst:

Hyper Pipelined Technology

Die neue Pipeline wurde vom Vorgänger-Modell auf 20 Stufen verdoppelt.
Die Befehlsverarbeitung wurde dabei in noch kleinere Schritte auf geteilt und hat den enormen Vorteil, dass sie sehr viele Aufgaben auf einmal und schneller erledigt werden können. Erst durch sie werden die hohen Taktraten möglich.

Advanced Dynamic Execution

Damit durch falsche Vorhersagen der Prozessor nichts ins Stocken gerät, hat Intel auch die Sprung-vorhersage und einige damit verbundene Technologien verbessert.

Trace Cache

Bei den bisherigen CPUs wurde der L1-Cache sowohl für Daten als auch Befehle verwendet. Beim P4 gibt es für die Befehle jetzt einen eigenen Trace-Cache.

D.h. sobald der Prozessor einen Befehl dekodiert hat, speichert er die dekodierten Operationen (MikroOPs) in diesem Cache ab. Dies hat den enormen Vorteil, dass der P4 direkt auf die dekodierten Befehle zugreifen kann, anstatt sie vom L1-Cache holen und nochmal dekodieren zu müssen. Dieser Trace-Cache kann bis zu 12.000 Operationen speichern.

Rapid Execution Engine

Auch bei den ALUs (Arithmetic Logic Units) zur Berechnung einfacher Integer geht Intel einen neuen Weg. Insgesamt besitzt der Pentium drei ALU-Einheiten, jedoch handelt es sich nur bei einer davon um eine herkömmliche. Die zwei anderen arbeiten mit dem doppelten CPU-Takt.

SSE2 (Streaming SIMD Extensions 2)

Neben der MMX- und SSE-Technologie wurde der P4 mit einer weiteren Befehlerweiterung (SSE2) ausgestattet. SSE2 beinhaltet 144 neue Cache- und Speicherverwaltungs-Befehle und darüber hinaus wurden die 64-Bit Befehle der MMX-Technologie verbessert und auf 128-Bit erweitert.

Die Intel Pentium 4 Prozessoren sind daher optimal für das Berechnen von Videokompression und MP3-Dekodierung, sobald die jeweilige Software für Intels SSE2 programmiert wurde.

Quadspeed

Der erste Pentium 4 arbeitet zwar mit einem 100MHZ Bus-Takt, jedoch kommt eine völlig neue Technologie namens "Quad Data Rate (QDR)" zum Einsatz, die es erlaubt, vier Datenpakete während eines einzigen Taktes zu verschicken, sodass die Bandbreite einer Taktrate 400MHz entspricht.

Aus diesem Grund wird oft bei den neuen Prozessoren neben dem Takt auch die Bandbreite angegeben, welche beim Pentium 4 bei 3,2GB/sec liegen. Deshalb setzte Intel bei der Einführung des P4 ausschließlich auf PC800 Rambus als Arbeitsspeicher.



Pentium 4 "Willamette" (#3.3.9.1)

Die ersten Intel Pentium 4-Prozessoren wurden noch mit einem Willamette-Kern (180-nm) hergestellt. Leistungsmäßig enttäuschten die ersten Pentium 4-Modelle gegenüber den AMD Prozessoren, was vor allem auf den knapp bemessenen L2-Cache zurückzuführen ist.

Auch der hohe Preis der Prozessoren in Verbindung mit den extrem teuren Rambus-Arbeitsspeicher war ein großer Grund, dass viele Anwender zu AMD-Systemen wechselten.

  • Aus diesem Grund bot Intel es nun auch an den P4 auch mit SD-Ram zu betreiben (sehr langsam).

Erst als 2001 schnellere Versionen ausgeliefert wurden, konnte Intel den Geschwindigkeits-Unterschied zu AMD wettmachen.

Pentium 4 "Northwood" (#3.3.9.2)

Im Januar 2002 brachte Intel erstmals einen Kern auf den Markt, der mit 130 nm Technologie und einen verdoppeltenL2-Cache (512 kB) hergestellt wurden.

Das 3,06 GHz-Spitzenmodell unterstützte Hyper-Threading. Bei HT kann die CPU zwei Threads gleichzeitig ausführen, da einige Teile der CPU doppelt vorhanden sind. Dem Betriebssystem gaukelt der Prozessor ein vollwertiges Multiprozessorsystem-System vor.

Pentium 4 "Prescott" (#3.3.9.3)

Nachdem der Northwood-Kern an seine Leistungsgrenzen getrieben wurde, brachte Intel Anfang 2004 diesen neuen Kern mit 90 nm Technologie auf den Markt, der erstmals die SSE3-Befehle unterstützt.

Pentium 4 Extreme Edition "Gallatin" (#3.3.9.4)

Da es noch große Probleme mit dem Prescott gab, brachte Intel noch im Jahr 2005 eine verbesserte Version des Northwood-Kern (478 und 775) heraus. Man holte noch die letzten Reserven heraus und verpasste dem Kern einen üppigen 2 MB großen L3-Cache. Der Gallatin wird deshalb oft auch als Northwood 2M bezeichnet.

Pentium 4 Serie 5xx "Prescott" (2. Gen) (#3.3.9.5)

Nachdem Intel durch verschiedene Maßnahmen (Kupferband, neuer Sockel 775) die Temperaturprobleme in den Griff bekam, wurde ein neuer Anlauf mit dem Prescott-Kern gestartet. Die Pinlose Variante (LGA) ermöglichte bessere Pindichte und besseres Hochfrequenz-verhalten.

Außerdem hat Intel die Produktbezeichnung der Pentium 4 Prozessoren geändert. Die letzten beiden Ziffern geben Auskunft über die Features des Prozessors. (Siehe Tabelle)

Pentium 4 Serie 6xx "Prescott 2M" (#3.3.9.6)

Der Pentium 4 6xx-Prozessor (2005) löst den Pentium 5xx ab, welcher noch ein paar Schwachstellen hatte, die man im Hause AMD schon lange gelöst hatte.

Darunter zählt hauptsächlich das vom Athlon 64 eingeführte "Cool'n'Quiet", das den Takt des Prozessors heruntersetzen kann, und natürlich die Unterstützung von 64-Bit-Applikationen. Ansonsten ist er identisch zum Vorgänger.

Unterstütze Features:

HT Hyper-Threading
EM64T Extended Memory 64 Technology
NX-Bit No EXecute-Bit: Sicherheit vor Viren und Würmern
VT Virtuelle Maschine: Erweiterung spez. für VMware
C1E Enhanced Halt State: Stop-Signal von Betriebssystem
TM2 Thermal Monitoring 2: Temperaturüberwachung
EIST EIST Enhanced SpeedStep: dynamische Takt-Regulierung

Pentium D (#3.3.10)

 
Darstellung der Mehrkern-Prozessor Technik anhand eines Intel Pentium D (links) und Intel Pentium Extreme (rechts) Prozessors.Quelle: Elektronik-Kompendium

Die magische Grenze von 4GHZ hat der Pentium 4 wegen Hitzeentwicklung (etc.) nicht erreicht.

Deshalb setzte Intel (AMD) auf eine neue Strategie - Mehrkernprozessoren
Zur Einführung seiner Dualcore-Prozessoren hat Intel den Pentium Extreme Edition 840XE und den Pentium D angekündigt. Beide Prozessoren enthalten jeweils zwei Pentium-4-Kerne (Prescott) mit jeweils 1MB L2-Cache. Beide Kerne haben einen gemeinsamen Bus zum Chipsatz und teilen sich somit die Bandbreite des Font-Side-Bus (FSB) mit 800MHz.

Zusammenfassung Intel Pentium 4 (#3.3.11)

Prozessor Pentium 4 "E" und "J" Pentium 4 6xx-Serie Pentium 4 Extreme Edition Pentium 4 Extreme Edition 3.73-GHz Pentium D und Extreme Edition 840
Kern Prescott Prescott-2M Northwood-2M Prescott-2M 2x Prescott (= 2 Kerne)
Technologie 90nm 130nm 90nm
Transistoren 125 Millionen 169 Millionen 230 Millionen
Größe 112 mm² 135 mm² 240 mm² 135 mm² 213 mm²
Taktfrequenz (FSB = FrontSideBus) bis 3.8-GHz, 800-MHz FSB / 533-MHz FSB bis 3.6-GHz, 800MHz FSB bis 3.4-GHz, 800-MHz FSB oder bis 3.46-GHz, 1066-MHz FSB 3.73-GHz, 1066-MHz FSB bis 3.2-GHz, 800MHz FSB
Hyper Threading Ja, verbessert (einige Modelle ohne HT) Ja, verbessert Ja Ja, verbessert Pentium D: Nein
Pentium Extreme Edition: Ja
Caches L1-Execution: 12000 µ-Ops
L1-Daten: 16kB
L2-Cache: 1MB
L1-Execution: 12000 µ-Ops
L1-Daten: 16kB
L2-Cache: 2MB
L1-Execution: 12000 µ-Ops
L1-Daten: 512kB
L2-Cache: 2MB
L1-Execution: 12000 µ-Ops
L1-Daten: 16kB
L2-Cache: 2MB
jeweils 2x
L1-Execution: 12000 µ-Ops
L1-Daten: 16kB
L2-Cache: 1MB
Pipeline 31-stufig 20-stufig 31-stufig
NX-Bit Nur "J"-Modelle Ja Nein Ja
EIST J-Modelle: C1E Ja Nein Ja
Befehlssätze MMX, SSE, SSE2, SSE3 MMX, SSE, SSE2, SSE3, EM64T MMX, SSE, SSE2 MMX, SSE, SSE2, SSE3, EM64T

Sonstige Prozessoren (#3.5)

Es gibt auch Prozessoren die nicht nur für den PC-Einsatz gedacht sind. Diese CPUs sind speziell für Server-Anwendungen gebaut worden. Der große Unterschied zu den Desktop-CPUs besteht meist in der Größe des L2-Cache. Meist besitzen diese CPUs zusätzlich noch einen L3-Cache und sind Multi-Prozessor Tauglich, was sie relativ teuer macht. (Xeon, Itanium, Opteron)

Neben den Server-Prozessoren gibt es auch so genannte Mobile-CPUs, welche einen geringen Stromverbrauch und eine dynamische Taktung besitzen (Pentium 4-M, Athlon XP-M, Centrino, ...).

Centrino System (#3.5.1)

 
Neues[1] Logo von Intel Centrino. Für das alte Logo, siehe hier. Quelle: Wikipedia

Centrino befasst sich nicht nur mit einem einzelnen Prozessor, sondern mit einer Kombination aus Prozessor, Chipsatz und einem WLAN-Modul welche Perfekt aufeinander abgestimmt sind und nur das Logo tragen dürfen, wenn sie von Intel stammen.

Multi-Core-Prozessoren (#3.6)

Bis zum Jahr 2005 versuchten die Prozessorhersteller die Leistung einer CPU mit verschiedenen Maßnahmen (wie Takterhöhung, Cache, neue Befehlssätze, usw.) zu erhöhen.
Probleme, vor-allem bedingt durch die große Wärme, machten den Herstellern das Leben schwer.
Damit die Leistungsfähigkeit dennoch gesteigert werden konnte, wählten die Hersteller (mit dem Pentium D oder AMD 64FX) den Weg zu den Mehrkernprozessoren.

Die Leistungssteigerung mit Mehrkernprozessoren beträgt zwischen 0% (bei nicht geeigneter Software) und fast 100% (bei optimierter Software).

Intel Core 2 (#3.6.1)

 
Neues[2] Logo von Intel Core 2 Extreme. Für das alte Logo, siehe hier. Quelle: Wikipedia

Der Sommer 2006 hat, mit dem Core 2 Duo, wahrscheinlich endgültig eine Trendwende im Prozessor-Markt gemacht.

Intel bringt mit dem Core 2 Duo einen Prozessor auf den Markt, der wesentlich weniger Strom verbraucht, effektiver rechnet und trotz nicht all-zu hoher Taktraten die Messlatte so hoch gesetzt hat, dass Vorgängermodelle nicht annähernd an die Leistung des Core 2 Duo herankommen.

Anders als beim Athlon 64 X2, bei dem jeder Kern über einen eigenen dedizierten L2-Cache verfügt, greifen beim Intel Core 2 Duo beide Kerne auf ein- und denselben L2 Cache zu. Was anfangs kritisiert wurde, zeigt sich mittlerweile als sehr vorteilhaft, da der L2-Cache dynamisch verteilt werden kann. (D.h. Braucht ein Kern weniger Zwischenspeicher, kann er dem anderen Kern den freien Speicher überlassen.) Außerdem ist die Energie-Verwaltung einfacher.

Trotz der Leistungssteigerung verbraucht der Core 2 Duo nur etwa die Hälfte an Energie wie seine Vorgänger-Reihe Pentium-D. (65-Watt (TDP) im Betrieb oder 75-Watt (TDP) bei der Extreme Edition und 18 Watt im Leerlauf)

Damit aber noch nicht genug - Ein Knappes Jahr nach den "Core 2 Duo" brachte Intel den "Core 2 Quad" raus, welches zwei "Core 2 Duo" Kerne in einem Prozessor unterbrachte.

Hyper Threading wurde abgeschafft, da man nun auf real physische Prozessoren zurückgreifen kann.

Intel Core i7 "Bloomfield" (#3.6.2)

Ende 2008 brachte Intel basierend auf der neuen Prozessorarchitektur "Nehalem" eine CPU mit der Kernbezeichnung "Bloomfield" auf den Markt.

Nachdem sich Intel bei den vorhergegangenen CPUs bei der Namensgebung ausgetobt hat, bekam der Nachfolger den Namen Core i7 mit einer Zahl am Anhang.
Die Regel lautet: Je höher die Nummer, desto schneller und teurer ist die CPU.

Die CPU wird im 45-nm-Prozess gefertigt und verfügt wie die AMDs Phenom über einen L3-Cache. Erstmals hat Intel den Speichercontroller (Bei AMD schon seit dem K8) direkt auf dem Chip integriert. Die CPU verfügt über 3 parallel nutzbare Speicherkanäle (ähnlich Dualchannel). Als Speichertype kommt ausschließlich DDR3 (offiziell bis 133 MHz, aka. DDR3-1066) zum Einsatz.
Eine eingebaute PCU (Power Control Unit), einer Art Coprozessor soll für eine optimale Energieverwaltung der CPU sorgen. SSE4.2 und ein Revival von HyperThreading (8 virtuelle CPUs) wurde ebenfalls eingebaut.

 
Ab dem Intel Core i7 Bloomfield ist auch bei Intel der Memory Controller direkt in der CPU verbaut, anstatt extern auf der Northbridge.
Die wichtigste Neuerung ist das sog. Quick Path Interconnect (QPI). Hier wurde ein neuer Weg (Konkurrenz zu AMDs HyperTransport) für die Kommunikation der CPU mit dem Chip-Satz eingeschlagen. Statt wie bisher parallel (Front Side Bus) wird hier seriell mit bis zu 20 sog. Lanes gearbeitet. Eine Datenrate von bis zu 12.8GByte/s ist möglich. (Verdopplung zu FSB1066).

Intel Core i3, i5, i7 "Lynnfield" (#3.6.3)

Da der Core i7 (Bloomfield) eine teure LGA-1366 Platine voraussetze, und nicht so gut im Spielesektor-Bereich wie der Core 2 Quad war, musste eine neue Desktop-CPU her:

Die "Core iX Lynnfield" Reihe unterscheiden sich hauptsächlich dadurch, dass sie nur ein billigeres LGA1156-Mainboard voraussetzt, welcher nur 2 statt 3 Speicherkanäle hat.

Bei den späteren Modellen wurde auch ein komplett neuer Grafikchip implementiert.

Intel Core i3, i5, i7 "2. Gen. Sandy Bridge" (#3.6.4)

"Sandy Bridge" war der Codename für die neue Architektur der "i3/5/7" Reihe.

Durch neue Features (Displayport, Spannungsversorgung, ...) wurde ein neuer Sockel LGA1155 nötig. Da die Kühler-Befestigung wie beim Lynnfield gleich geblieben ist, können die alten Kühler weiter verwendet werden.

Erstmals erlaubt Intel die Verwendung von 8-GByte RAM-Modulen.

Eine Grafikkarte wurde direkt auf dem Prozessorkern mit OpenGL 2.1 und DirectX 10.1 implementiert. (Leider kein OpenGL 4.0/DirectX 11). Auch die integrierte Media-Engine wurde überarbeitet. (H.264-Streams)

Natürlich gab es auch eine neue Befehlserweiterung (AVX, SSE5), dass durch die Verbreiterung des Registers auf 256-Bit eine schnellere Verarbeitung von Fließkommazahlen mit sich bringt.

Intel Core i3, i5, i7 "3. Gen. Ivy Bridge" (#3.6.5)

Die " Ivy Bridge" ist nicht einfach nur ein neuer Prozessor, sondern vor allem eine neue revolutionäre 22nm Fertigungstechnik.

Auch wurde erstmals der 3D-Transistor[4][5] genutzt. Bei dieser Fertigung wandert der sonst planare 2D-Transistor in die Höhe und gibt somit Spielraum für viele Neuerungen preis (z.B. mehr CPU's auf einem Wafer - dadurch billiger und weniger Leistungsaufnahme).

Verbessert wurde vor allem die Speicherunterstützung, PCI-Express Anbindung und neue Grafikeinheit "HD4000".

Intel Core i3, i5, i7 "4. Gen. Haswell Sockel 1150" (#3.6.6)

Nach dem bekannten Musters des Intel Tick-Tock-Modells von Intel brachte Intel im 2. Quartal 2013 eine neue Prozessorgeneration "Haswell" heraus (In Intel-Modell entspricht dies ein Tock, d.H. es wurde die bestehende 22nm-Fertigungstechnologie beibehalten und eine neue Architektur kam zum Einsatz).

Neben den offensichtlichen Änderungen, wie der Befehlserweiterung "AVX2" und "TSX" sowie der teilweise deutlich aufgebohrten integrierten Grafiklösung, beschränken sich viele Änderungen gerade am CPU-Part eher auf Detailverbesserungen.

Intel Core i3, i5, i7 "5. Gen. Broadwell Sockel 1150" (#3.6.7)

Broadwell heißt der Nachfolger der Intel-Haswell-Mikroarchitektur, welche im 4. Quartal 2014 veröffentlicht wurde. Im Intel-Modell entspricht dies einem Tick, d.H. es wurde die bestehende Architektur zum größten Teil beibehalten aber im 14-nm Verfahren gefertigt.

Kleinere Fertigungsstrukturen haben mehrere Vorzüge, darunter geringere Verluste der einzelnen Transistoren (ergo weniger Abwärme). Bei gleicher Abwärme erreicht der Chip also einen höheren Takt und damit höhere Performance.

Intel Core i3, i5, i7 "6. Gen. Skylake Sockel 1151" (#3.6.8)

Als 6-Generationen werden die Prozessornummer mit einer "6" beginnen und am Ende je nach Verwendung als Desktop- oder Mobile-Chip auf die Buchstaben Y, U, H, K und S enden.

Skylake unterstützt DDR4 (offiziell bis effektiv 2133 MHz) sowie DDR3. Bei den jeweiligen K-Modellen ist darüber hinaus eine Übertaktung des Speichercontroller möglich.

Die im Prozessor eingebaute Grafikeinheit hat Intel besonders gründlich überarbeitet. Bei den Prozessoren für Desktop-PCs sowie nimmt die Grafikeinheit rund 2/3 der rund 122mm² kleinen Fläche ein. Laut Hersteller arbeitet die Grafikeinheit bereits mit DirectX 12 zusammen, welche Microsoft zusammen mit Windows 10 veröffentlicht hat. So soll der HD Graphics 530 auch kommende Spiele in ihrer ganzen Pracht darstellen können.

Intel Core "Kaby Lake Sockel LGA 1151" (#3.6.9)

Kaby-Lake läutet das Ende von Intels Tick-Tock-Modell ein. Die siebte Generationen bietet weder ein neues Herstellungsverfahren noch enthält sie Befehlssatzerweiterungen.

Laut Intel bietet die Kaby-Lake Generation folgende Neuerungen:

  1. Optimierter Energiebedarf
  2. Bessere Wiedergabe von 4K-Inhalten
  3. Hardware-Decoder beherrschen VP9- und HEVC-/H.256-Videos mit 10 Bit Auflösung pro Kanal für High Dynamic Range. (HDR)
  4. Kopierschutzt "High Bandwidth Content Protection (HDCP) 2.2" Unterstützung, sodass unter Windows-10 mit Edge die Wiedergabe von Netflix möglich ist

Intel Core "Coffee Lake Sockel LGA 1151v2" (#3.6.10)

Gegenüber der Kaby-Lake-Generation wurden die Coffee-Lake-Prozessoren mit mehr Prozessorkernen versehen und bieten somit eine höhere Perfomance in Spielen und Anwendungen.

  • Ein aktueller Core-i5 Prozessor entspricht somit ungefähr einem Kaby-Lake Core-i7, gleiches gilt für einen aktuellen i3 und einen "alten" i5.
  • Ebenfalls überarbeitet wurden die Mainboards, welche auf den neuen Intel Z370-Chipsatz zurückgreifen können und über zahlreiche Anschlüsse und Technologien wie USB 3.1, DDR4-Arbeitsspeicher sowie mehrere M.2-Anschlüsse verfügen.

Übersicht der Intel-Multicore Prozessor Generationen (2010 bis 2018)

Codename Jahr Generation Prozess Tick/Tock
Westmere 2010 1. Generation 32 nm Tick (Neuer Fertigungprozess)
Sandy Bridge 2011 2. Generation 32 nm Tock (Neue Architektur)
Ivy Bridge 2012 3. Generation 22 nm Tick
Haswell 2013 4. Generation 22 nm Tock
Broadwell 2014/15 5. Generation 14 nm Tick
Skylake 2015/16 6. Generation 14 nm Tock
Kaby Lake 2016/17 7. Generation 14 nm Optimierung
Coffee Lake 2017 8. Generation 14 nm Kaby Lake Refresh
Cannon Lake 2018 TBA 10 nm TBA
Ice Lake 2019 TBA 10 nm TBA

RAM (Random Access Memory) (#4)

Im RAM eines PC´s werden alle gerade laufenden Programme gespeichert. Wahlfreier Zugriff (Random Access) bedeutet, dass auf jedes beliebige Byte des Speichers gleich schnell zugegriffen werden kann. (vgl. Bandlaufwerk)

DRAM (Dynamic RAM) (#4.1)

Das DRAM ist der einfachste, langsamste und billigste Speicherbaustein. Sein Speicherinhalt geht ohne Stromzufuhr verloren. Eine DRAM-Speicherzelle besteht aus einem Transistor und einem Kondensator.

 
Prinzipieller Aufbau einer DRAM-Speicherzelle aus einem Transistor und einem Kondensator. Quelle: Wikimedia

In einer DRAM-Speicherzelle wird ein Bit durch die Ladung des Kondensators gespeichert. Nachteil dieser Speicherart ist, dass sich der Kondensator durch Kriechströme entlädt und der Speicherzustand alle ~16 nano-Sekunden wieder neu aktualisiert werden muss (sog. Refresh).

Auf diesem Prinzip entstanden alle weiteren Speicher-Typen.
DRAM sind seit Mitte der 70er wegen seines günstigen Preises, seiner "hohen" Geschwindigkeit und seiner Fähigkeit, viele Daten auf relativ wenig Raum zu speichern, zum Standard-RAM in allen Computern geworden.

RAM-Module (#4.2)

DIPP-Chips, 30-polige SIPPS (#4.2.1)

 
14-pin Plastik DIP Packages. Quelle: Wikimedia

Für die erste Generation von DRAM-Chips wurden DIPPs' ('Dual Inline Pin Package) verwendet. Diese wurde auf das Mainboard gesteckt, wobei immer eine ganze Reihe gefüllt werden musste um eine Datenbreite von 8 Bit zu erreichen.

 
SIPP-Module und -Fassung auf einem typischen 80286-Mainboard. Quelle: Wikimedia

Für die nächste Generation wurden die einzelnen DIPPs auf eine externe Platine untergebracht. Der Vorteil dieser 30-poligen SIPPs (Single Inline Pin Package) war die vereinfachte Bestückung des Mainboards.

Das Problem mit den Pins + 30-polige SIMMs

Da bei den SIPPs beim Einbau die Anschlüsse (Pins) sehr leicht brechen konnten, wurden sie in der nächsten Generation weggelassen. Es wurden die 30-poligen SIMMs ('Single 'Inline Memory Modules) entwickelt, welche in einen speziellen SIMM-Sockel eingebaut werden. Durch eine "Nase" an einer Seite ist ein falscher Einbau nicht möglich.

SIMMs und Parität

Frühe RAM-Technologien arbeiteten mit einer Art Fehlererkennung, die Paritätsprüfung genannt wurde. Diese Prüfung erfolgte über einen zusätzlichen, 1 Bit breiten Chip je Speicherbank[6]. Durch das neunte Bit kann die Northbridge die Anzahl der in einem Byte gespeicherten Einsen mit der Anzahl der Einsen vergleichen, die beim Zugriff auf das Byte vorgefunden wurde.

Die Paritätsprüfung war in den frühen Tagen noch sinnvoll. Heutzutage sind die DRAMs so zuverlässig, dass die Paritätsprüfung nur noch selten angewendet wird.

72-polige-SIMMs (PS/2-SIMMs) (#4.2.2)

 
72-poliger PS/2-SIMM-Riegel. Quelle: Wikimedia

Mit dem erscheinen der 386- und 486- Prozessoren mussten die Hersteller der Speicherbausteine reagieren.
Diese SIMMs hatten für die damalige Zeit eine kürzere Zugriffszeit (60-80ns) und mehr Kapazität. Aber das Hauptmerkmal war ein 32-Bit breiten Datenfluss.

SDRAM (168-polige DIMMs) (#4.2.3)

 
SDRAM-Modul PC133 128MB. Quelle: Wikimedia

Um mit der Entwicklung im Prozessor- und Busbereich mitzuhalten, haben die Hersteller DIMMs (Dual Inline Memory Module) entwickelt, die jeweils 64-Bit gleichzeitig liefern konnten.

Da dieser SDRAM (Synchronous DRAM) synchron an den Systemtakt gebunden ist, wird nicht mehr von einer Zugriffsgeschwindigkeit gesprochen, sondern wie bei der CPU von einer Taktfrequenz.


Double-Data-Rate (#4.2.4)

 
Verschiedenen Desktop-DDR-Module: DDR1 hat gegenüber seinen Nachfolgern weniger und größere Kontakte: 1,27 mm/Pin. DDR2 und DDR3: 1,00 mm/Pin. DDR4: 0,85 mm/Pin. Ab DDR3 sind die vier seitlichen Aussparungen eckig. SDR-SDRAM (nicht im Bild) hat zwei Kerben in der Kontaktleiste. Quelle: Wikimedia

Mit der Einführung vom Intel P4 und dem AMD Athlon forderten die Hersteller eine Verdopplung (Double-) oder sogar Vervierfachung (Quad-Dumping) des Datendurchsatzes beim Speicher.
Dies wurde erreicht, indem man nicht nur die ansteigende Flanke, sondern auch die abfallende Flanke des Taktsignals für die Datenübertragung nutze, sog. Prefetching.

Pro Übertragungs-Zyklus werden theoretisch zweimal Daten übertragen. Deswegen wird beim angeben des Taktzyklus bei SDDR-SDRAMs oft die Doppelte Takt-Rate angegeben, also anstatt 200MHz 400MHz.

RDRAM (Rambus DRAM) (#4.2.5)

Als Intel den P4 entwickelte, wusste man, dass herkömmliche SDRAM-Bausteine für den quad-pumped Prozessor nicht schnell genug waren. Daher setzte Intel auf eine neue Speichervariante der Firma Rambus. Die so genannten RDRAMs konnten Geschwindigkeiten bis 800 MHz FSB verarbeiten und waren somit laut Intel für die nächsten Jahre schnell genug.

Im Sommer 2003 stellte Intel die Herstellung von RDRAM-Mainboard und RDRAM-Chipsätzen ein.

DDR-SDRAM (184-polig) (#4.2.6)

Hierbei handelt es sich um eine Weiterentwicklung des SDR-SDRAMs.
Zwar können DDRs (1. Generation) nur bis zu einer Geschwindigkeit von 200MHz betrieben werden (vgl. RAMBUS - 400 MHz), aber wegen ihrer Verfügbarkeit sowie des Preises wurden sie schnell zum Standard.

Nebenbei: Aus Marketing-Gründen wird bei der Bezeichnung von DDR-1/2/3-Modulen die 8x-Fache Geschwindigkeit verwendet.

DDR-SDRAM
Name Bezeichnung (Name x8) Takt Effekt. Takt (Takt x2) Bandbreite (Effekt. Takt x8) Dual Channel (Bandbreite x2)
DDR-200 PC-1600 100 MHz 200 MHz 1.6 GB/s 3.2 GB/s
DDR-266 PC-2100 133 MHz 266 MHz 2.1 GB/s 4.2 GB/s
DDR-333 PC2700 166 MHz 333 MHz 2.7 GB/s 5.4 GB/s
DDR-400 PC-3200 200 MHz 400 MHz 3.2 GB/s 6.4 GB/s
DDR-434 PC-3500 216 MHz 434 MHz 3.5 GB/s 7.0 GB/s
DDR-500 PC-4000 250 MHz 500 MHz 4.0 GB/s 8.0 GB/s
DDR-533 PC-4300 266 MHz 533 MHz 4.3 GB/s 8.6 GB/s

DDR-2 SDRAM (240-polig) (#4.2.7)

Eine Konsequente Weiterentwicklung des DDR-SDRAMs, wobei anstatt eines Zweifachen-Prefetch ein Vierfacher-Prefetch (interner I/O-Takt ist doppelt so schnell) verwendet wird.
Außerdem laufen die DIMMs nur noch mit 1.8V, was auch für mobile Geräte interessant sein sollte.

Interne Verbesserungen sorgen auch für bessere Latenz-Zeiten und hohe Taktrate. Zuerst waren Geschwindigkeiten von bis zu 667MHz geplant, inzwischen sind auch Geschwindigkeiten von bis zu 1250MHz erhältlich.

DDR2-SDRAM
Name (Effekt. Takt) Bezeichnung (Name x8) Takt Effekt. Takt (Takt x4) Bandbreite (Effekt. Takt x8) Dual Channel (Bandbreite x2)
DDR2-400 PC2-3200 100 MHz 400 MHz 3.2 GB/s 6.4 GB/s
DDR2-533 PC2-4200 133 MHz 533 MHz 4.2 GB/s 8.4 GB/s
DDR2-667 PC2-5300 166 MHz 667 MHz 5.3 GB/s 10.6 GB/s
DDR2-800 PC2-6400 200 MHz 800 MHz 6.4 GB/s 12.8 GB/s
DDR2-1066 PC2-8500 266 MHz 1066 MHz 8.5 GB/s 17 GB/s

DDR-3 SDRAM (240-polig) (#4.2.8)

Die äußeren Abmessungen blieben gleich, um Verwechslungen beim Einbau zu vermeiden wurde die Kerbe nach Links verschoben. Viele Veränderungen gab es allerdings unter der Haube. So verringerte sich die Betriebsspannung auf 1.5V. Die Terminierung (Der Abschlusswiderstand) befindet sich jetzt auf dem Speicherriegel und ist unter anderem nötig um Reflexionen auf der Signalleitung zu vermeiden.

DDR-3 besitzt nun auch eine Temperaturüberwachung, welche je nach Temperatur die Abschlusswiderstände kalibriert und so für eine sichere Funktion sorgen soll. Ein weiterer, großer Vorteil ist der neue 8-fach Prefetch.

DDR3-SDRAM
Name (Effekt. Takt) Bezeichnung (Name x8) Takt Effekt. Takt (Takt x8) Datenrate pro Modul (Effekt. Takt x8) Dual Channel (Bandbreite x2) Triple Channel (Bandbreite x3)
DDR3-800 PC3-6400 100 MHz 800 MHz 6.4 GB/s 12.8 GB/s 19.2 GB/s
DDR3-1066 PC3-8500 133 MHz 1066 MHz 8.5 GB/s 17 GB/s 25.5 GB/s
DDR3-1333 PC3-10600 166 MHz 1333 MHz 10.6 GB/s 21.2 GB/s 31.8 GB/s
DDR3-1600 PC3-12800 200 MHz 1600 MHz 12.8 GB/s 25.6 GB/s 38.4 GB/s
DDR3-1800 PC3-14400 225 MHz 1800 MHz 14.4 GB/s 28.8 GB/s 43.2 GB/s
DDR3-1866 PC3-14900 223 MHz 1866 MHz 14.9 GB/s 29.8 GB/s 44.7 GB/s
DDR3-2133 PC3-17000 266 MHz 2133 MHz 17 GB/s 34 GB/s 51 GB/s

DDR-4 SDRAM (288-polig) (#4.2.9)

Seit Mitte 2014 bietet der DDR4-Ram höhere Datentransferraten bei einer kleineren Leistungsaufnahme von 1.2V.

Die Referenzspannung zur Unterscheidung von High- und Low-Pegeln ist nicht mehr fest festgelegt, sonder wird von den Chips untereinander ausgehandelt. Damit kompensieren sie äußere Einflüsse durch wechselnde Temperaturen, unterschiedlich lange Busleitungen und unterschiedliche SDRAM-Chips.

Bei DDR wollte man das Prefetching nicht nochmal steigern. Man hat statt dessen die Zugriffe auf die internen Speicherbänken geschickter verteilt.

Geändert hat sich mit DDR4 auch die Schreibweise der Bezeichnung. Bei DDR4 kann man nun auf die Taktfrequenz schließen, aber eben nicht mehr so einfach auf die Übertragungsrate des Speicherkanals.

DDR4-SDRAM
Name Bezeichnung (= Bezeichnung!) Spannung interner Speichertakt externer Bustakt Bandbreite
DDR4-1600 PC4-1600 1.2 V 100 MHz 800 MHz DDR 12.8 GByte/s
DDR4-1866 PC4-1866 1.2 V 133 MHz 1.066 MHz DDR 14.9 GByte/s
DDR4-2133 PC4-2133 1.2 V 166 MHz 1.066 MHz DDR 17 GByte/s
DDR4-2400 PC4-2400 1.2 V 200 MHz 1.200 MHz DDR 19.2 GByte/s
DDR4-3200 PC4-3200 1.2 V MHz 1.600 MHz DDR 25.6 GByte/s

Anmerkung zu DDR-Generationen (Umrechnungen)

Metadaten-Eigenschaften von DDR(1) bis DDR4
Name Takt-Mupltiplier (Prefetch-Stufe) Bezeichnungs weicht vom Namen ab? (Prefetch x Nummer von Name) Spannung
DDR 2x Ja 1.8V
DDR2 4x Ja 1.8V
DDR3 8x Ja 1.5V
DDR4 8x Nein 1.2V

Man sollte anhand der Generation und mindestens einem vorgegebenen Wert, dazu in der Lage sein die anderen Werte bestimmen zu können. Beispiel:

Name Bezeichnung Takt Effekt. Takt Bandbreite Dualchannel
DDR2-400 100MHz

Ergebnis:

Name Bezeichnung Takt Effekt. Takt Bandbreite Dualchannel
DDR2-400 PC2-3200 100MHz 400MHz 3.2GB/s 6.4 GB/s

Vorgangsweise:

  • Die Nummer der Bezeichnung ist {8x größer als die vom Namen} (Und wird ggf. auf die Hunderte Stelle hochgerundet). 8x400 = 3200MHz
  • DDR2 hat einen Vierfach-Prefetch, das heißt der Effektive Takt beträgt {4 x normaler-Takt} (Diese effekt. Taktrate steht auch im Namen bei DDR bis DDR3) 4x100=400MHz
  • Die Bandbreite beträgt {Nummer der Bezeichnung / 1000}. 3200/1000 = 3.2 GB/s
  • Wie der Name schon erraten lässt ist die Dualchannel-Bandbreite {das Doppelte der normalen Bandbreite}. 2x3.2 = 6.4 GB/s

Begriffe (#4.3)

ECC

Viele hochwertige Systeme (Server, Mainframes) verwenden einen sogenannten Fehler-korrigierenden Speicher (Error Correction Code-RAM). Sie werden allerdings nicht von jedem Mainboard unterstützt. Ein Merkmal dieser RAMs ist der zusätzliche Speicherbank in der Mitte.

Registered RAM

Werden in den meisten Server und vielen High-End-Workstations eingesetzt. Sie verfügen über Schaltungen, folgerichtig Register genannt, die Steuersignale zwecks Synchronisation mit dem Arbeitsspeicher puffern. Diese Art von Arbeitsspeicher ermöglichen einen hohen Datendurchsatz und die Verwaltung von mehreren Speichermodulen.

Dual-Channel-Architektur

Hierbei werden 2 RAM-Module gleichzeitig genutzt, dass der Datendurchsatz gesteigert wird. Die Northbridge schaltet im zwischen diesen beiden Modulen hin- und her um so die Daten schneller zur CPU zu transportieren. Um diese Architektur zu nutzen dürfen meist nur zwei Steckplätze (meist blau) verwendet werden.

Timingwerte (CL CAS Latency Column Adress Strobe Latency)

Die ersten "Drucke"/hergestellten RAMs einer Produktion haben einen geringen Leistungsanstieg (1 Prozentiger Stellen-bereich) gegenüber anderen. Für dieses 1% geben Leistungs-Overclocking-Freaks einiges mehr aus. (Unsinn)


Test von RAM (#4.5)

Mit genügender Sicherheit kann man RAM-Module nur in einem Labor über Stunden oder Tage hinweg testen. Programme für diesen Speichertest bringen meistens nichts.

Wann sollte man einen Speichertest durchführen?

  • Instabilität des Systems
  • Häufung von Bluescreens (Windows)
  • Windows lässt sich nicht installieren

Markenspeicher oder nicht (#4.6)

Es wird geraten, Speicher-Module nur von großen Marken-Hersteller zu kaufen, weil die Ihre Speicherriegel sorgfältig testen.
Auf der Welt gibt es nur 3-4 Speicherhersteller. Wenn du einen günstigeren Speicherstick findest liegt es daran, dass es ein ungeprüftes Objekt ist bei dem man nicht so auf die Fehlerfreiheit geschaut hat. Also: Lieber 3-4€ mehr anstatt nochmals kaufen!

BIOS und CMOS (#5)

Anmerkung: Referat

Bevor wir die Blätter/den Stoff zum Thema BIOS bekommen haben, mussten wir in 2er-Teams ein Referat über das Thema halten. Meine Version der BIOS-Recherche, die ich im Referat genutzt habe, findet man hier.

Die Funktionen des BIOS (#5.1)

Damit man mit einem PC etwas anfangen kann braucht es Eingabe- (Tastatur, Maus, ...) und Ausgabegeräte (Monitor, Soundkarte, ...). Damit diese Geräte funktionieren, müssen sie mit der CPU Daten austauschen können. Deshalb müssen alle Geräte an den Daten- und den Adressbus angeschlossen werden.

 
Schema eines alten Motherboards, das viele On-Board-Peripheriefunktionen sowie mehrere Erweiterungssteckplätze unterstützt. Quelle: Wikimedia

Für diese Funktion gibt es 2 Chips, die sich um diese Aufgabe kümmern:

  • Die "Southbridge" kümmert sich um die Verwaltung einfacher Ein/Aus-gabe Geräte
  • Die "Northbridge" kümmert sich um die Verwaltung von RAM und PClE-Schnittstellen

Zusammen werden diese 2 Chips unter der Bezeichnung "Chipsatz"' aufgeführt, und sind somit verantwortlich dass die CPU und alle anderen Geräte untereinander kommunizieren können.

Beispiel: Tastatur (#5.1.1)

Die Tastatur wird über einen speziellen Chip (Tastaturcontroller) mit den Datenbus verbunden. Bis zum P4 war dieser Chip auf jedem Board vorhanden, jedoch seit ein paar Jahren ist er in die Southbridge integriert worden.

Immer dann, wenn eine Taste gedrückt wird, wird ein Codefolge aus Nullen und Einsen (sog. Scancode) an den Controller geschickt und dort zwischengespeichert, bis die CPU den Controller auffordert diese Daten auf den Datenbus zu legen.

Da aber jeder Tastaturcontroller noch mehr kann, als Daten von der Tastatur zu empfangen und für die CPU zwischen-zu-speichern (zB. LED-Anzeigen für CAPS-LOCK), benötigt man ein Programm mit dem die CPU die Peripherie steuern kann.

  • Diese Programme müssen direkt beim starten des PCs zur Verfügung stehen (wie das BIOS) und dürfen natürlich auch nicht nach dem Ausschalten verloren gehen.

Den Chip, auf dem alle Steuerprogramme für die CPU liegen, nennt man ROM-Chip. (Read-Only-Memory)

  • Auf diesem Chip liegen hunderte kleine Programme, die man zusammenfassend BIOS (Basic Input/Output System) nennt.

Veränderliche BIOS-Daten (#5.1.2)

Neben diesen unveränderlichen Programm-Daten gibt es noch eine ganze Reihe von Daten, die sich je nach installierter Hardware verändern können.

Diese Konfigurations-Daten werden auf einem seperaten CMOS-Chip untergebracht.

CMOS Setup (#5.2)

 
Eine Darstellung der Award BIOS-Setup-Utility. Quelle: Wikimedia

Der oben genannte CMOS-Chip speichert keine Programme, sondern nur Daten, die vom BIOS gelesen werden um diese Programme zu "vervollständigen".

Alle PCs verfügen über ein Programm, mit dessen Hilfe man diese Daten verändern und anpassen kann.

  • Beim starten des PCs wird hierbei eine kleine Oberfläche (mit einigen geladenen Informationen vom CMOS sowie eventuellen Logo etc.) angezeigt. Wenn man während dieser Zeit ein bestimmte Tastenkombination (meißt DEL oder F2) drückt, kommt man in das CMOS-Setup.

CMOS-Setup Einstellungen (#5.2.1)

Obwohl jeder Hersteller sein eigenes CMOS-Setup-Programm besitzt, unterscheiden sich die Einstellungen meist nur durch dessen Namen.

Award-BIOS AMI-BIOS Inhalte
"Standard CMOS Features" "Standard CMOS Setup/Main" Einstellungen zu den Festplatten- und Disketten-Laufwerken, zur Uhrzeit, Datum, Grafikkarte, Fehlerbehandlung
"Advanced BIOS Features" "Advanced BIOS Setup/Advanced" Boot-Reihenfolge, Cache- und CPU-Einstellungen, Tastatur, RAM.
"Advanced Chipset Features" "Advanced Chipset Setup" Chipsatz-Einstellungen und OnBoard-Komponenten.
"Integrated Peripherals" "Peripheral Setup/Features Setup" USB-, IDE-, SATA-, Sound-Chip-Einstellungen und OnBoard-Komponenten
"PnP/PCI Configuration" "PCI/Plug & Play Setup" Einstellungen für das Verteilen der Systemressourcen (IRQs/DMA) und PCI-Einstellungen
"PC Health Status" "Hardware Monitor" Zeigt Ihnen die aktuellen Werte zu Temperatur, Spannung und Lüfterdrehzahl an.
"Frequency/Voltage Control" "Soft Menu Setup" Taktfrequenz und Betriebsspannung der CPU (Genutzt für's Übertakten)
"Load Fail Safe Defaults" "Load Default Settings" Lädt die sichersten BIOS-Einstellungen, mit denen das System immer funktionieren sollte.
"Load Optimized Defaults" "Autoconfiguration with Optimal Settings" Setz7t die BIOS-CMOS-Einstellungen auf optimierte Standardwerte, mit denen das System am schnellsten läuft.
"Set Supervisor Password" "Change Supervisor Password" Legt ein Passwort für den Zugang zum BIOS-Setup-Programm fest.

Einstellungen zurücksetzen

Bei Schwierigkeiten bietet so ziemlich jede BIOS-Setup-Utility die Möglichkeit, die Standardeinstellungen des Rechner- oder des BIOS-Herstellers zu setzen, siehe Obere Tabelle.
Wenn das nicht möglich ist, kann der CMOS-Speicher durch das kurzzeitige Entfernen der Batterie gelöscht werden. (Dies benötigt aber einige Zeit, bis auch die Kondensatoren entladen sind.)

FLASH BIOS Upgrade (#5.2.2)

Bei Modernen Mainboards wird das BIOS in so genannten FLASH-ROM-Chips gespeichert. Diese bieten den Vorteil, dass sie umprogrammiert werden können.

Die aktuelle BIOS-Version wird beim Rechner-start angezeigt, und im Falle von Windows im Registry-Eintrag HKEY_LOCAL_MACHINE\HARDWARE\DESCRIPTION\System abgespeichert.

BIOS-Hersteller

Auf der gesamten Welt gibt es nur große 3 BIOS-Hersteller:

Früher gab es natürlich auch noch ein paar andere, darunter:

Alle BIOS-Hersteller haben ihren Ursprung in Amerika.

BIOS und Gerätetreiber (#5.3)

Wie wir bereits gehört haben konnte IBM natürlich nicht alle Routinen ins System-BIOS programmieren. Die meisten Geräte, die heute ein moderner PC verwendet, gab es ja noch damals nicht.

Zusatz-ROM (#5.3.1)

Die erste Methode, diesen Geräten ein eigenes BIOS zur Verfügung zu stellen, besteht darin, ein eigenes BIOS (mit den speziellen Produkt-Treibern des Geräts) in die Hardwarekomponente zu integrieren.

  • Dieses BIOS meldet sich beim Booten meist mit bestimmten Informationen und zeigt dadurch an, dass es vorhanden ist.

Diese Methode ist ein muss für Geräte, die direkt beim Starten auch ohne das Betriebssystem angesteuert werden können müssen.

Gerätetreiber (#5.3.2)

Eine andere Methode, um der CPU alle notwendigen Informationen über die Hardwarekomponente zu liefern, sind Gerätetreiber.
Diese Treiber ähneln sehr einem BIOS, sind aber meist auf der Festplatte gespeichert.

  • Hierbei kümmert sich das jeweilige Betriebssystem, diese "Programme" zu laden.
    • Die Informationen, wo sich diese Treiber befinden, holt sich Windows mithilfe der:

Vorteil: Updates sind wesentlich schneller zu bewerkstelligen.
Nachteil: Geräte sind erst ab dem starten des Betriebssystems verfügbar.


POST (Power on Self Test) (#5.4)

Wird ein Rechner eingeschalten, oder ein Reset durchgeführt, startet dieser ein spezielles Programm, dass ebenfalls im ROM-Chip gespeichert ist und das POST genannt wird. Dieser überprüft die einzelnen Bestandteile des PCs.

 
BIOS-POST-Diagnose-Karte für ISA-Bus. (Elektor-Kit, Januar 1995.). Quelle: Wikimedia

Wird während dieses Tests ein Fehler festgestellt, bleibt das System stehen, und der Fehler über folgende Möglichkeiten angezeigt (Bei jedem Mainboard-Hersteller anders!):

  • Ausgabe eines Beep-Codes. (Akustisches Signal, welches durch eine typische Tonfolge auf einen Fehler hinweißt.)
  • Ausgabe eines POST-Codes auf einer speziellen POST-Diagnose-karte. (Meist eine 2-Stellige Zahl auf einer Siebensegmentanzeige) (Bei hochwertigen "Gamer"-Mainboards bereits integriert).
  • Direkte BIOS-Fehlermeldung auf den Bildschirm, falls dieser funktioniert

Nach dem absolvierten korrekten Selbsttest wird als letzer Schritt der Interrupt 19 (Urlader, Bootstrap Loader) ausgelöst.
Hierbei wird der Boot-Record von einem Laufwerk in den Speicher übertragen.

  • Der Bootrecord enthält ein Programm zum laden des OS sowie Parameter für das Laufwerk.


UEFI (Unified Extensible Firmware Interface) (#5.5)

UEFI (auf Deutsch ungefähr: "Einheitliches erweiterbare Firmware-Schnittstelle") ist der Nachfolger des herkömmlichen BIOS. Die Grundaufgaben von UEFI sind prinzipiell die gleichen wie beim BIOS, darüber hinaus bietet es aber einige zusätzliche Funktionen:

  • UEFI wurde auf Initiative von Intel, AMD, Microsoft, Hewlett-Packard (HP) und anderen Hardware-Herstellern ins Leben gerufen.
  • Ziel war eine einfacher bedienbare Schnittstelle zu entwickeln, die die grafischen Möglichkeiten moderner Hardware besser als das herkömmliche BIOS ausnutzt
  • Auf Windows Rechner kommt UEFI ausschließlich auf 64-Bit Betriebssystemen zum Einsatz
  • Darüber hinaus ist UEFI auch mit Linux kompatibel

BIOS und UEFI - Die wichtigsten Unterschiede (#5.5.1)

Das alte BIOS wurde in den 1970er-Jahren entwickelt und kam erstmals 1981 auf dem allerersten IBM-PC zum Einsatz. (MS-DOS Ära)

Der Nachfolger UEFI bietet im Vergleich eine einfachere Benutzerführung und zusätzliche Funktionen, die heute zum Standard gehören. Die wichtigsten Unterschiede:

  • Das alte BIOS ist auf das VGA-Bildformat von 640x480 Pixel beschränkt
  • Das UEFI lässt sich per Maus bedienen
  • Im Unterschied zu BIOS enthält UEFI alle wichtigen Treiber, die für den Windows-Systemstart benötigt werden. (= Schnelleres Booten für Windows)
  • UEFI verfügt zudem über einen Standardtreiber für die Netzwerkkarte, um zB. Firmware-Updates herunterzuladen und installieren. (Beim BIOS muss man es erst herunterladen und selbst flashen)
  • Festplatten werden mit UEFI anders positioniert: Statt nur 4 primären Partitionen (BIOS) lässt UEFI bis zu 128 Partitionen zu.
  • Bei manchen Anbietern kann das UEFI außerdem Spiele, einen RAM-Test oder einen Browser enthalten.

Erweiterungsbus (#6)

Um einen PC mit zusätzlichen Funktionen auszurüsten, hat schon IBM bei seinem ersten Computer Erweiterungssteckplätze eingebaut. Über diese Steckplätze war es der CPU möglich die Karten dementsprechend anzusteuern.

PC-BUS (XT-BUS, bzw. 8-Bit ISA) (#6.1)

 
PC-BUS (XT-BUS, bzw. 8-Bit ISA) Slot. Quelle: Wikimedia

Der erste Bus der IBM für seinen ersten Computer entwickelte war der "PC-BUS".
Die Karten wurden mit einem 8-Bit Datenbus und einer Taktfrequenz von 7 MHz betrieben. (Damit war die Taktfrequenz sogar höher als die damalige CPU-Frequenz von 4,77 MHz)

Der Erfolg dieses Systems lag sicher darin, dass Drittanbieter (Compaq, Dell, ...) diesen Bus ohne Zahlung von Lizenzgebühren einfach kopieren durfte. Auch für die Herstellung der Erweiterungskarten wurde keine Lizenzen verlangt.

16-Bit ISA (#6.2)

 
16-Bit ISA-Bus von einem ABIT Mainboard, ca. 2001.Quelle: Wikimedia
 
Schematische Darstellung der Pins eines ISA-Bus-Slots zur Veranschaulichung, dass der ISA-Bus "nur" eine Erweiterung des XT-Bus auf 16-Bit ist und eine XT-Karte in einen 16-bit-ISA-Slot passt. Quelle: Wikimedia

Als Intel den 286er entwickelte musste ein neuer Erweiterungsbus entworfen werden um den 16-Bit-Datenbuss des Prozessors zu nutzen.

  • Um die Kompatiblität zu älteren Karten nicht zu verlieren, wurde der PC-Bus einfach um eine Steckerleiste erweitert. Die Taktfrequenz blieb gleich.

Systemressourcen (#6.2.1)

Damit Erweiterungskarten mit der CPU kommunizieren können, müssen sie auf Systemressourcen des PCs zugreifen können.

  • E/A-Adressen
  • IRQs
  • DMA-Kanäle
  • Speicheradressen

Auch wenn heute Erweiterungskarten automatisch erkannt und die Systemressourcen von System zugewiesen werden (Plug&Play) ist es für einen EDV-Techniker wichtig, im Falle eines Problems die Prozesse etwas genauer zu kennen.

E/A-Adressen (#6.2.1.1)

Wie schon besprochen ist jede Peripherie über einen Controller mit dem Datenbus und dem Adressbus verbunden. Aber woher weiß nun die CPU, welcher Controller kommunizieren will?

Die Lösung:

  • Mithilfe des Adressbuses und einer zusätzlichen IO/MEM-Leitung informiert die CPU das System, dass sie den Adressbus nicht zur Angabe einer bestimmten Adresse im Speicher benutzen möchte, sondern um mit einer bestimmten Komponente zu kommunizieren.

Wenn die CPU eine Spannung an die IO/MEM-Leitung, gefolgt von einem bestimmten Muster auf den Adressbus, anlegt (das genau der E/A-Adresse eines bestimmten Controllers entspricht), "erhält dieser Controller das Recht" mit der CPU Daten auszutauschen.

Windows-Gerätemanager

Über den "Geräte-Manager" (von Windows) kann man alle in einem Rechner benutzten E/A-Adressen ansehen.

  • E/A-Adressen sind immer 4-stellige Hexadezimalzahlen.
  • Sehr viele Komponenten verwenden nicht nur eine, sondern gleich mehrere E/A-Adressen. Zwei Geräte dürfen niemals die gleiche E/A-Adresse verwenden. Aus diesem Grund hat IBM eine eigene, einheitliche Zuordnungstabelle von Schnittstelle->E/A-Adresse erstellt:
Zuordnungstabelle Schnittstelle -> E/A-Adresse
Schnittstelle E/A
COM 1 03F8
COM 2 02F8
COM 3 02E8
COM 4 03E8
LPT 1 0378
LPT 2 0278


IRQs (Interrupted Requests) (#6.2.1.2)

Wie kann die Tastatur der CPU mitteilen, dass eine Taste betätigt wurde?

Der PC braucht eine Möglichkeit, die CPU aufzufordern, die Momentane Arbeit einzustellen und die Kommunikation mit einem bestimmtem Gerät aufzunehmen.

  • Dieses Verfahren wird Unterbrechung (Interrupt) genannt.
  • Jede CPU verfügt über eine Interrupt-Leitung. Wenn diese Leitung geladen ist, stoppt die CPU ihre momentane Tätigkeit und wendet sich der Komponente zu, die für die Unterbrechung gesorgt hat.

Das Problem: Es gibt sehr viele Geräte, die einen Interrupt fordern können. Aus diesem Grund wurde ein Interrupt-Controller in den PC eingebaut. (Auf einem sog. "Advanced Programmable Interrupt Controller Chip, kurz APIC-Chip")

  • Die meisten IRQ-Leitungen des Controllers waren bestimmten Komponenten vorbehalten. Wenn zwei Geräte den gleichen IRQ verwendet hätten, wäre es in den meisten Fällen zu einem Systemabsturz gekommen.
    • Aus diesem Grund hat IBM eine eigene, einheitliche Zuordnungstabelle von Gerätetyp->IRQ-Adresse erstellt:
Zuordnungstabelle Gerätetyp -> IRQ-Adresse
IRQ Funktion
0 Systemtaktgeber
1 Tastatur
2/9 Frei
3 COM 2 / COM 4
4 COM 1 / COM 3
5 LPT2
6 Diskettenlaufwerk
7 LPT1
8 Echtzeituhr
10 Frei
11 Frei
12 Frei
13 Mathe Koprozessor
14 Primäre Festplatte
15 Sekundäre Festplatte

Ein seperater IRQ2 und IRQ9 existiert nicht - dieser Interrupt heißt immer IRQ2/9.

Moderne IRQ-Verwendung

Auch die modernsten Erweiterungskarten benötigen einen IRQ.

  • Bei modernen Systemen werden die IRQs automatisch (Plug&Play) zugeordnet.
  • Die meisten davon können zwar gemeinsam einen gleichen Interrupt verwenden, aber trotzdem kann es vorkommen, dass es zu einem Konflikt kommen kann.


DMA (Direct Memory Access) (#6.2.1.3)

Prozessoren erledigen einen Haufen Arbeit. Deshalb kann der Fall auftreten, dass ein Gerät keinen Zugriff auf den Speicher hat, weil die CPU keine Zeit hat. Beispiel: Soundkarte benötigt Daten -> Musikwidergabe stockt.

Mithilfe von DMA können Komponenten im Hintergrund auf den Speicher zugreifen, ohne die CPU stören zu müssen.

Was passiert aber, wenn mehrere Komponenten gleichzeitig zugreifen möchten, oder die CPU plötzlich den Datenbus benötigt? Dieses Problem wurde durch den Einbau des DMA-Controllers gelöst:

  • Der DMA-Chip überträgt die Daten über den externen Datenbus, wenn die CPU beschäftigt ist und gibt in frei, wenn die CPU ihn benötigt.
  • Der DMA-Controller arbeitet ähnlich wie der IRQ-Controller (Die Regeln sind die selben wie bei E/A-Adressen). Es stehen ihm 4 Leitungen (sog. DMA-Kanäle) zur Verfügung, über die ein DMA Zugriff aktiviert werden kann.

Moderner DMA-Transfer

Heutzutage nutzen nur noch sehr wenige Geräte den klassischen DMA-Transfer (Soundkarte, Diskettenlaufwerk = DMA 2). Die meisten Geräte greifen noch auf den DMA-Controller noch auf die CPU zurück. Diese Komponenten (z.B. Festplatten) wenden das sog. Busmastering an, das sich hinter dem Begriff Ultra-DMA verbirgt.

Speicheradressen (#6.2.1.4)

Einige Erweiterungskarten verfügen auf der Platine über ein eigenes ROM, welche Adressen aus dem Hauptspeicher (RAM) des Systems benötigen.

  • Derartige Karten zeigen beim Booten des Systems meist ein paar Informationen auf den Bildschirm an.
  • Im Windows-Gerätemanager lassen sich die verwendeten Speicheradressen anzeigen. (Die Regeln sind die selben wie bei E/A-Adressen)


Historische Erweiterungsbusse (#6.3)

 
Verschiedene PC-Bussysteme, die aufeinander aufbauen (Aka. eine ISA-Karte passt in einen EISA Slot). Von oben nach unten: * 8-Bit Bus des XT, * 16-Bit Bus ISA, * 32-Bit Bus Extended ISA (EISA). Quelle: Wikimedia

Die "erste Generation" an Erweiterungsbusse (8- und 16-Bit-ISA) sind für Moderne Systeme zu langsam.
In der laufe der Zeit gab es einige Neuentwicklungen, die aber nur von kurzer Dauer war.

MCA (Microchannel Architecture) (#6.3.1)

Der MCA wurde mit dem Erscheinen des 80386-Prozessors von IBM entwickelt.

  • Er verfügte über einen 32-Bit-Bus und wurde mit 10 MHz betrieben.
  • Dieser Bus verfügte erstmals über die Fähigkeit der automatischen Geräte-Konfiguration.
  • Der MCA war zwar ein hervorrangeder Bus, da er aber unter einer teuren IBM-Lizenz lag verschwand er schon Anfang der 90er wieder.

EISA (Extended ISA) (#6.3.2)

Wegen der "Lizenzierungs-Politik" von IBM schuf eine Gruppe von Klon-Herstellern ein Konkurrenzprodukt zum MCA und nannte es EISA.

  • Um die Kompatibilität zu älteren Karten nicht zu verlieren, wurde der ISA-16-Bus einfach um eine weitere 16-Bit Steckerleiste Steckerleiste erweitert. Die Taktfrequenz von 8 MHz blieb auch gleich.
  • Der EISA überlebte bis etwa Mitte der 90er Jahre

VESA Local Bus (VL-Bus) (#6.3.3)

Mit den Erscheinen der grafischen Benutzeroberflächen von Windows konnten die Grafikkarten die Anforderungen nicht mehr erfüllen.

  • Der VLB verwirklichte erstmals das Konzept des "lokalen" Busses, der heute Frontside Bus genannt wird.
  • Betrieben wurde der VLB mit 32-Bit und einer Taktfrequenz von 33 MHz.


PCI (Peripheral Component Interconnect) (#6.4)

Der PCI-Bus wurde von Intel etwa gleichzeitig mit dem Pentium-Prozessor vorgestellt. Die außerordentliche Technologie in Verbindung mit den fehlenden Lizenzgebühren führte dazu, dass PCI rasch zu einem Standard wurde.
Obwohl sich die Geschwindigkeit und Bus-breite kaum von seinen Vorgängern unterscheidet (32-Bit, 33 MHz), hatte der PCI-Bus entscheidende Vorteile:

Flexibles Design

PCI arbeitet völlig unabhängig vom jeweiligen Prozessortyp. Sogar die MACs von Apple verwendeten PCI.
Die Hersteller konnten Komponenten mit 32-Bit / 33 MHz oder auch mit 64-Bit und 66 MHz fertigen.

Selbst konfigurierend

PCI-Komponenten benötigen zwar immer-noch IRQs und E/A-Adressen, jedoch übernimmt der PCI-Bus die automatische Einstellung dieser Werte.

  • Die "Special Interest Group (SIG)" hat praktisch für alle Komponenten diese Resourcen definiert.
  • PCI verwendet keine einzelnen IRQs, sondern gemeinsam nutzbare "Interruptkanäle" (INT-A, -B, -C und -D).
    • Die Hersteller der PCI-Komponenten konfigurieren diese Interruptkanäle ab Werk und müssen nur in sehr seltenen Fällen geändert werden.

PCI-Versionen

Technische Daten Version 1.0 Version 2.1 / 2.2
Busbreite 32 Bit 32/64 Bit
Bustakt 33 MHz 66 MHz
Max. Übertragungsrate 132 MB/s 533 MB/s


AGP (Accelerated Graphics Port) (#6.5)

Für Moderne Spiele oder Programme mit anspruchsvoller Grafik wurde auch der PCI-Bus zu langsam.

  • Deshalb entwickelte Intel einen Super-PCI-Steckplatz, der ausschließlich für Grafikkarten genutzt werden kann: den AGP-Bus.

Ein AGP-Steckplatz ist zwar auch nur ein PCI-Steckplatz, hat aber eine private Verbindung zur Northbridge.
Außerdem vervielfacht AGP die Taktrate über eine Funktion, die Strobing genannt wird und kann so das mehrfache an Signalen über einen Taktzyklus ableiten.
2 Weitere Vorteile von AGP sind:

  • Die Befehle werden mithilfe einer Pipeline (Wartschlange) bearbeiten und
  • die Daten werden über zwei Datenbusse (Sidebanding) übertragen
Busfrequenz Strobe Breite Durchsatz
AGP 1x 66 MHz 1x 32 Bit 264 MByte/s
AGP 2x 66 MHz 2x 32 Bit 528 MByte/s
AGP 4x 66 MHz 4x 32 Bit 1056 MByte/s
AGP 4x 66 MHz 4x 64 Bit 2112 MByte/s
AGP 8x 66 MHz 8x 64 Bit 4224 MByte/s

PCI X (PCI Extended) (#6.6)

PCI X stellt eine erhebliche Erweiterung des aktuellen PCI-Standards dar.

  • PCI X hat 64 statt 32 Bit (und ist deshalb schon um ein vielfaches schneller), ist aber immer-noch mit dem "alten" 32-Bit PCI-Stecker kompatibel, da (wie von ISA-8 auf ISA-16) einfach die Steckerbreite erweitert wurde.
Standard Busbreite Taktrate Features Bandbreite
PCI-X 66 64 Bit 66 MHz Hot Plugging, 3.3V 533 MByte/s
PCI-X 133 64 Bit 133 MHz Hot Plugging, 3.3V 1.06 GByte/s
PCI-X 266 64 Bit, opt. mit nur 16 Bit 133 MHz Double-Data-Rate Hot Plugging, 3.3V & 1.5V, ECC supported 2.13 GByte/s
PCI-X 533 64 Bit, opt. mit nur 16 Bit 133 MHz Quad-Data-Rate Hot Plugging, 3.3V & 1.6V, ECC supported 4.26 GByte/s

Derzeit wird PCI-X in herkömmlichen Rechnern kaum realisiert, da zu teuer. Außerdem ist mit dem Erscheinen von PCI Express ein neuer, zwar nicht unbedingt schnellerer aber dafür simpler und günstiger, Gegner erschienen:

PCI Express (#6.7)

 
PCI-Express- und PCI-Steckplätze auf einer PC-Hauptplatine: von oben nach unten: PCI-Express x4, x16, x1, x16 und konventionelles PCI. Quelle: Wikimedia

Intel hat mit der Einführung der Chipsätze i915 und i925 auch einen neuen Erweiterungsbus herausgebracht.

Eigenschaften (#6.7.1)

Bis auf den Kürzel "PCI" hat dieser Bus nichts mit dem "alten" PCI gemeinsam.

  • Die wichtigste Änderung liegt hierbei in der Datenübertragung, welche nicht-mehr parallel sonder jetzt seriell abläuft.
    • Die serielle Punkt-zu-Punkt Verbindung entsteht durch so genannte "Lanes", die jeweils aus zwei unidirektionalen Leitungspaaren bestehen (Eine zum senden und eine zum Empfangen).
    • Damit keine magnetischen Spannungen entstehen, wird mit einer sehr kleinen Spannung gearbeitet.
    • Derzeit sind bei PCIE nur 32 Lanes möglich.

Wie bei fast jedem bisher angesprochenen Erweiterungssteckplatz gibt es auch hier wieder verschiedene Versionen, die zueinander kompatibel sind, da sie nur einen gewissen Bereich erweitern. (Beispiel: Man kann eine x2-Karte problemlos in einen x8-Slot stecken).
Die PCIE x1-Schnittstelle, welche den normalen PCI-Slot ablösen soll, besitzt samt Stromversorgung, Steuer-, Daten- und Adressbus genau 36 Pins.

Architektur (#6.7.2)

Im Gegensatz zu PCI, mit der "Bus-Topologie", bei der sich alle angeschlossenen Komponenten die verfügbare Bandbreite teilen müssen, werden bei PCI-Express serielle Verbindungen zu einem Switch geschaltet, der sich im Chipsatz befindet.

  • Der Switch verbindet eine PCIE-Baugruppe direkt mit dem Arbeitsspeicher (oder anderen Baugruppen) mit der vollen Bandbreite.

Übertragungsraten (#6.7.3)

Die Übertragungstechnik von PCI-Express beruht auf zwei Leitungspaaren (4 Adern), die als Link oder Lane bezeichnet werden:

  • Auf jedem Leitungspaar werden (bei PCIE 1.0/1.1) die elektrischen Signale mit 1,25 GHz übertragen.
    • Pro Richtung lassen sich 2,5 GBit/s (Brutto) übertragen, was 250 MByte/s (Netto) entspricht. (Jedes Datenpacket hat einiges an Frame-Info, damit die Switch-Topologie alle Packete/Quellen managen kann, wie bei normalen TCP/IP-Paketen)
  • Zur Steigerung der Leistung darf ein Gerät auch mehrere Links benutzen.
    • Insgesamt lassen sich bis zu 32 Links bündeln. So ist eine Übertragungs-Kapazität von 80 GBit/s (Brutto) oder 8 GByte/s (netto) erreichbar.
Version Takt Bandbreite pro Link Nettotransferrate pro Link
1.0/1.1 1,25 GHz 2,5 GBit/s 250 MByte/s
2.0 2,5 GHz 5 GBit/s 500 MByte/s
3.0 5 GHz 10 GBit/s 1000 MByte/s

Sonstige Eigenschaften (#6.7.4)

Mainboard (#7)

Mainboards sind Platinen mit aufgedruckten Leiterbahnen (mehrere Schichten) über die die einzelnen Spannungen geleitet werden , mit der Aufgabe alle Hardwarekomponenten miteinander zu verbinden.

Das Design war durch große Firmen wie IBM oder Intel prinzipiell schon gegeben, der Integrationsgrad (sprich Komponenten, die zusätzlich auf dem Mainboard integriert sind) war Anfangs gering, aber immer weiter gestiegen.

Moderne Mainboards werden durch folgende Faktoren bestimmt:

  1. Formfaktor / Layout: bestimmt, welche Art von Gehäuse für das Mainboard verwendet werden kann
  2. Chipsatz: bestimmt, welcher Prozessortyp und welche Art von Speichermodulen verwendet werden können
  3. Erweiterungssteckplätze: beeinflussen die Erweiterbarkeit
  4. Komponenten: Ausstattung und Preis





Mainboard-Typen (#7.2)

Mainboards werden in unterschiedlichen Abmessungen angeboten. Trotzdem verfügen alle über Gemeinsamkeiten wie z.B. Anordnung der Erweiterungssteckplätze, Externe Anschlüsse, usw..

Die Art und Weise, wie die verschiedenen Komponenten angeordnet sind, wird der Formfaktor der Mainboards genannt.

AT (#7.2.1)

Der AT-Formfaktor wurde von IBM in den frühen 80er-Jahren entwickelt und war bis zur Mitte der 90er-Jahre vorherrschend. Er ist leicht an der Position der Tastatur-Buchse und an den zwei Steckern für die Stromversorgung erkennbar.

Das ursprüngliche AT-Board war riesig (30,5 x 33 cm). Durch zunehmende Integration konnte es erheblich verbessert werden.

Baby AT (#7.2.2)

 
Mainboard im Baby-AT-Format (Chicony CH-286N-16 für Intel 80286 und kompatible Prozessoren, 1989) mit Baugruppenbezeichnung. Quelle: Wikimedia

Durch verbesserte Integration und den Wunsch nach kleineren PCs entwickelten die Hersteller das Baby-AT-Board, welches rasant zum beliebtesten Formfaktor (22 x 23-34cm, B x H).

Tastatur und Erweiterungssteckplätze blieben allerdings am gleichen Ort.

ATX (Advanced Technology Extended) (#7.2.3)

Die große Nachfrage nach einem neuen Formfaktor mit mehr Standardanschlüssen führte 1995 zur Entwicklung des ATX-Formfaktors.

ATX verfügt über dieselben Abmessungen wie Baby-AT (30,5 x 24,5 cm), wird aber um 90 Grad gedreht. Auch die Verlegung des Arbeitsspeichers, CPU und Northbridge näher zueinander brachte eine deutliche Leistungssteigerung (kürzere Strecken für den FSB).

ATX-Mainboards ünterstützen eine Funktion, die Softpower genannt wird. Beim Ausschalten wird der Rechner in einen Standby-Ähnlichen Zustand gesetzt, anstatt wie bei AT physikalisch getrennt zu werden (Nützlich für Wake-on-LAN).

Kleinere Varianten des ATX sind Für das ATX gibt es verschiedene Boardmaße, je kleiner desto weniger Steckplätze/RAM-Slots/... sind vorhanden:[7]

  • E-ATX-Format: 305 mm × 330 mm (12″ × 13″)
  • ATX: 305 mm × 244 mm (12″ × 9,6″)
  • XL-ATX: 345 mm × 262 mm (13,5″ × 10,3″)
  • ATX-EXtended: 308 mm × 340 mm (Server Board Format)
  • Mini-ATX: 284 mm × 208 mm (11,2″ × 8,2″)
  • Micro-ATX: 244 mm × 244 mm (9,6″ × 9,6″)
  • Flex-ATX: 229 mm × 191 mm (9″ × 7,5″),
  • Mini-ITX: 170 mm × 170 mm (6,7″ × 6,7″)
  • Nano-ITX: 120 mm × 120 mm (4,7″ × 4,7″)
  • Pico-ITX: 100 mm × 72 mm (4″ × 2,8″)

ITX (Mini, Nano, Pico) = (#7.2.4)

 
Mini-ITX-PC mit internem Flex-ATX-PC-Netzteil und Intel-Atom-CPU. Quelle: Wikimedia

Beim ITX Mainboard handelt es sich um eine besonders kleine Form des Mainboards. Dabei muss der Nutzer in der Regel alelrdings keine Abstriche bei der Technik oder bei der Ausstattung machen.

Das Mini ITX Mainboard wird im privaten Einsatz immer beliebter, da sie sehr Leise sind und überall hinpassen.

LPX (Low Profile Extended) (#7.2.5)

 
Typische LPX-Riser-Card, mit Anschlüssen für PCI- und ISA-Karten. Unten ist ein Braune Riser-Karten-Stecker. Quelle: Wikimedia

Beim LPX-Formfaktor handelt es sich um eine Abwandlung von ATX. Da es für flache Gehäuse gedacht ist sind praktisch alle Schnittstellen-Anschlüsse auf dem Board vorhanden. Die Steckkarten werden über eine Riser-Karte mit dem Board verbunden.

Diese Rechner sind besonders schwer erweiterbar wegen der schlechten Wärmeableitung nicht für schnelle Prozessoren geeignet. Auch hier existiert eine kleinere Variante, das miniLPX.

BTX (Balanced Technology Extended) (#7.2.6)

 
Ein häufiges Merkmal von BTX ist die um 45-Grad gedrehte CPU.

Der Standard BTX stammt ebenfalls von Intel und sollte eigentlich den ATX-Standard ablösen. Bei BTX ist die Position der einzelnen Komponenten auf dem Mainboard genauer definiert (= näher beieinander und kleiner).

Ein häufiges Merkmal von BTX ist die um 45-Grad gedrehte CPU.

DTX (Nachfolger von BTX) (#7.2.7)

Hinter dem Formfaktor DTX steckt der Prozessor-Hersteller AMD.

Proprietäre Mainboards (#7.2.8)

Einige bedeutende PC-Hersteller (Apple, HP, Sony..) fertigen Mainboards, die nur in firmeneigenen Gehäusen eingesetzt werden können. Hierdurch wird keineswegs zufällig dafür gesorgt, dass Kunden beim Service und bei der Erweiterung auf autorisierte Händler angewiesen sind.





Chipsatz (#7.3)

 
Schema eines alten Motherboards, das viele On-Board-Peripheriefunktionen sowie mehrere Erweiterungssteckplätze unterstützt. Quelle: Wikimedia

Einleitung (#7.3.1)

Der Chipsatz bestimmt unter anderem den verwendbaren Prozessortyp, die Art und maximale Kapazität des Speichers und die internen/externen Komponenten.

Der Chipsatz ist zuständig für die Kommunikation der Komponenten eines PC's, weswegen dieser einen entscheidenden Einfluss auf die Leistung des PC's hat. (Was nützt die schnelle CPU/Festplatte wenn der Datentransfer zu langsam ist)

Die Mainboard-Hersteller kombinieren die Chipsätze noch mit einigen anderen Bauelementen und passen das BIOS sowie die Treiber (zur Kommunikation des Mainboards mit dem Betriebssystems) entsprechend an.

Aufbau (#7.3.2)

Die frühere Aufteilung in eine

  • Northbridge, welche für die Anbindung von Arbeitsspeicher und Grafikkarten verantwortlich ist und eine (schnell")
  • Southbridge, welche für die langsameren Verbindungen wie Festplatte, PCI-Steckplätze und Peripheriegeräte ("langsam")

verschwindet derzeit, da die Funktionen wie Speichercontroller usw. mittlerweile in der CPU selbst integriert sind.

Deshalb besteht der Chipsatz heutzutage nur-noch mehr aus einem Chip (PCH) - es wird trotzdem weiterhin von einem Chipsatz gesprochen.



Netzteil (#8)

Allgemein (#8.1)

 
Blick in ein PC-Netzteil (Alle Komponenten mit Beschriftung). Quelle: Wikimedia

Für die Stromversorgung eines Rechners sorgt üblicherweise ein einziges Kästchen, das Netzteil (PSU - Power Supply Unit). Die von ihm ausgehenden Leitungen werden mit dem Mainboard und anderen Komponenten verbunden.

Aufgabe (#8.2)

Die Aufgabe des Netzteiles ist die Umwandlung von 230V Wechselspannung in Gleichspannung. Auch gelegentliche Schwankungen der Versorgungs-Spannung soll kein Einfluss auf die Gleichspannung haben. (Spannungs-Stabilisation)

Manche (billige) Netzteile verfügen über einen kleinen Schalter an der Rückseite bei dem man zwischen 115V und 230V wechseln kann. Moderne Netzteile verfügen über ein sog. Autoswitching.

ATX Netzteile sind auch im Betrieb, wenn der PC ausgeschaltet ist (Standby).

Aufbau (#8.3)

 
Aufbau eines Schaltnetzteils. Quelle: Elektronik-Kompendium

Der herkömmliche Aufbau (Trafo, Gleichrichter) eines Netzteiles für die Leistung (300-1000W) ist kaum möglich, da dieser viel zu Groß und teuer wäre.
Deshalb werden bei PC-PSU's sog. Schaltnetzteile verwendet. (Siehe rechtes Bild)

ACHTUNG: Zwischen der "Gleichrichtung und Siebung" und der "Transistor-Schaltstufe" herrscht eine extremst-hohe Gleichspannung von über 350V[8].

+ 3,3 V Laufwerkselektronik von S-ATA-Laufwerken; CPU, RAM, Chipsatz, Grafikkarte
+ 5 V Laufwerkselektronik, Erweiterungskarten, CPU-RAM bei AT
+ 12V Laufwerkmotoren, Lüfter, Erweiterungskarten
- 5 V Erweiterungskarten (ISA)
- 12 V Erweiterungskarten (ISA, PCI)

ATX-Formate (#8.4)

 
ATX / EPS / SSI Stromanschlüsse: 24pin Hauptstrom, 8pin CPU, 4 Pin CPU - Netzteil Seite (Server / Workstation / Cluster). Quelle: Wikimedia

Man unterscheidet zwischen ATX Version 1.3, 2.0 und 2.2 (2.4), wobei jede Version einen anderen Stromstecker für die Hauptplatine besitzt.

  • Bei ATX 1.3 ist dieser so genannte Molex-Stecker 20-polig
  • Bei ATX 2.0 ist er 24-polig
  • Bei ATX 2.2 wird ebenfalls auf einen 24-poligen Stecker gesetzt, hier steht den CPUs zusätzlich ein 8-poliger 12-Volt-Stecker zu Verfügung. Dafür fehlt die Leitung, die -5 Volt erzeugt.

Um das Stecker-Wirrwarr etwas zu vereinfachen, gibt es Adapter, die beispielsweise aus einem 24-poligen einen 20-poligen Stecker machen. Der Unterschied zwischen ATX 2.2 - 2.4 ist nur sehr geringfügig (Min. Last).

Wirkungsgrad (#8.5)

Der Wirkungsgrad gibt das Verhältnis von zugeführter und abgegebener Leistung in Prozent an. Je höher der Wirkungsgrad, desto ökonomischer arbeitet das Schaltnetzteil.

PFC - Power-Factor-Correction / Leistungsfaktorkorrektur (#8.6)

Durch die unsymmetrische und nicht sinusförmige Stormentnahme durch Computer- und Monitornetzteile sind deutliche negativen Auswirkung auf das Stromversorgungsnetz zu beklagen.

Demnach müssen alle hergestellten Netzteile schaltungstechnich eine Leistungsfaktorkorrektur beinhalten, sobald sie mehr als 75 Watt aus dem Stromnetz ziehen.

Die Wattleistung (#8.7)

Netzteile mit 250-300 Watt sind für normale Büro-Computer normal. Da nicht jedes Netzteil in der Lage ist, konstant bis an seine Leistungsspitze zu arbeiten, empfiehlt es sich ein Schaltnetzteil immer mit ein paar Watt mehr mit-einzuberechnen.

Methode passive PFC aktive PFC
Verfahren Spule in Reihe zur Strombegrenzung des Primärkreis Elektrostatisch mit Pulsbreitenmodulation (PWM)
Vorteile kostengünstig klein, leicht
Nachteile schwer und groß teuer
Leistungsfaktor 0,7 bis 0,8 0,9 bis 1,0

ATX-Netzteil defekt? (#8.8)

Ein ATX-Netzteil kann man wie folgt testen: Einfach eine Drahtbrücke zwischen "Kontakt 4" und "Masse" und schon sollte sich zumindest der Lüfter des Netzteiles in Bewegung setzen.

Mit einem Voltmeter kann man jetzt sogar die einzelnen Spannungen kontrollieren: Allerdings das Netzteil die im Leerlauf betreiben! Am besten eine Festplatte anschließen.