Hallo Alpesto,
Deine Frage ist durchaus berechtigt und wird im LB3 (Ausgabe 2.2. S.76ff) angesprochen und später im LB12 (Ausgabe 2.1., Kap. 3.2., S.76ff) vertieft.
Zunächst ist es einleuchtend, durch parallele Datenübertragung die Datenrate zu vervielfachen. Das war früher auch Stand der Technik (PATA, SCSI, ISA, PCI), es haben sich jedoch einige Nachteile herausgestellt:
Nicht nur der Verkabelungsaufwand, der Platzverbrauch auf dem Chip (Anschlüsse) und der Stromverbrauch sind höher, sondern vor allem die Störanfälligkeit macht Probleme: Übersprechen, parasitäre Kapazitäten, Skew (Signale laufen nicht exakt gleich schnell) begrenzen die Frequenzen und damit die Datenübertragungsrate.
Bei langsamen und weniger hoch integrierten Schaltkeisen hatte man aber früher keine Wahl.
Heute erledigen hoch integrierten Schaltkeise Serialisierung und Deserialisierung im GHz-Bereich. Die Treiberstufen der Bussysteme sind für hohe Datenraten ausgelegt. Daten, Adressen und Steuerinformationen werden bitseriell übertragen und ggf. zusätzliche Bits für Synchronisation und Fehlererkennung in den Datenstrom eingefügt.
So erfolgte der Wechsel von PATA zu SATA, von SCSI zu SAS, von PCI zu PCI-Express, von der parallelen Schnittstelle (IEEE 1284) zu USB und Firewire.
Die serielle Datenübetragung hat aber nicht nur Vorteile, so sind ggf. längere Latenzzeiten anszusetzen. Werden 32 Bits mit 1 GB/s seriell übertragen, so liegt die Latenzzeit bei 32ns, d.h. in der Größenordnung des PCI-Bus.
Siehe auch: LB3, V.2.2, Frage 5:
Nennnen Sie den wichtigsten anwendungspraktischen Vorteil serieller Bussysteme.
Gruß Mucki