KI-Transkript, leicht editiert. Enthält Fehler.
Henner:
[0:00] Hallo liebe Hörerinnen und Hörer und moin Gunnar.
Gunnar:
[0:03] Tag Henner.
Henner:
[0:04] Gunnar, wusstest du, dass dein alter Kompagnon und unser gemeinsamer Kollege Christian Schmidt noch nie in seinem ganzen Leben auf einer Lanparty war?
Gunnar:
[0:11] Nein. Nein, ernsthaft?
Henner:
[0:14] Ja, ernsthaft. Ich konnte das auch nicht glauben.
Gunnar:
[0:16] Aber wie peinlich ist das denn?
Henner:
[0:19] Ja.
Gunnar:
[0:19] Ist ja lustig.
Henner:
[0:21] Also, er hat mal im Redaktionsnetzwerk gespielt, aber eine richtige Lanparty? Nee, fehlt ihm noch.
Gunnar:
[0:26] Das Redaktionsnetzwerk ist fest installiert.
Henner:
[0:29] Ja.
Gunnar:
[0:29] Da wirst du nicht angeraunt, wenn du das T-Stück vergessen hast oder so. Das ist was ganz anderes. Das ist nicht dasselbe.
Henner:
[0:35] Ja, ist eine völlig andere Atmosphäre, genau. Du musst nicht für die Technik sorgen, das macht die IT-Abteilung und so. Also ich konnte das auch nicht glauben, vor allem, weil ich selbst so eine starke Verbindung zur LAN-Party habe, zu diesem Phänomen. Ich selbst hatte sogar schon den festen Plan zur LAN-Party und passende Spiele, bevor ich überhaupt einen eigenen PC hatte. Und ich habe nachgezählt, ich war mittlerweile auf 83 LAN-Partys. Also deswegen ist es für mich so schwer vorstellbar, dass man das möglicherweise in seinem Leben verpasst haben könnte. Und er ist ja nicht der einzige Veteran mit diesem Schicksal. Ich habe auch mit anderen gesprochen. Heinrich Lehnhardt zum Beispiel. Ich oute die jetzt einfach mal alle. Petra Fröhlich, Boris Schneider-Johne, die waren alle nie auf einer LAN-Party.
Gunnar:
[1:15] Was?
Henner:
[1:16] Dabei ist das die allerbeste Weise, Computerspiele zu genießen. Wie ist es denn mit dir?
Gunnar:
[1:20] Ich war natürlich auf LAN-Partys, aber ich zweifle deine Zählung an. Also du zählst halt auch einfach LAN-Partys nach 1995 noch dazu, oder? Aber da war ja LAN-Party schon durch.
Henner:
[1:31] 95? Wie bitte?
Gunnar:
[1:33] Ja, also bis 95 gab es die coolen LAN-Partys und danach war das ja nur noch so ein Abgesang. Da kannst du die nicht mehr zählen. Also wie viel hast du vor 95?
Henner:
[1:40] Warte mal, ich zähle mal. Null.
Gunnar:
[1:42] Ah, das ist, glaube ich, mehr. Fünf oder so, glaube ich. Drei vielleicht.
Henner:
[1:46] Okay, es sei denn, Midi-Maze-Partys auf dem Atari ST zählen dazu.
Henner:
[1:51] Aber dazu kommen wir noch, denn eigentlich geht es in diesem ersten Teil dieser Folge noch gar nicht um die LAN-Party. Jetzt kommt erstmal die ganze Vorarbeit, die wir noch leisten müssen, bevor wir über das spannendere Thema sprechen können. Im ersten Teil dieses Gesprächs müssen wir erstmal die technischen Grundlagen schaffen und darüber sprechen, wie es überhaupt dazu kam, dass Computer miteinander vernetzt wurden und insbesondere wie es zur Entwicklung von Ethernet kam, also dem Netzstandard, der die Grundlage war für die allermeisten LAN-Partys, auch vor 95. Denn das ist ja gar nicht so selbstverständlich, dass Computer sich miteinander vernetzen lassen, dass Computer ein Kommunikationsmedium sind im weitesten Sinne. Das war nicht von Anfang an so, denn der Computer war ja anfangs eine Rechenmaschine und nicht mehr. So ein hochspezialisiertes Gerät, das einen kompletten Raum füllt in einem Labor in einer staatlichen Forschungsstätte und so eine Maschine mit einer anderen Maschine gleicher Art miteinander zu vernetzen, auf die Idee ist, glaube ich, früh niemand gekommen. Es würde ja auch niemand auf die Idee kommen, zwei Teilchenbeschleuniger nebeneinander zu bauen und miteinander zu vernetzen. Das ergibt einfach keinen Sinn und das passierte deswegen erst viel später. Aber wir wissen ja alle, dass der wahre Computer der persönliche Computer ist. Seine wahre Bestimmung fand der Computer dann auf den Schreibtischen und nicht in großen staatlichen Laboratorien. Und als persönlicher Computer wurde er dann sehr bald vernetzt mit anderen persönlichen Computern, also PCs oder Heimcomputern.
Henner:
[3:15] Und ja, da hat sich erstmal das wahre Potenzial dieser Maschine gezeigt. Die kann also viel mehr als nur rechnen. Sie kann sich mit anderen Computern vernetzen und gemeinsam kann man dann daran arbeiten. Und vor allem kann man gemeinsam daran spielen. Und das bringt uns dann im zweiten Teil unseres Gesprächs endlich zur LAN-Party.
Gunnar:
[3:34] Wobei für mich, weil du deine LAN-Party-Erfahrung so groß erwähnt hast, für mich war die prägende Auswirkung von Ethernet auf mein Leben die vernetzten WGs in meiner Studienzeit in Göttingen. Da hatten nämlich Freunde ihre WGs vernetzt, so mehrere Wohnungen in einem Haus miteinander verbunden und dann wurde halt rumgerufen und dann haben wir zu acht oder zu zwölft in diesen lokalen Netzwerken gespielt. Und das war auch schon so ein bisschen wie eine LAN-Party, nur dass es in the comfort of your own home machen konntest. Viele von uns sind dann später in der zweiten Hälfte noch spät in Studentenwohnheime gezogen, obwohl das ja eigentlich andersrum ist. Normalerweise fängst du ja in einem Studentenwohnheim an und wächst dann da raus und gehst dann in die coole, hippe WG in der Innenstadt. Aber bei uns war es oft umgekehrt, weil die Stadt, wo ich studiert habe, in Göttingen, da gab es so super Studentenwohnheime und die waren oft vorvernetzt. Dann hatten die später in der Mitte der 90er, hatten die dann halt schon so fertige Netzwerke da installiert, wo man dann einfach seinen Computer anschließen konnte.
Henner:
[4:34] Ja, fantastisch.
Gunnar:
[4:35] Es war eine fantastische Zeit, sage ich dir. Ja, die beste.
Henner:
[4:38] Da bist du nicht viel zum Studieren gekommen.
Gunnar:
[4:40] Das ist ohnehin ja das Problem mit meiner ganzen Studienzeit. Ich will nicht sagen, woran es genau lag, aber ich glaube, hauptsächlich lag es daran, dass ich Computerspiele verkauft habe und dann irgendwie gedacht habe, naja, ich mache ja schon den ganzen Tag was. Wieso soll ich jetzt doch in die Vorlesung gehen?
Henner:
[4:53] Schon richtig. Sehr schön, dann haben wir die Erwähnung des Computerspiele-Ladens jetzt auch schon abgehakt.
Gunnar:
[4:58] Ich habe bestimmt seit mehreren Folgen nicht mehr erwähnt, deswegen dachte ich, steige ich da nochmal mit ein.
Henner:
[5:02] Finde ich gut, haben auch viele bestimmt schon vergessen, kann man gelegentlich mal wieder anbringen.
Henner:
[5:06] Aber wenn wir das jetzt hinter uns haben, können wir endlich richtig ins Thema einsteigen. Also es geht um die Vernetzung von Computern und wie das überhaupt angefangen hat. Ich habe ja gerade erzählt, dass die allerersten Computer keine vernetzten Geräte waren, aber schon ganz frühe Mainframes der 50er Jahre, in denen die sich so langsam durchgesetzt haben, also die Großrechner, waren nicht ganz isoliert. Die waren nicht mit anderen Mainframe-Rechnern verbunden über ein Netzwerk, aber sie ließen sich über mehrere verteilte Terminals von mehreren Nutzerinnen und Nutzern gleichzeitig bedienen. Diese Terminals, das sind keine eigenständigen Computer, keine PCs wie heute, sondern bloße Ein- und Ausgabegeräte, also dumme Geräte ohne eigene Intelligenz, ohne eigene Rechenpower. Man kann hier also nicht von einem richtigen Computernetz sprechen, auch wenn da mehrere Geräte miteinander verbunden sind. Aber das sind eigentlich nur am Anfang Teletype-Terminals, also praktisch elektrische Schreibmaschinen, über die man die Geräte ferngesteuert hat.
Henner:
[6:00] In den späten 50er Jahren sehen wir dann erste Ansätze der Computervernetzung noch nicht über lokale Netzwerke, also über LANs, sondern über Modems, also über die Verbindung über größere Strecken. Das sind aber in der Regel auch noch meistens Verbindungen von Terminals und Fernschreibern mit zentralen Großrechnern, die nur an einem anderen Ort stehen. Und in den 60er Jahren, dann beginnen endlich erste Experimente mit echten vernetzten Computern, auch lokalen vernetzten Computern, also LARNS im weitesten Sinne. Und Pionierarbeit leistet auf diesem Gebiet damals eine Institution in London, das NPL, das National Physical Laboratory, also wieder ein Labor. Und in dem wird ab 1966 an solch einem Netzwerk geforscht. Das dauert ein paar Jahre. 69 sind dann erste Teile dieses lokalen Computernetzes betriebsbereit. Da werden aber keine Mainframes miteinander vernetzt, sondern Minicomputer. Das sind diese schrankgroßen Rechner, die man damals Minicomputer genannt hat, weil sie verglichen mit den Mainframes dann doch etwas kompakter waren, aber noch weit entfernt vom modernen PC. Das waren so PDP-8-Maschinen von DEC.
Henner:
[7:08] Und diese NPL-Forscher, die dieses frühe Computernetzwerk aufgebaut haben, die haben dabei einige Dinge erfunden und eingeführt, die wegweisend waren, also die sich auch später noch in moderneren Netzwerken wiedergefunden haben. Die haben zum Beispiel das Protokoll erfunden oder den Begriff Protokoll etabliert für dieses basale Software-Regelwerk, also die Methode, mit der die Computer untereinander Daten übertragen, darauf müssen sie sich ja einigen, wie werden die Daten abgeschickt und wie an der anderen Seite entgegengenommen und dieses Protokoll definiert das, also diesen Vorgang der Datenübertragung. Das wurde hier am NPL entwickelt. Sie haben auch einen frühen Vorläufer eines Routers erfunden, auch wenn er da noch nicht so hieß.
Henner:
[7:51] Aber vor allem, das ist die wichtigste Innovation des NPL-Netzwerks, ist dieses Netz das erste paketvermittelnde Computernetz. Da geht es um eine Technik, die heißt im Englischen Packet Switching. Und dabei werden größere Datenmengen, also komplexe zu übertragende Daten in kleine Pakete zerlegt, die alle voneinander unabhängig sind und jedes Datenpaket wird einzeln adressiert. Das hat den Vorteil, dass nicht mehr große Daten in einem Stück übertragen werden müssen, sondern sie werden in diesen kleinen Päckchen einzeln über verschiedene Routen durchs Netzwerk geschickt und am Ziel dann wieder zusammengesetzt. Und dieses Switching, das macht Netzwerke sehr robust und sehr effizient und unabhängig von festen Leitungen. Das heißt, wenn es irgendwo mal eine Kollision gibt oder eine Störung auf einer Leitung, dann kann dieses Paket eine andere Route durchs Netz nehmen und am Ende trotzdem ankommen. Das ist einer der Grundpfeiler von Ethernet und auch vom späteren Internet.
Henner:
[8:43] Aber entscheidend für die Entstehung des Internets ist noch ein anderes frühes Computernetz, das Proto-Internet, das ARPANET. Das ist ein Weitverkehrsnetz, also kein LAN, für die Verbindung von verschiedenen Rechnern an unterschiedlichen Standorten. Das sind anfangs verschiedene US-Forschungsstätten und die werden verbunden über die Telefonleitung. Auch die Entwicklung dauert ein paar Jahre, aber im Oktober 1969 ist es soweit, dass erstmals Daten übertragen werden über dieses ARPANET zwischen zwei kalifornischen Universitäten, wie überhaupt die meiste Entwicklung in dieser Zeit in Kalifornien stattfindet, im späteren Silicon Valley. Und zuständig für die Vermittlung zwischen diesen beiden Universitäten, zuständig für die Datenübertragung sind die sogenannten IMPs, IMP, das steht für Interface Message Processor und das sind die Hauptrechner, die das ARPANET aufspannen, also die fürs Routing verantwortlich sind, die Hauptknotenpunkte in diesem Netz und an diese einzelnen Knotenpunkte angeschlossen sind die einzelnen kleinen Endgeräte. Und auch das ARPANET setzt auf die Paketvermittlung. Das ARPANET macht also dieses Prinzip im größeren Maßstab salonfähig.
Henner:
[9:55] Vorangetrieben wird das ARPANET. Der Name sagt es ja schon von der ARPA. Das ist eine US-Behörde, die gehört zum US-Verteidigungsministerium. Wird im Laufe der Jahre immer mal wieder umgenannt. Die heißt dann mal DARPA und dann wieder ARPA und dann wieder zurück. Ich weiß gar nicht, wie der aktuelle Stand ist, aber damals hieß diese Institution ARPA, die finanziert Forschungsprojekte fürs US-Militär und das ARPANET ist ein wesentliches Projekt, aber es ist nicht das einzige, denn jetzt kommt für unsere Geschichte noch ein weiteres ARPA-Projekt hinzu, das sehr relevant ist für die weitere Geschichte.
Gunnar:
[10:25] Im ARPA-Net und auch beim britischen NPL-Netz ist das Prinzip erstmal noch ziemlich klassisch. Das sind so feste, exklusive Verbindungen zwischen den angeschlossenen Stationen und das ist stabil und klar, aber das ist auch aufwendig und unflexibel. Das ist nicht so besonders elegant, wenn man wachsen will in so einem Netz oder wenn sich das Netz noch verändern soll. Und dann kommt in den späten 60er Jahren an der Universität von Hawaii und zwar wieder mit Geld von der ARPA eine radikale Idee auf. Das unfassbar brillant benannte Aloanet.
Henner:
[10:56] Schön.
Gunnar:
[10:57] Ist kein Scherz, das Aloanet. Ein Funknetz. Und zwar eins, in dem alle Teilnehmer denselben Übertragungskanal benutzen. Und das ist der entscheidende neue Gedanke hier. Das ist ein geteiltes Kommunikationsmedium. Also nicht mehr Punkt zu Punkt, Leitung für Leitung, Verbindung für Verbindung, sondern ein gemeinsamer Kanal, auf den alle zugreifen. Ohne zentrale Steuerung, ohne vorherige Abstimmung, wer jetzt wann senden darf. Im Prinzip kann jeder angeschlossene Rechner jederzeit lossenden. Und das ist ja erstmal fantastisch, weil es das Netz viel beweglicher macht. Teilnehmer können dazukommen oder wegfallen und man muss dann nicht gleich die ganze Infrastruktur umbauen. Und das ist nicht nur technisch interessant, das ist ja auch ein ganz anderer Blick darauf, wie so ein Netz überhaupt organisiert sein kann.
Gunnar:
[11:39] Ja gut, das hat natürlich auch einen Haken theoretisch und der liegt auf der Hand. Wenn zwei Stationen gleichzeitig senden, dann können sie sich ins Gehege kommen. Das kann eine Kollusion geben zwischen den Paketen auf der Datenautobahn. Und dann kommt im Zweifel nichts Brauchbares an. Und die Lösung, die das Aloanet dafür findet, ist fast verblüffend schlicht und gerade deshalb so brillant. Wenn nämlich ein Paket ankommt, bestätigt der Empfänger den Empfang. Kommt keine Bestätigung, gilt das Paket als verloren. Und dann wartet die sendende Station einfach eine zufällige Zeitspanne und versucht es nochmal. Und nochmal und nochmal, wenn nötig, so lange, bis es eben klappt. Und dieser Zufallsanteil in der Zeitspanne, das ist der Trick. Es sorgt nämlich dafür, dass dieselben zwei Stationen nicht immer wieder gleich wieder anfangen zu senden und dann wieder neu kollidieren, sondern das Netz organisiert sich damit selbst. Irgendwann wird schon ein Zeitpunkt kommen, wo eine Lücke im System ist und wo dann das Paket durchgehen kann. Das ist nicht perfekt und das ist auch nicht so kontrolliert im klassischen Sinne, aber es ist robust genug, um in der Praxis gut zu funktionieren. Und dieses Aloa-Netz, das geht 1971 in Betrieb und verbindet Terminals auf mehreren Inseln mit dem Hauptrechner der Universität von Hawaii und später wird es sogar noch an das ARPA-Netz angebunden. Es bleibt ein relativ kleines Forschungsprojekt, aber die Idee ist halt super und für unsere Geschichte hier ist sie ziemlich zentral. Wir kommen gleich nochmal auf Aloa zurück.
Henner:
[13:01] Ja, schon wegen dieses schönen Namens. Der ist wirklich toll.
Henner:
[13:04] In den 70er Jahren entstehen weltweit noch weitere Computernetze. Also so langsam forschen alle daran. In den 70er Jahren beginnen sich ja auch die ersten PCs oder kleinen Mikrocomputer, Einzelplatzrechner durchzusetzen. Und für die ist das besonders wichtig. Und zu diesen frühen Computernetzen gehören noch einige weitere, die wir erwähnen möchten, weil sie technisch relevant sind, nicht weil sie interessante Namen hätten. Dazu gehören der Cambridge Ring, der stammt von der Universität Cambridge, also da hat man nicht so viel Gehirnschmalz in den Namen gesteckt. Der arbeitet mit Twisted-Pair-Kabeln, von 1974 ist das. Auf den kommen wir auch nochmal später zurück. Und ebenso originell benannt das Decknet vom Minicomputerhersteller Deck oder DEC.
Henner:
[13:46] Dieses Netz entsteht 1975. Und das bringt in einer etwas späteren Ausbaustufe, also nicht von Anfang an, erstmals eine weitere Idee ins Spiel, nämlich Peer-to-Peer-Kommunikation. Du hast es ja gerade beschrieben, das Aloanet, das hatte noch einen zentralen Hauptrechner. Und die anderen Systeme sind über die Inseln verteilt und sprechen alle mit diesem zentralen Hauptrechner. Aber das Decknet ist anders aufgebaut, da ist jeder Computer gleichberechtigt. Es gibt kein zentrales System, das alles steuern würde, sondern jeder angeschlossene Computer berechnet die Datenrouten selbst. Es gibt also auch keine Knotenpunkte wie im ARPANET, keine IMPs, die das Datenrouting übernehmen, sondern das machen alle gleichberechtigt. Das DECnet, das verbindet damals ebenfalls die damals üblichen Minicomputer wie den PDP11 zum Beispiel, der von DEC hergestellt wird.
Henner:
[14:36] Und diese PDP-11, die werden schon erstmals vorwiegend als Einzelplatzrechner eingesetzt, nicht als Großrechner mit mehreren angeschlossenen Terminals. Die sind noch ein bisschen weiter entfernt von den Mikrocomputern, also von den richtigen Einzelplatz, den persönlichen Computern. Die kommen jetzt aber auch langsam in Mode und solche Geräte werden jetzt auch vernetzt und das beginnt 1977. Zumindest ist das der Startpunkt der Mikrocomputervernetzung, den ich ausmachen konnte in der Recherche. Es mag früher schon Experimente in diese Richtung gegeben haben.
Henner:
[15:09] Aber 1977 steht das ArcNet von einer anderen Firma namens Datapoint Corporation. Und das ist das erste PC-Netzwerk. Das ist ein Peer-to-Peer-Netzwerk, das entwickelt wird, um den Datapoint 2200 mit anderen Datapoint 2200 zu verbinden. Das ist ein 1972 eingeführtes Terminal, so wird es damals bezeichnet, aber es ist eigentlich schon ein richtiger PC oder ein Proto-PC. Der sieht schon sehr modern aus für das Jahr 1972.
Henner:
[15:42] Wir erinnern uns, der IBM PC kommt erst 1981, aber dieser Data Point 2200, der nimmt dem schon einiges vorweg. Zum Beispiel auch den Intel Prozessor ist nicht der gleiche wie später im IBM PC, sondern noch ein 8-Bit-Modell, der 8008. Aber das wiederum ist ein früher Vorläufer des späteren x86 Prozessors 8086 oder 8088, wie er im IBM PC zum Einsatz kommt. Klammer zu, es soll hier eigentlich gar nicht um den Datapoint 2200 gehen, auch wenn das ein fantastisches Thema ist, über das ich eines Tages durchaus gerne mal reden würde. Den ich auch gerne in meiner Sammlung hätte übrigens. Gunnar, falls Stay Forever das finanzieren möchte.
Gunnar:
[16:19] Der ist sicher nicht teuer, oder?
Henner:
[16:20] Nein, nein, nein, natürlich nicht. Wir müssen halt jemanden finanzieren, der in ein Museum einbricht und so. Aber das findet sich im Darknet. Nein, es geht hier um den Datapoint 2200, nur weil er eben der erste vernetzte PC ist. Denn ja, dieses ArcNet, das mehrere von diesen Datapoint-Rechnern verbindet, kommt der modernen Vorstellung eines richtigen PC-LANs schon sehr nahe. Dieser Standard, da ist es noch kein richtiger Standard, aber diese ArcNet-Technik, die verbreitet sich auch noch weiter. Die wird 1981 zum Beispiel auch von Tandy übernommen. Das ist der Hersteller der in den USA sehr beliebten Heimcomputer TRS-80. Und auch bei Tandy wird diese Technik also eingesetzt, um mehrere von diesen Heimcomputern miteinander zu vernetzen zu lokalen Netzwerken, also zu Local Area Networks. All das sind verschiedene, zueinander völlig inkompatible Netzwerktechniken. Die eine alles verbindende Standardtechnologie Ethernet gibt es noch nicht, zumindest nicht den Standard. Die Technologie gibt es schon seit vielen Jahren. Das ist eine verworrene Geschichte. Gunnar, erzähl sie uns.
Gunnar:
[17:24] Ja, denn in den frühen 70er Jahren liegen ja jetzt plötzlich viele der entscheidenden Bausteine, die man in der späteren modernen Netzwerktechnik brauchen wird, die liegen jetzt hier schon auf dem Tisch. Wir haben gehört, Paketvermittlung, geteilte Übertragungsmedien, Peer-to-Peer-Ideen, das ist alles da, aber noch nicht als ein gemeinsames System. Das ist eine Reihe von Insellösungen, oft gebaut für bestimmte Rechner, bestimmte Labore, bestimmte Zwecke. Und genau da liegt das Problem. Die Netzwerktechnik der Zukunft, die kann ja nicht nur dafür da sein, ein paar Spezialmaschinen zu verbinden. Die muss mit ganz unterschiedlichen Computerarchitekturen klarkommen. Wenn das groß werden soll, wenn das irgendwann überall sein soll, dann braucht es was, was über einzelne Projekte hinausgeht, nämlich einen Standard. Man braucht immer Standards in der Computertechnik. Und idealerweise braucht man einen globalen Standard.
Gunnar:
[18:14] Und an dieser Stelle kommt Robert Metcalf ins Spiel, Bob Metcalf auch genannt. Und der ist 1946 geboren in New York, war technisch interessiert, schon sehr früh mit einem ziemlich klaren Kurs Elektrotechnik.
Gunnar:
[18:27] 1969 macht er im MIT seinen Bachelor in eben diesem Fach. 1970 folgt in Harvard ein Master in angewandter Mathematik. Also im damaligen Verständnis ist das alles schon ziemlich nah an Informatik. Und dann soll für ihn in der Karriere der nächste logische Schritt kommen, die Promotion. Also er will seinen Doktor machen. Und Metcalf arbeitet an einer Doktorarbeit über das ARPANET, also genau über das Thema, das damals praktisch die Zukunft des Vernetzens markiert. Und das ist nicht nur eine reine akademische Arbeit. Während er daran schreibt, baut er am MIT einen dieser IMPs auf und schafft damit dort einen Zugang zum Arpanet. Und das ist typisch für diese Zeit und auch typisch für Metcalf. Theorie und Praxis sind hier verschränkt.
Gunnar:
[19:12] 1972 ist seine Dissertation dann fertig. Und jetzt fehlt eigentlich nur noch die Verteidigung. Am Ende einer Dissertation muss man ja Fragen beantworten. Das ist die sogenannte Verteidigung. Also formal ist das fast nur noch der Schlusspunkt. Und der Metcalf schaut sich derweil schon nach Jobs um. Und er landet einen Treffer, der nicht größer sein könnte. Er kriegt nämlich eine Anstellung bei Xerox Park. Das ist das berühmte Palo Alto Research Center.
Henner:
[19:33] Ah, da wäre ich auch so gern.
Gunnar:
[19:35] Da wäre jeder gern gewesen zu der Zeit. Und dann kommt der Haken. Harvard lehnt seine Dissertation ab. Das sei zu praktisch, das sei zu sehr Ingenieursarbeit, das sei nicht richtig theoretisch. Und dann muss der arme Metcalf bei Xerox anrufen und sagen, ja, ich hatte mich doch hier mit so einem Doktortitel beworben, das dauert noch ein bisschen vielleicht. Und Xerox sagt, das macht nix. Und das ist rückblickend ein ziemlich schöner Moment, denn der Metcalf darf trotzdem anfangen und zwar an eben diesem Park, einem der kreativsten Orte der Commutergeschichte. Dort kann er dann seine Dissertation noch überarbeiten. Alles gut, das kommt alles noch, aber erstmal ist er drin. Im Juni 72 tritt er die Stelle an. Und das ist gar nicht mal so seine absolute Wunschoption gewesen, wie er später erzählt hat. Aber die Bedingungen sind wohl spektakulär. Er kriegt ein sehr gutes Gehalt. Er ist umgeben von Genies, wie er das nennt. Und er hat vor allem die Freiheit und die Ausstattung wirklich zu forschen. Und sein erstes Projekt bei Xerox ist dann halt schon fast folgerichtig der Anschluss ans ARPANET. Das müssen sie jetzt erstmal machen. Und er hat das ja schon am MIT gemacht. Damit fängt er an. Aber dabei, Henner, bleibt es ja nicht.
Henner:
[20:40] Ja, mir kommt das so ein bisschen bekannt vor. Ich meine, viele von uns, die Nerds sind und immer schon waren, mussten ja in den 90ern Bekannte und Verwandte und Freunde und Nachbarn irgendwie ins Internet bringen. Wir haben gehört, du kennst dich aus. Kannst du nicht irgendwie mir diesen AOL-Zugang einrichten? Und das macht Metcalf hier in den 70ern schon. Der bringt alle möglichen Institutionen ins ARPANET.
Henner:
[21:00] Ist ein bisschen komplizierter gewesen als mit AOL damals. Jetzt kommen wir zu einem entscheidenden Datum, das allerdings leider nicht genau überliefert ist. Es ist irgendwann zum Jahresende 1972. Er arbeitet also schon im Park, aber nebenbei eben auch noch als ARPANET-Installateur und irgendwann zum Jahresende 1972 verbringt er eine Nacht bei einem Kollegen, bei einem befreundeten ARPA-Manager, schläft er also auf dem Sofa im Wohnzimmer und kann nicht einschlafen. Und was dann passiert, das kann er gerne mal selbst erzählen. Hier hören wir einen Ausschnitt des Computer History Museums, das Herrn Metcalf ausführlich interviewt hat.
Einspieler:
[21:37] One day I was visiting ARPA and staying at the home of Steve Crocker, who was an ARPA program manager. And I stayed at his house and I slept on his couch in his living room. But I was jet lagged. But there was a shelf behind this couch and on it were a bunch of books, including the AFIPS Conference Proceedings, 1970. So I thought, what a better way to go to sleep. So I open it up and there’s a paper. Aloha Network.
Henner:
[22:04] Ja, wir geben es nochmal auf Deutsch wieder. Also um zur Ruhe zu kommen und irgendwie in den Schlaf zu finden, sucht er im Bücherregal seines Kollegen nach möglichst langweiligem Lesestoff und er findet im Bücherregal auch etwas. Ein Papier, das sein Interesse weckt, doch nicht so optimal zum Einschlafen offenbar. Das ist die Analyse eines ihm völlig unbekannten Computernetzes der Universität von Hawaii. Und zwar wird da beschrieben ein sehr ambitioniertes Funknetz namens Aluanet. Da ist es wieder. Und Metcalf kann offensichtlich nicht einschlafen damit. Nein, der zieht sich dieses ganze Papier rein. Er ist völlig fasziniert von dem, was er da liest. Die Berechnungen der Aluanet-Ingenieure, das ist eine Menge Mathematik. Und wie er selbst sagt, wegen seiner Vorbildung versteht er diese Mathematik auch, diese Formeln, die da aufgeführt sind. Er versteht, was die Ingenieure vorhatten mit dem Aluanet, aber er erkennt in ihrer Arbeit auch ein paar wesentliche Probleme.
Henner:
[23:02] Aluanet, du hast es ja beschrieben, dafür entscheidend ist der Einsatz eines geteilten Mediums. Also beim Aluanet ist es ein Funkkanal. Und ganz entscheidend dafür ist ja, wie so ein Netz mit Datenkollisionen umgeht. Wenn ein Paket nicht am Ziel ankommt, was passiert dann? Tja, beim Aluanet ist es so, dass es nach einer zufällig bestimmten Zeitspanne einfach nochmal verschickt wird, bis es irgendwann mal ankommt. Aber für diesen Zufallsfaktor, diese zufällige Zeitspanne, bis ein Resend versucht wird, gibt es keine Vorgaben. Das haben die Aluanet-Ingenieure nicht vorgesehen. Und Metcalf erkennt hier drin ein Problem und er macht sich jetzt daran, diese Architektur zu verbessern. Ich stelle mir das so vor, dass er dann nachts auf seinem Sofa liegt mit einer kleinen Schreibtischlampe vielleicht oder einer Taschenlampe und mit einem Bleistift. In diesem Papier rummalt.
Henner:
[23:50] Ja, und Metcalf entwickelt jetzt einige Verbesserungen für dieses System. Er ersinnt mehrere Mechanismen, welche vor allem die Auslastung des Netzwerkes mit einbeziehen. Und einige seiner Ideen sind wirklich prägend für das spätere Ethernet, das hier entsteht. Also eine Idee ist zum Beispiel, dass jeder angeschlossene Rechner, der also auf diesem gemeinsamen Übertragungsmedium sendet, das nur tut, wenn das Medium gerade frei ist, also wenn der Kanal frei ist. Der lauscht also und nur wenn gerade kein Rauschen zu hören ist, also wenn kein anderer Computer gerade Daten schickt, dann sendet der angeschlossene Rechner seine eigenen Daten. Das ist eine Technik, die heißt Carrier Sense oder auf Deutsch Trägerprüfung. Wenn jetzt nach seinen Überlegungen, das ist ja alles noch Theorie, trotzdem eine Kollision passiert, also weil zwei Computer gleichzeitig entschieden haben, dass sie jetzt Daten senden wollen, dann wird ja nach einer zufälligen Wartezeit die Sendung wiederholt, aber nach Metcalfs Idee wird diese Wartezeit jetzt variiert. Wenn eine Kollision festgestellt wurde zwischen zwei Datenpaketen, hat der Sender diese Wartezeit verdoppelt. Bei der nächsten Kollision dann erneut verdoppelt und so weiter, bis es entweder irgendwann einen Übertragungsabbruch gab oder schließlich die Übertragung glückte. Dann wurde die Wartezeit wieder auf Null gesetzt. Und diese Technik heißt Collision Detection. Das ist ein ganz wesentlicher Punkt, aber es ist nicht die einzige Verbesserung, die Metcalf sich ausdenkt in dieser Nacht oder in den folgenden Tagen und Nächten. Dazu kommen wir dann später noch, was das Ethernet alles ausmacht.
Henner:
[25:19] Aber jetzt ist schon klar auf dem Papier, also er rechnet das alles aus, dass seine Arbeit, seine Ideen, seine Änderungen die Effizienz dieses Aluanet-Systems um mehrere Größenordnungen erhöhen. Das heißt, es kommt viel mehr von den verschickten Daten auch tatsächlich an, wegen dieser Verbesserungen.
Henner:
[25:36] Und Metcalf ist von dieser Idee so fasziniert und so überzeugt, dass er sie auch zum Kern seiner Doktorarbeit macht. Die steht ja immer noch aus. Die erste Fassung wurde ja abgelehnt. Und jetzt überarbeitet er sie mit genau diesen Überlegungen. Und ja, diesmal wird seine Doktorarbeit dann auch akzeptiert. Das dauert allerdings noch eine ganze Weile. Und zu dieser Zeit ist seine rein theoretische Überlegung auch schon längst in die Praxis umgesetzt worden bei Xerox im Park.
Gunnar:
[26:05] Zur gleichen Zeit arbeiten die Visionäre im Park an einer Maschine, die man aus heutiger Sicht zu Recht als revolutionär bezeichnen kann, nämlich dem Alto. Das ist zunächst mal eine Einzelplatzworkstation, also kein Terminal im klassischen Sinn, das nur an einem Großrechner hängt und Befehle weiterreicht. Xerox denkt hier schon an das Büro der Zukunft. Ein Computer soll Stift und Papier ersetzen und vielleicht auch die Schreibmaschine. Was da im Alto angelegt ist, das ist aus heutiger Sicht verblüffend modern. Sie haben eine grafische Oberfläche, Maus gesteuert, eine What-You-See-Is-What-You-Get-Ausgabe, Multitasking, Wechselfestplatte, der Hammer. Da zeigt sich eine Richtung, der die Branche dann später in großen Teilen folgen wird und besonders sichtbar ist das bei Apple mit dem Leiser und dem Macintosh. Die Entwicklung des Alto begleitet. Bereits 1972 und in manchen Dokumenten wird er damals noch als eine Art Terminal beschrieben, aber eigentlich ist er von Anfang an mehr als das, nämlich gedacht als eigenständiges Arbeitsgerät. Und deshalb entsteht genau hier logisch die nächste Frage, wie verbindet man denn diese Dinger miteinander? Denn der Alto soll ja nicht alleine im Raum stehen. Er soll mit anderen Altos reden können und er soll mit einem Gerät reden können, das am Park parallel entsteht und mindestens ebenso richtungweisend ist, nämlich dem Laserdrucker.
Gunnar:
[27:22] Und für dieses Problem entwickelt der Park-Informatiker Charles Simony einen Netzwerk-Prototypen mit einem sehr Park-typischen Namen, SIGNET, Simony’s Infinitely Glorious Network.
Gunnar:
[27:35] Alleine dafür muss man diese Nerd-Gruppe da schon lieben, was die sich ausdenken durften, der Hammer. Aber der Simony wechselt 1973 auf ein anderes Projekt und zwar auf Bravo. Das ist eine What You See Is What You Get-Textverarbeitung für den Alto. Und auch das ist ein historisch sehr folgenreiches Projekt, denn diese Linie führt über Umwege später bis zu Microsoft Word. Jedenfalls, Simone ist erstmal raus aus dem Netzwerkthema und Cygnet braucht einen neuen Verantwortlichen.
Gunnar:
[28:03] Und da kommt wieder der Metcalf ins Spiel. Der Metcalf hat gerade das ARPANET-Interface für den Park fertiggestellt mit 300 Kilobit pro Sekunde. Das ist für den Anschluss ans ARPANET völlig okay. Aber für das, was das Alto-Umfeld intern braucht, reicht das nicht. Vor allen Dingen der Laserdrucker setzt hier die Messlatte. Der kann nämlich Daten in Größenordnungen verarbeiten, die höhere Netzwerkgeschwindigkeiten verlangt. Cygnet ist schon nicht so schlecht, aber für Metcalf ist das nicht die richtige Lösung. Und er hat das später sehr schön beschrieben. Cygnet hätte wohl zu viele bewegliche Teile gehabt. Es sei zu komplex, zu viele Spezialkomponenten, zu unflexibel. Und das lag auch an der Architektur. Cygnet arbeitet in einer Sterntopologie mit exklusiven Leitungen. Also die Rechner hängen an eigenen Verbindungen, die in speziellen Räumen zusammenlaufen.
Gunnar:
[28:47] Metcalf nennt diese Räume Rattennester. Man kann das sofort vor sich sehen, wie er das gemeint hat. Das ist alles völlig klar. Und Metcalf will genau davon weg. Er will einen ganz anderen Ansatz haben. Er will kein stark zentralisiertes Netz. Er will ein verteiltes System, das robuster ist, das einfacher zu erweitern ist und weniger vom Funktionieren dieser zentralen Knoten abhängt. Und das Entscheidende ist, er hat zu diesem Zeitpunkt ja schon die zündende Idee und die passende Vorlage, nämlich das Aloanet. Und damit ist für ihn klar, in welche Richtung es gehen soll. Sein neues Netzwerk soll auf einem geteilten Medium basieren.
Henner:
[29:21] Genau, das ist die Lösung für dieses Problem. So verhindert man die Rattennester. Und ja, was Metcalf hier plant, ist die Zahl der Kabel und der Leitungen und das Chaos maximal zu reduzieren. Im Idealfall, so schwebt es ihm vor, soll es eigentlich nur noch ein einzelnes Kabel geben, das durch alle Parkgänge verlegt wird. Und jeder Alto-Rechner, der in irgendeinem Büro steht, soll sich einfach an dieses Kabel andocken können, so seitlich. Das ist natürlich extrem einfach, aber das muss man erstmal hinkriegen und daran arbeitet er jetzt. Das nennt man auch Bus-Topologie. Das, was du gerade beschrieben hast bei dem Cygnet-Design, das ist ja eine Stern-Topologie und bei der Bus-Topologie gibt es eben nur noch eine große Linie, eine große Verbindung, an die sich die einzelnen Geräte dann seitlich so verbinden.
Henner:
[30:06] Es gibt dann noch eine dritte aufkommende Topologie, die Ringform. Wir hörten ja schon vom Cambridge Ring, also da kommt das her. Da bildet die Hauptleitung dann einen geschlossenen Kreis. Aber davon erstmal wieder ab. Wir sind jetzt beim Bus. Der Aufbau ist also klar. Jetzt braucht er nur noch das geeignete Kabel. Denn es muss ein Kabel sein. Das Aluanet, das hier seine Inspirationsquelle war, das nutzt ja Funktechnik. Das geht gar nicht anders, weil das Aluanet ja mehrere Rechner auf mehreren Inseln miteinander verbinden sollte. Aber hier kommt das nicht in Frage. Dieses Aluanet ist viel zu langsam für das, was sie vorhaben. Das schafft an guten Tagen, so beschreibt er das später, 9,6 Kilobit pro Sekunde. Das reicht nicht, um den Laserdrucker zu füttern. Es muss also ein Kabel sein, aber welches Kabel, das spielt überhaupt keine Rolle, da ist er völlig offen. Er sagt selbst später in einem Interview, wir hätten Twisted Pair nehmen können oder Glasfaser, völlig egal. Entscheidend war nur, dass das Medium passiv sein musste, omnipräsent und geeignet für die Verbreitung elektromagnetischer Wellen.
Henner:
[31:08] Und den Anstoß dafür, welches Kabel jetzt eingesetzt wird, den gibt ein Park-Kollege, der mit ihm dort arbeitet und der Erfahrung hat mit TV-Verkabelung. Und mit einer dort üblichen Technik namens Vampire Tap. Ja, wir sprechen über Vampire.
Gunnar:
[31:24] Das ist so ein super Name.
Henner:
[31:25] Ja, das ist toll. Gibt überhaupt viele tolle Namen, über die wir heute sprechen dürfen. Angefangen bei Aluanet und jetzt sind wir bei Vampiren. Jetzt könnten wir eigentlich kurz Rahel dazu schalten, dass sie uns was über Vampire erzählt. Ja, Vampire Tap oder Vampir bis Vampiranzapfung. Der Name ist hier wirklich Programm. Wir haben ja gerade beschrieben, das Busnetz, das er hier aufbaut, besteht aus einem sehr langen, sehr dicken Kabel, das durch alle Gänge gelegt wird. Will sich jetzt ein Drucker oder ein Rechner in dieses Netzwerk einklinken? Wie macht er das? Nun, er beißt sich darin fest. Da wird ein kleines Gerät angedockt, ein Transceiver, ein kleines Kästchen und dieses Kästchen lässt sich aufklappen und dann kommt etwas zum Vorschein, nämlich ein entscheidender Mechanismus, ein kleiner Metalldorn, ein kleiner Zahn. Und klappt man dieses Kästchen jetzt über dem großen Hauptkabel zu, dann bohrt sich dieser Metallzahn in den Kabelmantel rein.
Henner:
[32:19] Okay, streng genommen muss man vorher noch ein bisschen mit einer echten Bohrmaschine vorbohren, aber dann kann man dann diesen Transceiver da eindocken. Dieser Zahn, dieser Metalldorn, der bohrt sich also in den Innenleiter und kontaktiert ihn und kann auf diese Weise dort Daten abgreifen oder auch selbst welche senden. Das wirkt ziemlich martialisch und das ist auch nicht unproblematisch, denn es ist gar nicht so einfach, die richtige Dorntiefe oder Bisstiefe zu finden und zu ermitteln. Denn wenn der Dorn nicht tief genug im Innenleiter sitzt, dann kriegt er keine Signale ab. Aber wenn er zu tief drin sitzt, dann blockiert er die oder reflektiert die ankommenden Signale. Da müssen sie also eine Weile experimentieren, bis sie die richtige Tiefe ermittelt haben.
Henner:
[32:59] Warum machen sie das so? Nun, dieser Vampire-Tab hat einen großen Vorteil, nämlich wenn ein Computer angedockt werden soll, also ein neuer Alto in ein Büro einzieht und an diesem großen Park-Netzwerk teilhaben soll, dann muss dafür die Leitung nicht aufgetrennt werden. Man muss das Kabel nicht zerschneiden, um den Computer einbinden zu können, sondern man kann ihn einfach andocken und auf die Weise natürlich auch Rechner wieder aus dem Netz rausnehmen oder Drucker oder was auch immer vernetzt werden soll. Nun diese Technik, diese Vampire-Tab-Technik, die hat eine bestimmte technische Voraussetzung an das Kabel. Sie braucht einen massiven, zentralen, verlaufenden Innenleiter im Kabel. Also man kann sie nicht einsetzen bei verdrillten Kabeln, bei Twisted-Pair-Kabeln, wie wir sie heute kennen von Ethernet-Netzwerken oder Glasfaserleitungen. Die mögen das auch nicht, wenn man da rein sticht. Und so fällt die Entscheidung zugunsten eines Koaxialkabels. Die kennt man auch aus der TV-Technik und aus anderen Bereichen.
Henner:
[33:53] Metcalf ist allerdings, sagt er selbst von sich, nicht der große Handwerker. Also bei den ganzen handwerklichen Kabelarbeiten, die jetzt anstehen, beim Abisolieren von Kabeln, beim Crimpen und Löten und Zubeißen, bekommt er zum Glück Hilfe von einem weiteren Kollegen, David Box. Das ist eine ganz zentrale Figur und einer der Miterfinder von Ethernet. Der hat ebenfalls Erfahrung mit Fernsehtechnik und auch mit Amateurfunk. Und das bringt ihm jetzt eine Menge bei der gemeinsamen Entwicklung von Ethernet. Und zusammen experimentieren Metcalf und Box jetzt also mit einem langen Kuachskabel. Der beschreibt das so, dass sie in den Keller des Parks gehen und dort ein gigantisches Kabel zum Testen verwenden, das eine Gesamtlänge hat von einer Meile oder einem Kilometer. Metcalf sagt selbst, er weiß es nicht mehr so genau, aber es ist extrem lang. Sie nehmen also dieses ewig lange aufgewickelte Kabel und sehen einfach mal, was passiert, wenn sie am einem Ende ein Signal hineinschicken, ob am anderen Ende auch was rauskommt, was sich auslesen oder verstärken und dann verwenden lässt. Und so ist es auch. Es kommt ein Signal an. Ganz erfreut stellen sie also fest, ja, das kann so funktionieren. Und auf dieser Basis entwickeln sie also Ethernet. Das heißt, die Grundlagen für Ethernet sind gelegt. Aber zu dieser Zeit heißt es ja noch gar nicht so. Zu dieser Zeit hat das noch keinen finalen Namen oder heißt Alouanet Park oder wie auch immer.
Gunnar:
[35:11] Oder Xerox-Netz.
Henner:
[35:12] Ja, oder so.
Gunnar:
[35:13] Genau. Was kann das Xerox-Netz denn jetzt eigentlich konkret? In der ersten Generation, da verbindet es bis zu 256 Stationen und erreicht knapp 3 Megabit pro Sekunde. Genauer 2,94 Megabit. Diese etwas krumme Zahl ist kein theoretisch errechneter Wert, das ist ein sehr praktisches Ergebnis der Hardware-Realitäten. Die leitet sich nämlich von der Systemuhr des Altur ab, also von dem Takt, mit dem der Rechner ohnehin läuft. Metcalf und Box haben auf ihren frühen Internetkarten schlicht keinen Platz mehr für den eigenen Zeitgeber, der das Signaltiming steuert. Und Metcalf sagt später sinngemäß, wer weiß, auf welche Geschwindigkeit wir sonst gekommen wären, wenn da noch Platz gewesen wäre. Naja, das ist überhaupt ein schönes Motiv für diese frühe Phase. Dieser Net entsteht nicht so als so ein Lehrbuchsystem, sondern als so eine Mischung aus klugen Ideen, Experimenten und sehr konkreten technischen Zwängen, die gelöst oder umgangen werden müssen. Und einige seiner Eigenschaften nimmt das Xerox-Netz ja dann aus bereits bestehenden Ansätzen und andere sind wiederum echte Neuerungen. Also zum Beispiel diese Paketvermittlung, die haben wir ja schon erwähnt, dass die Daten in Pakete erlegt werden können, die jeweils adressiert werden können. Diese Idee kommt aus der frühen Netzforschung, insbesondere vom NPL-Netz und Metcalf sagt später ziemlich offen, vom ARPANET, da haben sie auch kräftig gelernt oder in seinen Worten gelernt.
Gunnar:
[36:34] Und dann die wichtigste Grundidee für unsere Geschichte, das ist das geteilte Medium. Ethernet nutzt zunächst ein Koaxialkabel, also kein Funk wie beim Aloanet, aber der entscheidende Gedanke ist derselbe, alle Teilnehmer teilen sich ein gemeinsames Übertragungsmedium. Und der Unterschied ist, beim Aloanet funken die Stationen zu einer Basisstation, während Ethernet im lokalen Netz erstmal nach einer Art Broadcast-Prinzip arbeitet, also mit Datenpaketen, die auf dem gemeinsamen Medium für alle sichtbar sind. Und auch das Verhalten bei Kollisionen erinnert an Aloa. Wenn zwei Stationen gleichzeitig senden und die Signale sich in die Quere kommen, dann wartet man und macht es nochmal. Der Clou bei Ethernet ist aber diese Verfeinerung. Bei hoher Last wird die Wartezeit nach Kollisionen direkt angepasst. Und das macht das Ganze deutlich robuster, wenn viel Verkehr auf dem Netz ist. Und dann kommen die Dinge, die Ethernet wirklich zu Ethernet machen. Das Netz horcht vor dem Senden auf das Medium.
Gunnar:
[37:28] Ist da gerade Verkehr? Kann ich jetzt senden? Und wenn da doch eine Kollision erkannt wird, dann wird die Übertragung abgebrochen. Und dieses Zusammenspiel aus dem Carrier Sense und der Collision Detection ist eine der ganz zentralen Innovationen dieses Systems. Dazu kommt eine frühe Form von Schichtenbildung. Ethernet trennt anfangs zwischen einer unteren, physischen Schicht, bei Xerox gerne als Ida-Schicht gedacht, also alles rund ums Übertragungsmedium, und einer darüber liegenden Paketschicht, die sich um Aufteilung und Adressierung kümmert. Das ist noch nicht das spätere Lehrbuchmodell in Reinform, aber es zeigt schon sehr klar in diese Richtung. Und dann kommt was, was uns bis heute begleitet, die MAC-Adresse. Jedes Gerät bekommt eine feste, weltweit eindeutige 48-Bit-Adresse. Diese Form der Geräteadressierung wird später zum Standard in allen Ethernetnetzen und die Wurzeln liegen in dieser ersten Implementierung bei Xerox. Also kurz gesagt, in diesem Xerox-Netz, da steckt schon erstaunlich viel drin von dem, was das Ethernet später groß macht. Nur ist es zu dem Zeitpunkt halt noch kein Weltstandard, sondern nur erstmal eine sehr gute Lösung, eine Einzellösung an einem sehr besonderen Ort.
Gunnar:
[38:37] Wenn daraus mehr werden soll, wenn das über Xerox hinausgehen soll, dann braucht das Netz vor allen Dingen jetzt erstmal einen schönen Namen.
Henner:
[38:44] Ja, ich weiß nicht, ob Metcalf einen Namen findet, der so schön ist wie Aluanet oder wie das Infinity Glorious Network. Aber ich finde, er hat auch ein ganz gutes Händchen für die Namensfindung. Dieser Name wird geprägt am 22. Mai 1973. Deswegen gilt das auch oft als der Geburtstag von Ethernet. Denn an diesem Tag verfasst Metcalf parkintern ein Memorandum, ein Schreiben, in dem er sein geplantes Netzwerk skizziert. Und er schreibt darin, Zitat, wir planen den Bau eines sogenannten Broadcast-Computer-Kommunikationsnetzes. Ähnlich wie das Alor-Funknetz, aber spezialisiert auf die Minicomputer-Kommunikation innerhalb von Gebäuden. Und in diesem Dokument kommt eben auch der Name vor. Der lautet nicht Coax-Netz oder Xerox-Netz oder so. Wie er auf den Namen Ethernet kommt, das kann er mal selbst erzählen.
Einspieler:
[39:33] I decided that Ethernet would work on any medium. All we required was that the medium be passive, omnipresent, and a medium for the propagation of electromagnetic waves. It could be coax, it could be twisted pair. So instead of calling it coaxnet, I wanted to think of something more abstract than that. And I remembered from freshman physics at MIT about the Michelson and Morley experiment in which these two scientists proved dass die Luminiferous Ether nicht existiert. Und was das Luminiferous Ether war? Es war omnipresente, komplett passiv, und es war als ein medium für die Propagation von Elektromagnetik Waves. Ta-da! Ethernet.
Henner:
[40:18] Er schreibt weiter in diesem Memorandum, auch wenn wir am Ende vielleicht Koaxialkabelbäume verwenden, erscheint es klug, so lange wie möglich von einem Äther statt von dem Kabel zu sprechen. Das hält es allgemein und wer weiß, welche anderen Medien sich für ein Datennetz als besser erweisen könnten. Vielleicht Funk, Telefonleitungen oder Stromverkabelung.
Henner:
[40:37] Also das Netzwerk, das er hier entworfen hat, soll möglichst Trägermedien-agnostisch sein, auf allen möglichen Trägermedien funktionieren und deswegen hält er das möglichst nebulös und entscheidet sich für diesen Namen Äther, zu Englisch Ether. Was ist überhaupt der Äther? Den gibt es eigentlich gar nicht, aber das ist ein Konzept, über das schon spekuliert wird seit vielen Jahrhunderten und Metcalf kennt das aus seinem Studium. Das ist eine hypothetische Substanz und die wurde mal im 17. Jahrhundert postuliert als ein alles durchdringendes, unsichtbares Medium für die Ausbreitung von Licht. Wie kommt man auf sowas? Nun, man hat beobachtet, dass Schallwellen ja auch ein Trägermedium brauchen, um sich auszubreiten. Die Luft oder das Wasser, Schallwellen, reisen nicht einfach so durchs All, weil es dort keine Luft gibt und kein Trägermedium. Deswegen, so die Annahme damals, und das klingt auch ganz plausibel, müsste ja Licht, das nachweislich auch durchs Weltall von der Sonne zu uns reisen kann, ebenfalls irgendein Trägermedium haben. Eine Trägersubstanz. Die können wir nicht sehen und nicht nachweisen, aber sie wurde postuliert. Man hat angenommen, sie müsste es geben und die hat man Äther genannt. Und dieser Name wiederum, den hat man sich nicht im 17. Jahrhundert ausgedacht, der ist viel älter. Der geht zurück auf eine griechische Gottheit namens Aiter. Das ist die Personifikation des Himmels als Sitz des Lichtes.
Henner:
[41:54] Und später hat auch Aristoteles diesen Namen aufgegriffen und auch eine Substanz postuliert. ein angenommenes fünftes Element, eine masselose himmlische Substanz. Das ist also die Herkunft dieses Namens und diesen Namen borgt sich Metcalf jetzt aus für seine Erfindung. Auch wenn dieser Äther, wie gesagt, gar nicht existiert, diese Äther-Theorie wurde verworfen rund um das Jahr 1900 in einigen Experimenten. Und dabei hat man festgestellt, Lichtwellen brauchen überhaupt kein Trägermedium. Das geht auch ohne. Also gibt es keinen Ether. Aber trotzdem, dieser Name scheint Metcalf damals passend. Denn er fragt, was war der Ether? Nun, er war omnipräsent, vollständig passiv und diente als Medium für die Ausbreitung elektromagnetischer Wellen. Tada! Ethernet. Das ist sein Name und so kennen wir es auch noch heute. Auch wenn er damals Ethernet noch mit Bindestrich schreibt. Der ist dann irgendwann weggefallen.
Gunnar:
[42:48] Das Konzept, das Metcalf und Box da entwerfen, mit diesem wirklich sehr schönen Namen, ist übrigens keineswegs von Anfang an unumstritten. Im Park gibt es durchaus Widerspruch. Ein Physiker-Kollege namens Bob Beckerack, der schreibt im März 1974 ein kritisches Memo über den Entwurf und sagt sinngemäß, da sei nichts wirklich Neues drin und beim genauen Hinsehen würde sich schon zeigen, dass das System ein Fehlschlag sei. Das ist ein ganz ordentlicher Verriss unter Kollegen hier. Viele Jahre später hat Beckrack allerdings gesagt, naja, er hat sich nur auf eine sehr frühe Version bezogen, in der noch wichtige Mechanismen zur Kollisionserkennung gefehlt hätten. Und nach einem Gespräch mit Metcalf und Box, so seine Version, hat man dann seine Einwände aufgegriffen und das Ethernet sei dadurch besser geworden. Der Metcalf sieht das komplett anders. Der nennt diese Darstellung später eine komplette Halluzination und Beckrack einen Idioten. Also auch in der Frühgeschichte des Internet gibt es bereits das, was man aus der Computergeschichte kennt. Technische Debatten, Eitelkeiten und Erinnerungen, die Jahrzehnte später nicht mehr ganz deckungsgleich sind.
Henner:
[43:54] Ja, wir müssen dazu sagen, vieles, was wir heute erzählen, basiert auf den Worten Metcalfs selbst. Der hat sich halt sehr viel an vielen Stellen und Gelegenheiten dazu geäußert. Er wurde oft interviewt und gerne. Das heißt, seine Darstellung ist die Grundlage unserer Darstellung. Und es mag da andere Ansichten geben und Bob Beckerack ist ein Beispiel dafür.
Gunnar:
[44:14] Im Park selbst setzt sich das Ethernet dann aber erstaunlich schnell durch. Im November 73 ist es einsatzbereit und dann verbindet es nach und nach die sich ausbreitenden Alto-Computer. Die ersten beiden angebundenen Systeme bekommen die Spitznamen Mickelson & Morley, benannt nach den Forschern, die 1887 experimentell gezeigt haben, dass es den physikalischen Äther so gar nicht gibt. Und das ist auch wieder so ein schönes Park-Detail, ja, selbst die Rechnernamen sind schon wieder ein Insider-Joke.
Henner:
[44:43] Ja, nerds eh.
Gunnar:
[44:45] Toll. Aus zwei Rechnern werden bald fünf und dann zehn. Und die ersten Altos, die ab März ausgeliefert werden, müssen noch ohne Netzwerkverbindung auskommen. Aber das ändert sich dann schnell. Ethernet wird am Park ziemlich rasch zum Standard. 76 sind da schon rund 200 Altos im Einsatz. Und am Ende werden es ungefähr 2000 auch außerhalb des Park. Und jetzt sieht man, warum das so wichtig ist. Diese Rechner hängen ja nicht irgendwie zusammen. Die Altos greifen über Ethernet auf Dateiserver zu. Die schicken sich E-Mail. Die senden Druckaufträge an die schönen neuen Laserdrucker. Der erste Prototyp eines dieser Drucker trägt sogar Ethernet im Namen. Der heißt nämlich EARS. Ethernet Auto Research Character Generator Scanning Laser Output Terminal.
Henner:
[45:31] Supername.
Gunnar:
[45:32] Ein Name wie ein Scherz und ein Programm. Es ist erstaunlich, was sie da gemacht haben. Aber genau hier zeigt sich auch die eigentliche Bedeutung der Vernetzung, weil die digitale Arbeit wird aus der Isolation des Einzelplatzrechners rausgeholt. Der Computer ist nicht nur ein Gerät auf einem Schreibtisch wie eine Schreibmaschine, sondern Teil eines gemeinsamen Arbeitsraums. Dateien, Texte, Ausdrucke, Nachrichten, alle das wird plötzlich kooperativ. Und natürlich bleibt das nicht nur bei der Arbeit. Wie immer, wenn Menschen ein neues Kommunikationssystem bekommen, dann nutzen sie es sehr schnell auch privat. Und bald organisieren sich über das Xerox-Netz auch interne Gruppen zu gemeinsamen Hobbys und Interessen. Und auch das ist schon ein Vorgeschmack auf vieles, was später in Netzwerken ganz normal wird. Und sogar die Wartung profitiert. Denn RAM-Chips sind zu der Zeit noch ziemlich störeinfällig. Und wenn einer ausfällt, dann meldet eine Diagnose-Software den Fehler automatisch übers Netz, inklusive der Information, welcher Alto betroffen ist, in welchem Slot der Baustein sitzt und an welcher Position. Und das erspart den Admins Zeit, Nerven und Sucharbeit. Also kurz gesagt, Internet ist bei Xerox nicht nur eine clevere technische Lösung für Nerds, das wird sehr schnell zu einem validen Produktivitätswerkzeug im Alltag. Und es bleibt nicht lange auf die Xerox-Büros beschränkt.
Henner:
[46:47] Ja, das kann ich bestätigen. Der Rechner, an dem ich gerade sitze, hängt auch mit einem Ethernet-Kabel im Internet.
Gunnar:
[46:52] Na sowas.
Henner:
[46:54] Aber an Xerox liegt das nicht. Die sind nicht so gut darin, ihre Technologien auch in Produkte umzumünzen und auf den Markt zu bringen. Das frustriert auch Metcalf. Der arbeitet erstmal weiter an Ethernet. Naja, erstmal muss er seine Doktorarbeit fertigstellen, aber dann arbeitet er weiter an Ethernet. Das wird 1975 auch zum Patent angemeldet. Aber der ist ja ein Tausendsasser, der arbeitet im Park auch an anderen Projekten, zum Beispiel dem Star. Das ist ein Computer, ein PC, der Elemente von dieser revolutionären Alto-Workstation endlich mal kommerzialisieren soll, was dann auch fast ein Jahrzehnt nach dem Entwicklungsstart des Altos passiert. Denn ja, ich sagte es schon, Xerox ist damals nicht so gut darin, das, was im Park entsteht, in Produkte umzuwandeln, von denen man profitieren könnte, mit denen man durchaus Geld verdienen könnte. Das machen dann ja in der Regel andere, so wie Apple mit dem GUI zum Beispiel. Also Xerox scheitert immer wieder daran und das trifft auch Ethernet. Wir hören hier mal kurz einen Werbespot, wahrscheinlich aus den späten 70er Jahren, ganz genau konnte ich das nicht ermitteln, in dem Xerox mit dem Ethernet wirbt, obwohl man das noch gar nicht kaufen kann, obwohl das noch eine intern eingesetzte Technik ist.
Einspieler:
[48:22] This is the Ethernet cable.
Henner:
[48:26] Ja, unverkennbar 70er Jahre, dieser Sound. So was hat Xerox immer wieder gemacht. Es gibt auch Werbespots, die den Alto präsentieren. Ein Gerät, das man nie kaufen kann. Also das ist nicht viel mehr als Imagepflege, aber wirtschaftlich ziemlich unsinnig. Nun, dieses Ethernet ist ja zur Mitte der 70er Jahre, wie gesagt, schon zum Patent angemeldet und durchaus marktreif. Man könnte das auf den Markt bringen, aber Xerox tut es nicht. Xerox bleibt untätig und Metcalf wird dadurch frustriert und er sagt selbst in einem Interview 1976 waren wir zweieinhalb Jahre von der Auslieferung entfernt. Also das war das, was das Management ihm gesagt hat. Und 1978 waren wir zweieinhalb Jahre von der Auslieferung entfernt, also nicht weitergekommen.
Henner:
[49:09] Und Metcalf wird langsam ungeduldig und schmiedet eigene Pläne. Er sagt, er ist nicht mehr so. Beschloss, meine kaufmännischen Ambitionen zu verfolgen und verließ Xerox. Genau genommen hat er in der Zwischenzeit schon mal Xerox verlassen, ist dann aber wieder zurückgekommen.
Henner:
[49:24] Nun, jetzt also verließ er Xerox endgültig zum Ende der 70er Jahre. Aber es ist oft zu lesen, er hätte jetzt sofort 3Com, also seine eigene Firma gegründet und angefangen, Ethernet-Produkte zu verkaufen. Das, was Xerox selbst ja nicht tut. Aber das passiert jetzt noch nicht. Das kann er noch gar nicht, weil ja alle Patentrechte nicht bei ihm persönlich liegen, sondern bei Xerox. Die halten da den Finger drauf. Stattdessen macht er was anderes. Er ist ein Beratungsunternehmen, ein Ein-Mann-Unternehmen, das andere Firmen dabei berät, eigene Netzwerktechniken zu entwickeln oder ihre eigenen Firmen auf Netzwerktechnik umzustellen. Und sein allererster Kunde ist ein alter Bekannter, das MIT, das gerade versucht, unterschiedliche Netzwerke zu einem zu kombinieren. Und darunter ist auch ein Ethernet, das von Xerox gestiftet wurde, ein Alto-Ethernet-Netzwerk, das mit anderen Netzwerken miteinander verbunden werden soll. Also die Ethernet-Technik schafft es hier und da schon rauszukommen aus dem Park, aber eben nicht auf kommerziellem Wege, sondern durch Stiftungen an Universitäten.
Henner:
[50:23] Metcalf, der ist sehr umtriebig, der ist selbst natürlich sehr gut vernetzt. Lustig. Und der gewinnt sehr schnell weitere Kunden für seine Beratungstätigkeit. Und einer dieser Kunden ist ganz entscheidend für die Zukunft von Ethernet. Von dem hörten wir heute auch schon. Das ist DEC oder DEC, der Minicomputerhersteller. Der hat ja eigentlich schon sein eigenes Netzwerk, das DECnet. Aber der Name war wohl zu langweilig. Deswegen suchen die im Frühjahr 79 was Neues. Die Technik für ein neues, ambitioniertes Netzwerkprojekt. Die erwägen auch Ethernet zu übernehmen oder einzusetzen für die Vernetzung ihrer Minicomputer, aber Ethernet gehört ja nun mal Xerox, da kommen sie also nicht ran. Sie fragen also Metcalf, den Ethernet-Erfinder, könntest du da nicht vielleicht was ähnliches entwickeln, was so funktioniert wie Ethernet, aber vielleicht anders heißt, ohne die Xerox-Patente zu verletzen? Aber Metcalf, der ist clever und er lehnt ab. Er hat nämlich einen viel besseren Vorschlag. In gewisser Weise Vernetzung. Vernetzung mit anderen Unternehmen.
Gunnar:
[51:22] Denn warum arbeitet DEC nicht einfach mit Xerox zusammen? Das liegt ja auf der Hand. DEC hat die Minicomputer, Xerox hat mit Alto und Laserdrucker ein hochmodernes Büro-Ökosystem und Ethernet könnte beides verbinden. Das wäre eine klare Win-Win-Situation. Xerox ist auch grundsätzlich offen dafür. Man plant da auch ein Treffen und dann passiert so ein Metcalf-Move. Es bleibt nämlich nicht bei zwei Parteien, die sich da treffen. Und der, wie du eben schon sagtest, hervorragend vernetzte Metcalf, der weiß sehr genau, wer in seiner Branche was gerade sucht. Und er bekommt mit, dass Intel nach konkreten Produktideen für einen neuen Fertigungsprozess fahndet. Und Metcalf sagt denen im Grunde, ich hab da was für euch, baut doch Ethernet-Controller-Chips, hm? Und steigt gleich mit in dieses Gespräch mit Xerox und DEC ein, das sich gerade vorbereitet. Wie wäre das? Metcalf vermittelt zwischen allen Beteiligten und Mitte 1979 kommt es dann tatsächlich zu diesem gemeinsamen Treffen dieser drei Unternehmen. Und aus dieser Konstellation entsteht die sogenannte DICS-Allianz, DEC, Intel und Xerox.
Gunnar:
[52:29] Drei sehr unterschiedliche Firmen, aber mit einem gemeinsamen Ziel, Ethernet aus der Xerox-Welt herauslösen und zu einer finalen, marktfähigen Spezifikation machen. Das ist ein wichtiger Schritt, denn jetzt geht es nicht nur um die gute Technik und auch nicht mehr unmittelbar um Vermarktung. Jetzt geht es darum, daraus einen Industriestandard zu machen. Und dabei spielt ein Thema eine große Rolle, das man heute leicht übersieht, nämlich das Kartellrecht.
Gunnar:
[52:54] Die Beteiligten haben durchaus Respekt vor dem US-Justizministerium. Da gab es ja diesen IBM-Fall wegen Monopolmissbrauchs. Der steckt der Branche noch in den Knochen. Also entscheidet man sich ganz bewusst dafür, dieses Ethernet nicht als proprietäre Technologie von der DICS-Allianz aufzuziehen, sondern als offenen Standard anzulegen. Und die Idee ist, man entwickelt gemeinsam eine Spezifikation und gibt sie dann zur Standardisierung weiter an die IEEE Standards Association. Das ist das Gremium, das die technischen Formen festlegt.
Gunnar:
[53:26] Metcalf selber, der wartet nicht ab, bis andere den Markt besetzen. Der gründet am 4. Juni 1979 seine eigene Firma, die eben schon erwähnte 3Com. Der Name steht für die drei Cs, Computer, Communication und Compatibility. Und das ist nicht nur ein Akronym, sondern quasi gleich der ganze Geschäftsplan. Metcalf setzt drauf, dass ein offener Ethernet-Standard einen riesigen Markt schaffen wird. Und 3Com will dafür die Produkte liefern. Hardware, Software, Server, alles, was Unternehmen für vernetzte Rechner brauchen.
Gunnar:
[53:56] Und bevor das funktionieren kann, muss aber erstmal die technische Grundlage stehen und am 30. September 1980, also schon über ein Jahr später, ist es dann soweit. Ethernet wird spezifiziert in einem Dokument, das später oft einfach das Blue Book genannt wird. Und das ist noch nicht der IEEE-Standard, das ist die entscheidende DIX-Spezifikation, ein Koaxialkabelnetz mit 10 Megabit pro Sekunde, 48-Bit-Adressen und all den Mechanismen, die dieses Ethernet so robust und praktisch machen. Jetzt fehlt nur noch der offizielle Ritterschlag durch das Gremium und da wird es aber nochmal kurz schwierig.
Henner:
[54:34] Ethernet hat es wirklich nicht leicht. Das hatte erst bei Xerox einen schweren Stand, das ist da nicht rausgekommen und jetzt ist es endlich draußen. Jetzt braucht es aber eben noch diesen Standardisierungssegen und auch der lässt auf sich warten. Denn, naja, Ethernet ist nun mal nicht alleine, denn in den 80er Jahren erkennen so langsam alle in der Branche, dass es sinnvoll sein kann, mehrere Computer, auch Mikrocomputer, PCs miteinander zu vernetzen und so gibt es ganz viele verschiedene konkurrierende LAN-Technologien. Nun landet nicht nur eins davon vor diesem IEEE-Standardisierungsgremium, nicht nur Ethernet, sondern auch noch zwei weitere. Und am Ende wird es vor dem Gremium drei Sieger geben. Sie werden alle drei zum Standard erklärt. Spoiler, aber auf dem Markt setzt sich nur einer durch. Wie kommt es zu diesem Dreikampf? Nun, bei der IEEE-SA, so heißt diese Institution, denkt man schon länger darüber nach. Man müsste eigentlich mal einen Standard erschaffen oder definieren für die lokale Computervernetzung. Schon da zeichnet sich ab, dass es sehr viele verschiedene zueinander inkompatible Technologien gibt und das läuft ja der Idee der Vernetzung zuwider. Die einzelnen Geräte und Netze sollen ja miteinander sprechen können. Man soll ein bisschen Ordnung bringen in dieses Chaos und so beginnt man schon 1979 darüber zu diskutieren und im März 1980 konstituiert sich dann auch ganz formell das IEEE-Komitee Nummer 802.
Henner:
[55:59] Das ist so, dass dort alle Arbeitsgruppen, also alle Komitees, die einen Standard ausbrüten sollen, durchnummeriert werden und so fällt einfach zufällig die Nummer 802 auf diese LAN-Technik. Ich habe irgendwo auch die Behauptung gelesen, diese Nummer entspreche dem Datum, also das Jahr 1980, zweiter Monat, aber das ist falsch. Es ist einfach nur eine durchlaufende Nummer, die zufällig dem Datum ähnelt, aber es ist ja nicht mal der Februar, sondern der März, in dem dieses Komitee konstituiert wird und das Komitee hat einen klaren Auftrag, finde einen Standard für die Computervernetzung. Aber das ist noch völlig technologieoffen. Da steht also keineswegs fest, dass das am Ende Ethernet oder irgendwas anderes wird.
Henner:
[56:39] Nun können also verschiedene Unternehmen oder Konsortien ihre Spezifikationen, ihre Technologien einreichen. Und dabei ist natürlich auch die Dix-Allianz. Die hat ja im September 1980 ihre Ethernet-Spezifikation fertiggestellt und die legt sie nun dem Gremium als Kandidat für die Standardisierung vor, für diesen 802-Standard.
Henner:
[57:00] Aber Dix bleibt nicht allein, denn da gibt es ja noch einen großen Player auf dem Computermarkt, der es gewohnt ist, selbst Standards zu definieren, nach denen sich alle anderen richten müssen. Und das ist IBM. IBM kann oder will es sich nicht leisten, großen Konkurrenten hier das Feld zu überlassen. DEC ist ein besonders großer Konkurrent auf dem Minicomputermarkt und Xerox ist auch ein Technologiekonkurrent. Und dass die gemeinsame Sache machen und jetzt hier einen Standard definieren, das kann IBM natürlich nicht zulassen und unterbreitet ebenfalls dem 802-Komitee einen eigenen Vorschlag. Allerdings haben sie noch gar keinen fertigen Vorschlag in der Schublade, den sie jetzt vorlegen könnten. Keine fertige Spezifikation, sondern nur das Versprechen eines Vorschlags. Eine vage Idee. Das wiederum, ich sagte es ja vorhin schon, ist zumindest die Darstellung von Metcalf. IBM selbst sieht das vielleicht noch ein bisschen anders. Aber Metcalf sagt, natürlich hatten sie kein Netzwerk. Sie brauchten eines, also haben sie gelogen. Und einfach behauptet, sie hätten eins. Sie werden dann später auch eine eigene Technologie vorlegen und das ist eine eigene Umsetzung der Idee Token Ring, die wir vorhin schon mal angesprochen haben, also diese Ring-Topologie des Cambridge Rings.
Henner:
[58:09] Daran arbeitet eine IBM-Forschungseinrichtung in der Schweiz, aber die ist noch lange nicht fertig und so zieht sich das mit dem Token Ring auch noch eine Weile hin. Nun, also Token Ring, wie gesagt, basiert auf dem Cambridge Ring von 74 und hat diesen ringförmigen Rechnerverbund. Und der wesentliche Unterschied zum Ethernet mit seiner Bustopologie, wo alle Stationen gleichberechtigt über eine gemeinsame Leitung senden können, herrscht hier im Token Ring viel striktere Kontrolle. Hier darf jede Station, jeder angeschlossene Rechner, jeder Drucker nur dann Daten senden, wenn er die Berechtigung dazu hat. Nicht alle gleichzeitig, nicht alle durcheinander sabbeln, sondern nur derjenige, der gerade den sogenannten Token hat, darf Daten senden. Das ist ein bestimmtes Signal, eine Art Zugriffsmarker. Besser kann man das Wort Token nicht wirklich übersetzen.
Henner:
[58:56] Und dieser Token, der wird in diesem Rechnerkreis von einer Station zur nächsten immer weiter gereicht. Das heißt, er kreist also und wenn eine Station nun Daten senden will, dann behält sie den ein, sie fängt den Token und ersetzt ihn dann durch ein Datenpaket. Das wird dann rumgeschickt und wenn das Datenpaket sein Ziel gefunden hat, dann wird ein neuer Token freigesetzt und beginnt wieder zu zirkulieren, bis er wieder eingefangen wird. Dieses Token-System verhindert ganz elegant, dass mehrere Stationen gleichzeitig senden. Es gibt also keine Kollision von Datenpaketen. Die Übertragung, sagt man auch, ist hier deterministisch. Man kann also vorhersehen und ungefähr berechnen, wann welche Daten wo eintreffen werden. Das ist bei Ethernet in der Form nicht möglich. Dafür ist diese Technik natürlich viel aufwendiger und sie ist teurer und durch diese Ring-Topologie auch schwerer zu warten als der Ethernet-Bus.
Henner:
[59:45] Token Ring ist also der zweite Kandidat auf diesen 802-Standard neben Ethernet, aber nicht der einzige. Es gibt da noch einen dritten Mitbewerber, eine weitere Technik, die standardisiert werden will. Und die stammt von einem Unternehmen, das man eher weniger erwartet auf dem Computermarkt. Nicht von IBM, nicht von einem anderen Computerhersteller, sondern von General Motors, dem damals weltgrößten Autohersteller.
Henner:
[1:00:07] Die behaupten von sich, ja, wir sind vielleicht keine Computerspezialisten, aber wir sind Anwender. Wir haben hier riesige Computernetzwerke in unseren Büros und Fabriken. Wir kennen uns bestens damit aus, was so ein Netzwerk leisten können muss und was in der Praxis funktioniert. Und deswegen bringt GM hier einen eigenen Vorschlag mit ein zur Standardisierung und deren Vorschlag heißt Token Bus. Das ist also eine Mischung aus der Bus-Topologie von Ethernet und dem Token Ring Prinzip. Und ja, das vermischt auch beide Technologien miteinander. Das geht zurück auf das Arknet von 1977, also auch keine ganz neue Idee. Hier haben wir eine Bus-Struktur wie beim Ethernet, also eine lange Kette von Rechnern, keinen Kreis. aber es wird trotzdem das Tokensystem eingesetzt aus dem Token Ring. Nur, dass die Stationen hier keinen physischen Kreis bilden, sondern nur einen virtuellen Ring. Trotzdem, hier schickt jeder Rechner in einer festgelegten Reihenfolge diesen Token immer an die nächste Station und nur wer den Token gerade hat, darf Daten senden. Das also sind die drei Technologien, die jetzt miteinander wetteifern um die Standardisierung bei der IEISA. Es beginnt also der Kampf der Systeme.
Gunnar:
[1:01:18] Metcalf nennt diese folgende Phase später das Höllenjahr. Und man versteht auch sofort, warum. Im Komitee mit der Nummer 802 kann man sich nämlich nicht auf einen gemeinsamen Lahnstandard einigen. Es gibt zu viele Interessen, zu viele technische Lager, zu viele große Firmen mit eigenen Vorstellungen.
Gunnar:
[1:01:37] Und dann findet das Komitee eine Lösung. Wenn man sich nicht auf eine Technik einigen kann, dann standardisiert man eben mehrere. Und diese Arbeitsgruppe wird also aufgeteilt. Aus dem einen großen Streitfall werden mehrere Teilgruppen und tatsächlich bekommen am Ende alle drei konkurrierenden Ansätze ihren Platz. Die Gruppen 802.1 und 802.2 kümmern sich um grundlegende Fragen, um gemeinsame Regeln und Protokollthemen. 802.3 arbeitet mit der Unterstützung von Metcalf am Ethernet des Dix-Konsortiums, das in der Zwischenzeit auch schon die leicht verbesserte Version 2.0 vorgelegt hat. Und parallel dazu beschäftigt sich die 8024 mit dem Token-Bass und die 8025 mit dem Token-Ring. In dem Ethernet-Gremium geht die Arbeit schneller voran als in den anderen beiden Gruppen, aber das ist der Industrie selber noch nicht schnell genug. Denn während die Ausschüsse noch über Details streiten, entscheidet der Markt längst, dass er Produkte will und braucht. Und 1982, mitten in den laufenden Diskussionen über technische Feinheiten hinter den Kulissen, veröffentlicht eine Allianz aus 24 Unternehmen eine gemeinsame Erklärung, dass sie Ethernet-Produkte jetzt einführen will. Und darunter sind nicht nur die drei Dix-Firmen, sondern auch Hewlett-Packard, der Druckerhersteller HP.
Gunnar:
[1:02:50] Und das ist ein starkes Signal. Viele warten gar nicht mehr auf das offizielle Siegel durch die IEEI, sondern gehen gleich los. Und 3Com macht es vor. Metcalfs Firma bringt schon 1981 mit dem 3C100 einen ersten Ethernet-Transceiver auf den Markt. Und da ist das Internet praktisch schon in der Welt, bevor die formale Standardisierung überhaupt abgeschlossen ist. Im Juni 1983 zieht die IEEI danach, rund zehn Jahre nach der Erfindung im Xerox-Park, die 802.3 wird offiziell verabschiedet und das ist wichtig, weil das Ethernet da zwar nicht erst beginnt, sondern weil es der Technik jetzt die große institutionelle Legitimität gibt. Die erste standardisierte Ethernet-Generation heißt nun 10Base5. Die 10 steht für die maximale Datenrate von 10 Megabit pro Sekunde, die 5 für die maximale Segmentlänge von 500 Metern. Das ist die Ära des dicken Koaxialkabels. Wir erinnern uns, das ist ziemlich steif, fast ein Zentimeter dick und an beiden Enden mit Terminatoren abgeschlossen. Und wer einen Rechner anschließen will, der klingt sich mit diesem Vampirbiss ein. Allein der Begriff sagt ja schon, wie handfest und mechanisch das alles damals noch war.
Henner:
[1:04:00] Ja, allerdings kann ich bestätigen.
Gunnar:
[1:04:02] Meine Herren, bis zu 100 Stationen können an so einem Segment hängen. Und das eigentlich Bemerkenswerte ist, zu dem Zeitpunkt ist Ethernet aber schon in der Computerwelt angekommen, auch ohne Standardisierung. Die Norm bestätigt also in gewisser Weise nur noch, was die Praxis längst entschieden hat, auch auf dem IBM-PC, obwohl IBM davon gar nichts wissen will.
Henner:
[1:04:21] Ja, und wir müssen jetzt mal ein bisschen über IBM sprechen. Die sind ja nun mal nicht zu ignorieren mit ihrer Marktmacht. Und nun könnte man meinen, IBM hat da jetzt doch noch so ein Ass im Ärmel, das heißt IBM PC, der ja im Herbst 1981 auf den Markt kommt. IBM könnte doch jetzt einfach dieses fulminante Gerät, diesen neuen Industriestandard nutzen, um ihre eigene Netzwerktechnik zu etablieren. Also einfach den IBM PC mit einer Token Ring Karte ausliefern und schon ist ein neuer Industriestandard geboren, dann haben die anderen gar keine Chance. Aber das macht IBM nicht. Das dauert erschreckend lange, bis IBM überhaupt irgendeine Netzwerklösung für den IBM PC auf den Markt bringt.
Henner:
[1:05:00] Eine sehr verworrene Geschichte. Also der IBM PC, das Modell 5150, kommt im Herbst 81 auf den Markt. Und da gibt es auch eine Menge Zubehör von Drittherstellern sowieso, aber auch von IBM selbst. Ein Modem zum Beispiel, die berühmte Gameport-Joystick-Karte gibt es. Aber was es nicht gibt, ist eine Netzwerkkarte. Und das bleibt auch so für mehrere Jahre sogar. Obwohl doch jedem klar sein sollte, dass es riesiges Potenzial gibt in der Vernetzung mehrerer PCs. Hallo LAN-Party, sie ist so nah.
Henner:
[1:05:28] Nun, wann also bringt IBM endlich einen eigenen PC-Netzwerkadapter raus? Darüber wird in der Presse damals sehr viel spekuliert. Ich fand viele Artikel zu diesem Thema, die sich mit dieser Frage befasst haben. Da gab es zum Beispiel ein Magazin namens Datamation und das nennt diesen unangekündigten Netzwerkadapter im Januar 84 das, Zitat, am meisten spekulierte Produkt des Jahrzehnts. Und das PC-Mac berichtet auch im Juli 84 über dieses Mysterium und die befragen dort einige Marktforscher. Woran liegt das? Warum braucht IBM so lange, um einen eigenen Netzwerkadapter für den PC rauszubringen? Und dieser Marktforscher, der antwortet nun, IBM plane hier den ganz großen Wurf, die wollen neben ihren PCs auch noch ihre Großrechner vernetzen, also alles mit einer Technik verbinden und diese Anpassung, die koste eben Zeit. Und dann gibt es einen anderen schlauen Analysten, der meint, ja, IBM zögert, weil die um ihr Kerngeschäft fürchten. Die meinen, wenn zu viele Leute ihre billigen PCs vernetzen, dann hätte man einen Rechnerverbund, der so stark ist, so leistungsfähig, dass er den Großrechnern Konkurrenz macht und dann kauft niemand mehr ein Mainframe von IBM. Also die wollen gar keinen Netzwerkadapter rausbringen.
Henner:
[1:06:39] Nun, also es weiß niemand so genau, warum IBM so lange braucht. Deswegen habe ich einfach mal bei IBM nachgefragt oder vielmehr bei einem IBM-Veteranen, der damals in der PC-Abteilung gearbeitet hat, Dr. Dave Bradley.
Henner:
[1:06:50] Und der sagt selbst, er habe von Netzwerken nicht allzu viel Ahnung, aber er hat einen weiteren ehemaligen IBM-Veteranen befragt, der damals im Token Ring Team gearbeitet hat. Und der wiederum meinte… Ja, IBM wollte eigentlich viel früher auf den Markt kommen mit einer eigenen Netzwerklösung für den PC. Die hatten auch jemanden damit beauftragt. Das war keine Inhouse-Entwicklung, sondern Texas Instruments sollte für sie einen Controller-Chip entwerfen für ihr Token Ring-Netzwerk. Aber Texas Instruments ist nicht fertig geworden. Die brauchten zu lange und deswegen hat IBM dieses Projekt wieder Inhouse geholt und musste mit großer Verspätung die Entwicklung selbst übernehmen.
Henner:
[1:07:28] Deswegen diese Verzögerung. Nun, was auch immer der entscheidende Grund gewesen sein mag, die Branche ist damals nicht so begeistert davon, dass IBM zögert, denn es warten doch viele Marktteilnehmer drauf, dass der Konzern mit seiner Marktmacht endlich einer dieser konkurrierenden Technologien zum Durchbruch verhilft. Wahrscheinlicher Token Ring, das IBM ja zum Standard erkoren haben will. Aber das kommt anders. Im April 1984 kündigt IBM endlich ein eigenes PC-Netzwerk an. Aber es ist nicht Token Ring. Es ist PC Cluster, von dem ihr alle noch nie gehört habt. Ein Netzwerk, das bis zu 64 PCs verbinden kann, den PC, aber auch den neuen PC Junior, dieses Einstiegsmodell, das ja bekanntlich den Heimcomputermarkt erobert hat.
Henner:
[1:08:13] PC Cluster entsteht laut Bradley damals in der PC-Abteilung bei IBM, obwohl es ja eigentlich eine richtige spezialisierte Netzwerkabteilung gibt. Und PC Cluster sieht Ethernet erstaunlich ähnlich. Das setzt auf ein Koaxialkabel mit Bus-Topologie, das hat Carrier-Sense, Kollisionsvermeidung, das kommt uns alles ziemlich bekannt vor. Und besagter Token-Ring-Entwickler nennt diese Lösung daher auch im Grunde IBMs proprietäres Ethernet. PC Cluster ist ziemlich günstig, das soll ja auch die PC Junior Nutzer ansprechen, die 5, aber das erreicht nur 375 Kilobit pro Sekunde und damit ist es wirklich nicht konkurrenzfähig und wird sehr schnell wieder vergessen, heute ist es fast unmöglich darüber noch irgendetwas rauszufinden.
Henner:
[1:08:57] Das liegt auch daran, dass IBM damals sehr schnell schon einen zweiten Versuch startet. Ja, eine neue Netzwerktechnik im August 1984, vier Monate später. Das ist jetzt aber endlich Token Ring, oder? Nee, jetzt kommt PC Network. IBM ist bei der Namensfindung echt nicht so kreativ wie Metcalf. PC Network ist keine Eigenentwicklung, sondern entsteht gemeinsam mit einem Startup mit der Firma SciTech. Und Barry Feigenbaum, damals bei IBM, hat mir dazu gesagt, wir hatten einfach nicht das nötige Wissen über Breitbandtechnik.
Henner:
[1:09:32] PC Network setzt genau wie PC Cluster auf eine Bus-Topologie mit einem Koaxialkabel, also auch Ethernet recht ähnlich. Und die Datenrate ist hier etwas höher, die steigt auf 2 Megabit. Das ist das, was IBM Breitband nennt. Aber das erhöht auch den technischen Aufwand und deshalb ist PC Network deutlich teurer als der Cluster und auch teurer als das etablierte Ethernet. Naja, zumindest kommt PC Network damals etwas besser an als der Vorgänger, das ist aber auch keine Kunst. Das PC Magazine schreibt im November 1984, das sei das beste Netzwerk, das der PC je sah. Vor allem eben im Vergleich mit PC Cluster, das, wie der Artikel schreibt, nicht mal IBM als echtes Netzwerk bezeichnen wolle. Das ist einfach nicht viel mehr als ein PC-Haufen. Kompatibel sind diese beiden Systeme untereinander nicht, weshalb sich die Presse dann auch fragt,
Henner:
[1:10:20] welche LAN-Strategie verfolgt IBM hier überhaupt und das wird noch undurchsichtiger durch eine dritte Netzwerktechnik, die ja schon lange bei IBM in Arbeit ist und auch schon mal vage angekündigt wurde, natürlich das Token Ring Netz. Und das kommt dann auch im Oktober 1985.
Henner:
[1:10:38] IBM Token Ring, das verbindet nicht nur PCs, sondern auch, wie dieser Analyst es vermutet hat, Mainframe Computer, das nutzt eine Stern-Topologie und Twisted-Pair-Kabel. Das ist also eigentlich gar kein Ring, es ist nur ein logischer, aber kein physischer Ring. Eine ziemlich moderne Lösung und die wird kurz danach auch zur Basis des internationalen IEEE Standards 802.5. So, nun gibt es also drei verschiedene LAN-Systeme von IBM, entwickelt von drei verschiedenen Teams. Und natürlich stellt man sich jetzt die Frage, hat auch irgendwer ans Spielen über LAN gedacht? Zumindest stelle ich mir diese Frage. Und ich habe sie auch meinen Interviewpartnern gestellt und die Antwort lautet, ja. Zumindest hat mir Barry Feigenbaum bestätigt, dass dieser Einsatz, also das Spielen übers LAN, durchaus erwogen wurde für PC-Network. Umgesetzt hat es aber keiner, ist ja schließlich IBM, die sind zu seriös für sowas. Welches von denen hat sich durchgesetzt? Nun für ein paar Jahre zumindest Token Ring. Aber gegen Ethernet hat das trotzdem einen schweren Stand. Token Ring ist teuer und schafft nur 4 Megabit pro Sekunde, Ethernet schafft 10. Und Ethernet, ja, das gibt es vielleicht nicht bei IBM, aber von anderen Herstellern.
Gunnar:
[1:11:49] Und wer macht das? 3Com. 3Com erkennt nämlich ziemlich früh, wo der Massenmarkt entstehen wird, eben beim IBM PC. Und der entwickelt sich ja dann in den 80ern auch zur dominanten Plattform. Also wenn das Ethernet groß werden soll, dann muss es genau dahin und deswegen liefert 3Com auch. Bereits im Herbst 1982 bringt die Firma eine Ethernet-Karte für den IBM-PC auf den Markt, die Etherlink, eine ISA-Karte mit 10 Megabit pro Sekunde für 950 US-Dollar. Das ist aus heutiger Sicht einigermaßen viel Geld für eine Netzwerkkarte.
Henner:
[1:12:24] Ja.
Gunnar:
[1:12:25] Aber im damaligen Kontext ist das ein wichtiger Schritt in Richtung Alltagstauglichkeit. 3Com verkauft nicht nur die Karte, sondern auch gleich noch eine passende Infrastruktur, etwa einen Datei- und Druckserver namens IdaShare. Und in der Fachpresse wird das durchaus so wahrgenommen. Die Zeitschrift Interface Age schreibt damals sinngemäß, mit der IdaLink-Karte wird Ethernet endlich bezahlbar. Und das ist ein wichtiger Punkt, denn damit klärt sich langsam die Hardware-Frage. Ethernet wird mehr und mehr zu einer gemeinsamen physischen Basis, auf die die verschiedenen Hersteller aufspringen können. Die Fachzeitschrift Microsystems sieht darin schon 1984 sehr klar die Zukunft des Standards. Ethernet schafft die einheitliche Hardwaregrundlage und das ist deshalb so bedeutend, weil viele andere LAN-Lösungen eben an Herstellerwelten gebunden sind. Das Decknet an Deck, das Wangnet an Wang und so weiter.
Gunnar:
[1:13:17] Und selbst bei den vielen LAN-Angeboten für den IBM PC gilt oft, die funktionieren am besten mit ähnlichen Systemen. Ethernet verspricht was anderes, nicht ein Netz für einen Hersteller, sondern eine gemeinsame Basis für viele.
Gunnar:
[1:13:31] Aber, und das ist jetzt der entscheidende Haken, mit der Hardware allein ist das Netzwerk ja noch nicht fertig. Das Netz braucht ja nicht nur Kabel und Karten, sondern auch Regeln dafür, wie die Rechner tatsächlich Daten austauschen, also ein Transportprotokoll auf der Softwareseite. Und genau da herrscht Anfang der 80er noch ein ziemliches Durcheinander. Die eben schon erwähnte Zeitschrift Microsystems formuliert das damals sehr treffend und sagt, für Käufer werde die Sache ja zusätzlich kompliziert, weil es noch keine festen Standards dafür gäbe, mit welchen Methoden, also welchen Protokollen die lokalen Netzwerke eigentlich kommunizieren sollen. Und da zeigt sich die Grenze von Ethernet in dieser Phase ganz deutlich. Ethernet standardisiert nur die Hardware-Seite, das Übertragungsmedium, die Adressierung und den Rahmen. Aber es liegt nicht fest, welches Protokoll obendrauf laufen soll. Das müssen andere machen.
Henner:
[1:14:19] Ja, und jetzt müssen wir noch kurz über Software sprechen. Das ist ein Thema, das allen begegnet ist, die in den 90er Jahren mal eine LAN-Party organisiert haben. Es ist nicht damit getan, das Netzwerk hardware-technisch aufzubauen, die Rechner miteinander zu verknüpfen. Sie müssen auch miteinander sprechen können und dafür muss eine gemeinsame Software-Basis geschaffen werden. Und das sind die verschiedenen Datenprotokolle und Standards. Und meine Güte, haben wir oft Netzwerkprotokolle nachinstalliert von der Windows-CD und wieder deaktiviert und umkonfiguriert. Und meine Güte, Begriffe wie IPX, SPX, NetBIOS, die sind wahrscheinlich damals allen begegnet. Dir auch in den frühen 90ern, oder?
Gunnar:
[1:14:57] Ja, ja, in den mittleren 90ern, sagen wir mal, ja.
Henner:
[1:15:00] Ja, vieles davon geht zurück auf eine Firma namens Novell. Das ist eine junge Firma in den frühen 80er Jahren und die führt 1983 ein Betriebssystem ein namens NetWare. Das ist kein klassisches PC-Betriebssystem, sondern ein reines Netzwerkbetriebssystem. Das läuft auf speziellen Dateiservern und diese Server, die stellen ihre Daten, die auf den Festplatten abgespeichert sind, über ein Netzwerk anderen Rechnern zur Verfügung. Und das sind üblicherweise DOS-PCs. Das setzt sich sehr schnell durch und diese Netware-Systeme, die erreichen bald eine marktbeherrschende Stellung.
Henner:
[1:15:34] Netware ist unabhängig von der Netzwerktechnologie, die darunter liegt. Also das läuft auf ganz verschiedenen Netzwerk-Hardware-Systemen, unter anderem auch auf Ethernet. Und darüber läuft die Software-Schicht. Das sind eben die Protokolle für die eigentliche Datenübertragung. Und Netware nutzt damals IPX und SPX, die wie gesagt in den 90er Jahren auf LAN-Partys auch noch durchaus relevant waren. Darauf setzen auch ziemlich viele Spiele auf. Die sind sehr schnell und unkompliziert, einfach einzurichten, also ideal für kleine LANs. Im Gegensatz zum alternativen, wir kennen es TCP-IP. Das ging aus dem ARPANET hervor und das ist deutlich aufwendiger zu konfigurieren. TCP-IP muss aber auch viel mehr leisten. Das ist gedacht für die Verknüpfung mehrerer Netzwerke auch über größere Strecken hinweg und ist dadurch deutlich aufwendiger zu konfigurieren. TCP-IP braucht ja zum Beispiel die IP-Adresse. Sowas braucht IPX SPX nicht. Das läuft viel einfacher. Da sprechen sich die einzelnen angeschlossenen Rechner einfach über ihre MAC-Adressen an, die ja in der Hardware vorgegeben ist. Und die Dominanz von diesem Network-System, Die macht IPX SPX auch für viele Jahre zum de facto Standard auf dem PC, sowohl unter DOS als auch später unter Windows und mit Windows for Workgroups 3.11 im Jahr 1992. Da ist dieses Protokoll auch von Anfang an enthalten. TCP IP hingegen, das kommt erst später, das ist erst ab Windows 95 standardmäßig dabei.
Henner:
[1:16:57] Darüber, also auf diesem Protokoll, liegt noch eine Software-Ebene und das ist zum Beispiel in vielen Fällen damals NetBIOS. NetBIOS ist kein Protokoll, auch weil es oft so bezeichnet wird. Das ist eigentlich eine API, also eine Programmschnittstelle, die nur aufsetzt auf dem Netzprotokoll. Das kann über TCP-IP laufen. Meistens läuft es damals aber auch über IPX-SPX und stellt der Software, die benutzt werden soll, bestimmte Netzwerkfunktionen zur Verfügung.
Henner:
[1:17:25] Also zum Beispiel die Namensauflösung, sprich wie adressiere ich andere PCs anhand ihres Namens, auch wenn ich die MAC-Adresse nicht kenne, oder Datenübertragung. Solche Dienste können die Programme einfach nutzen, das heißt die Programmierer müssen das ihrer Software nicht einzeln beibringen, das stellt dieses NetBIOS allen Programmen zur Verfügung. Das heißt also, die Spiele können theoretisch auch direkt auf der Protokollebene arbeiten, wie das auch viele Spiele machen, aber es ist viel einfacher, einfach diese einheitliche NetBIOS-Schnittstelle dafür zu verwenden, denn das vereinfacht also den Aufbau eines frühen Netzwerkes in den 80ern und 90er Jahren. Und NetBIOS stammt von einer Firma, die uns schon mal begegnet ist, nämlich von Zytek. Das ist dieses kleine Startup, das für IBM das PC-Network entwickelt hat. NetBIOS wurde dann von IBM für Token Ring adaptiert und schließlich dann noch von Microsoft übernommen und in Betriebssysteme integriert. Und so wurde NetBIOS auch für viele Jahre zu einem Quasi-Standard und hat den Aufbau eines frühen LANs für eine LAN-Party deutlich erleichtert oder auch den Aufbau eines kleinen Büro-Netzwerks. Aber wie gesagt, bei der LAN-Party sind wir ja leider noch nicht. Dazu erst im zweiten Teil.
Henner:
[1:18:34] Jetzt muss Ethernet für die LAN-Party erst noch ein bisschen praktischer und noch ein bisschen schneller werden. Und das passiert jetzt auch.
Gunnar:
[1:18:41] Denn wir sind jetzt hier ja schon zehn Jahre nach der Erfindung von Ethernet, aber das ist alles immer noch erstaunlich archaisch aus heutiger Sicht. Der Standard setzt weiterhin auf diese Vampirzahntechnik mit den Metallspitzen, die das Koaxialkabel anbohren. Und das ist ein dickes, starres Kabel. Daher heißt das 10 Base 5 auch Thicknet, das dicke Netz. Und das hat was Archäologisches, wenn man das heutzutage so betrachtet.
Gunnar:
[1:19:06] Aber genau in dieser Phase zeigt sich auch eine der großen Stärken von Ethernet, weil der Standard bleibt nicht stehen. Das wird Schritt für Schritt praktischer, billiger und damit auch massentauglich. Schon 1984 kommt TenBase 2, oft auch cheaper net genannt, das billigere Netz. Der Name sagt schon einiges. Die Kabel sind jetzt deutlich dünner, nur noch wenige Millimeter dick. Und man braucht eben keine Vampir-Transceiver mehr, die in das Kabel beißen. Stattdessen wird alles über BNC-Stecker und T-Stücke direkt an die Netzwerkkarte angeschlossen. Und aus der einen großen unhandlichen Leitung wird damit eine Kette aus kürzeren Kabelstücken. Und das macht den Aufbau in der Praxis deutlich flexibler. Und, das ist wichtig, diese Technik ist nicht nur bei Ethernet zu sehen. Auch konkurrierende Systeme setzen auf ähnliche Coax-Lösungen. Also Ethernet gewinnt nicht allein dadurch, dass es die einzige praktikable Technik im Markt ist, sondern weil es sich in einem Markt behauptet mit schnellen Lösungen, in dem viele ähnliche Ansätze um Verbreitung kämpfen. Aber bei der Geschwindigkeit bleibt 10 Base 2 bei 10 Megabit pro Sekunde. Das ist ja weiterhin auch konkurrenzlos. Und die maximale Segmentlänge sinkt auf knapp 200 Meter. Das ist aber für die meisten Büros und für die Heimanwender natürlich völlig ausreichend. Das heißt, nur wenige Leute haben ein Schloss mit langen Gängen, wo man ein mehr als 200 Meter langes Segment bauen muss.
Gunnar:
[1:20:29] Also deswegen ist dann die Variante auch so erfolgreich und bleibt bis in die 90er relevant.
Gunnar:
[1:20:34] Aber auch das ist bloß eine Zwischenstation. 1991 kommt mit 10 Base T der nächste große Schritt. Man geht jetzt weg vom Coaxiarkabel hin zu Twisted Pair, also diesen verdrillten Aderpaaren. Und gleichzeitig ändert sich die Topologie. Statt der Busstruktur mit dem gemeinsamen Kabel setzt man nun auf eine Sternstruktur mit einem zentralen Verteiler, wie IBM mit dem Token Ring. Das war ja damals schon modern. Und dieser Verteiler ist am Anfang zunächst ein Hub, oft und später dann auch häufiger ein Switch. Und das ist im Alltag ein riesiger Fortschritt, weil die Twisted-Pair-Kabel schlanker sind, leichter zu verlegen sind und unempfindlicher gegen Störungen. Und auf dieser Basis geht es dann immer weiter. 100 Base TX bringt 1995 100 Megabit-Durchsatz und 1999 ist man bereits bei Gigabit-Internet.
Gunnar:
[1:21:20] Und dann passiert noch was Schönes in unserer Erzählung hier. 1997 wird IEEE 802.11 spezifiziert und das ist WLAN.
Gunnar:
[1:21:31] Und damit kommt eine Idee zurück, die am Anfang schon hier Thema war, nämlich ein geteiltes Medium im Funk. Und damit schließt sich der Kreis zurück zum gloriosen Alohanet.
Gunnar:
[1:21:43] Und spätestens an diesem Punkt kann man sich die Frage stellen, wenn Ethernet heute über Switches mit Punkt-zu-Punkt-Verbindungen läuft und wenn Kollisionen im Alltag kaum noch eine Rolle spielen und wenn daneben Funknetze stehen, ist das noch Ethernet im ursprünglichen Sinne oder? Und darauf hat der Metcalf mal ganz schön geantwortet. Das sei eine metaphysische Frage, Ethernet sei ein Geschäftsmodell. Und gemeint damit ist, Ethernet ist nicht nur eine einzelne Technik, sondern ein Standard und ein Ökosystemversprechen. Mehrere Hersteller, gemeinsame Kompatibilität, laufende Weiterentwicklung und es muss nicht immer alles neu erfunden werden. Und gerade diese Mischung aus Offenheit und Anschlussfähigkeit macht Ethernet so stark. Und das erinnert ja in gewisser Weise ein bisschen an den Erfolg des IBM PCs, der ja auch mit seiner Offenheit den Markt gewonnen hat.
Gunnar:
[1:22:34] Und was nun Ethernet im philosophischen Kern wirklich ist, darüber kann man streiten, aber über den Erfolg halt nicht. Der Erfolg ist halt da. Anfang der 80er gibt es noch Experten, die Ethernet für zu primitiv halten und dem keine große Zukunft zutrauen. Aber der Markt entscheidet sich ja anders und Mitte der 80er ist Ethernet rasant verbreitet worden und nur wenige Jahre später explodieren die Zahlen förmlich. Und auch 3Com wächst in dieser Phase enorm und ist dabei aber ja nur einer von vielen Anbietern in einem boomenden LAN-Markt. Damit zeigt sich etwas sehr Grundsätzliches für die 80er. Der Computer entfaltet sein eigentliches Potenzial erst dann, wenn er nicht alleine arbeitet, sondern im Verbund mit anderen. Und bei Menschen ist das ja, ehrlich gesagt, ganz ähnlich.
Henner:
[1:23:18] Ach, wie schön. Ja, das stimmt. Ja, jetzt ist sie da, die globale Computervernetzung mithilfe von Ethernet und das Potenzial, das in dieser Computervernetzung steckt, das entfaltet sich dann in den Folgejahren durch das Internet und andere Netzwerke. Aber dieses Potenzial haben einige kluge Denker schon früher erkannt. Ich fand da zum Beispiel ein schönes Zitat von dem Mathematiker und Philosophen John Kameny. Das ist ein ehemaliger Assistent Einsteins und ein Miterfinder von BASIC. Und okay, zu dem klugen Zitat komme ich gleich. Ich muss zwischendurch erstmal die Karriere dieses Menschen würdigen, bitte. Der Mann war mathematischer Assistent Einsteins. Stell dir vor, du musst an der Tafel Gleichungen lösen, während dir Einstein über die Schulter guckt. Aber nicht nur das, der hat auch mit von Neumann gearbeitet, mit dem Nobelpreisträger Feynman. Der war Professor mit 27 und das, obwohl er sich während seines Studiums zwischendurch nochmal ein Jahr Auszeit genommen hat. Und weißt du, Gunnar, wofür?
Gunnar:
[1:24:14] Na?
Henner:
[1:24:16] Um ein bisschen zu jobben am Manhattan Project. Ich meine, ich habe mir im Studium auch Auszeiten genommen, aber für Lahnpartys und ich glaube, das liest sich im Lebenslauf besser. Naja, zurück also zu dem Buch, was John Kameny dann auch noch geschrieben hat, 1972. Das ist ein schönes Buch, das ich hier auch vorliegen habe. Man and the Computer. Und darin wagt er etwas, was sehr mutig ist in der Computerbranche, einen Ausblick auf die weitere Computerentwicklung. Und er sagt, ja, natürlich, die werden immer schneller und kompakter, ganz klar. Aber das Entscheidende, Mehrrechnersysteme und Computernetzwerke werden vermutlich die wichtigsten evolutionären Entwicklungen sein. Warum spricht er hier von Evolution? Denn er sieht ja Computer als einer Form neue Rasse. Er sagt, der Computer entwickle sich zu einer telepathischen Rasse, in der das Individuum in einem Gruppenbewusstsein aufgeht. Wow.
Henner:
[1:25:10] Große Worte, aber wenn sie von so einem klugen Kopf kommen, dann glaube ich ihm das einfach mal. Metcalf selbst hat das Potenzial der Computervernetzung etwas weniger poetisch ausgedrückt, der sagte nämlich mal, die wichtigste neue Tatsache über die menschliche Existenz ist, dass wir verbunden sind. Und die dahinterstehende Überzeugung ist, dass Vernetzung gut für uns ist, dass Demokratie gedeiht und Tyrannei besiegt wird, dass Reibungen, die Wohlstand behindern, verringert werden. Der hat soziale Netzwerke und Desinformation wahrscheinlich nicht vorausgesehen, aber das Potenzial, ja, das war ja da. Also die Computervernetzung hätte uns zu einer besseren Spezies machen können. Aber naja, ob das dazu gekommen ist oder nicht, das ist eine andere Frage, eine vielleicht eher philosophische oder politische Frage.
Henner:
[1:25:55] Für uns bedeutet das vor allem, dass jetzt endlich das Potenzial da ist für eine weitere, viel wichtigere Errungenschaft, die wir der Computervernetzung verdanken, nämlich der LAN-Party-Gunner. Jetzt ist es endlich soweit oder vielmehr, naja, beim nächsten Mal im zweiten Teil dieser Folge zur Netzwerktechnik.
Gunnar:
[1:26:13] Ja, vielen Dank Henner, vielen Dank euch fürs Zuhören bis hierhin und bis bald auf der LAN-Party.
Henner:
[1:26:19] Ja, bis bald. Tschüss.
Ach schau, eine “Neue Episode” …
… da passt was mit dem Folgentitel nicht, da sollte wohl “Netzwerke - Teil 1” oder so stehen. Beziehe die Folgen über Pocket Cast auf Android.
Irgendein temporärer Schluckauf des Hosters, vermutlich. In Antennapod sehe ich den normalen Titel.
Scheint so zu sein. Als ich die Folge zum ersten Mal angezeigt bekam und auch bis nach dem Download stand da ebenfalls “Neue Episode”. Jetzt hat sich’s ohne mein Zutun gefixt.
Hat sich bei mir mittlerweile auch von selbst berappelt.
Ach da freu ich mich drauf. Genau richtig für die Fahrt morgen ins Büro. Ich komm ja noch aus der Zeit von Vampirklemmen, AUI und Novell Netware für DOS. Ja, ich kenn noch Netzwerkkarten mit diesen roten Stickern drauf.