Original:
Jochen Musch: Die Geschichte des Netzes: ein historischer Abriß,
URL: http://www.psychologie.uni-bonn.de/sozial/staff/musch/history.htm, 1996


Jochen Musch

Die Geschichte des Netzes: ein historischer Abriß

In: B. Batinic (1997), Internet für Psychologen. Göttingen: Hogrefe.


Like distant islands sundered by the sea,
we had no sense of one community.
We lived and worked apart and rarely knew
that others searched with us for knowledge, too....

But could these new resources not be shared?
Let links be built; machines and men be paired!
Let distance be no barrier! They set
that goal: design and built the ARPANET!

Vint Cerf, "Requiem for the ARPANET"

Inhalt

Die Advanced Research Projects Agency (ARPA) Paketorientierte Netzwerkprotokolle Das ARPANET Die vergessene Anwendung Das Internet und das TCP/IP-Protokoll Das USENET Die Entstehung von Netzen in Europa Das NSFNET Das WWW Die Zukunft des Netzes Literatur


Die Advanced Research Projects Agency (ARPA)

Den Zeitpunkt zu markieren, an dem die Geschichte des Internets begann, ist keine leichte Aufgabe. Bereits die Chinesen, Perser, Assyrer, Römer und Mongolen unterhielten umfangreiche Straßen- und Kommunikationsnetze; man kann sie deshalb als antike Vorbilder benennen (Hardy, 1995). Afrikanische Trommelketten und indianische Rauchzeichen zählen in diesem Sinne ebenso zu den Ahnen heutiger Computernetze wie das Telegraphen- und das Telefonnetz. Zum wichtigsten und entscheidenden Vorläufer für das Internet in seiner heutigen Form aber wurde ein Netz, das erst in den späten 60er Jahren dieses Jahrhundert in den Vereinigten Staaten entstand: das ARPANET.

Als eine von mehreren Reaktionen auf den Sputnik-Schock hatte das amerikanische Verteidigungsministerium 1958 eine Forschungsbehörde unter dem Namen Advanced Research Projects Agency (ARPA) gegründet. Als Kind des kalten Krieges stand die ARPA unter der Vorgabe, im Dienste der Landesverteidigung den technologischen Vorsprung der Vereinigten Staaten durch Förderung hierzu geeigneter Projekte zu sichern. Ausdrückliche Zielsetzung der ARPA war es, neue, innovative Technologien zu entwickeln und dabei auch nach Visionen und verrückten Ideen Ausschau zu halten, um sie auf ihre Realisierbarkeit zu prüfen.

Die Politik der ARPA bestand darin, keine eigenen Forschungseinrichtungen zu unterhalten, sondern mit universitären und industriellen Vertragspartnern zu kooperieren und die von ihr finanzierten Projekte zu koordinieren. Präsident Johnson gab im September 1965 die Richtlinie aus, daß bei der Verfolgung der weitgesteckten Ziele der ARPA auch Grundlagenforschung ohne direkten Anwendungsbezug finanziert werden sollte: "Under this policy more support will be provided under terms which give the university and the investigator wider scope for inquiry, as contrasted with highly specific, narrowly defined projects" (Johnson, 1972, 335). Finanziell gefördert wurden unter anderem Projekte zur Raketentechnik und die Entwicklung neuer Materialien und Werkstoffe, aber auch viele verhaltenswissenschaftliche Forschungen.

Entgegen naheliegender Vermutungen brachte die Finanzierung ihrer Projekte durch das Militär für die von der ARPA geförderten Forscher wenig spürbare Einschränkungen bei ihrer täglichen Arbeit mit sich. Die Auftraggeber gaben sich bei der Genehmigung von Projekten im allgemeinen mit wenig spezifischen Hinweisen auf eine potentielle militärische Verwendbarkeit neuer Technologien zufrieden und ermunterten die Forscher ausdrücklich, ihre Arbeiten auch zu publizieren und auf Konferenzen vorzustellen. Erfolgreiche technologische Entwicklungen der ARPA wurden dem Militär zur Nutzung überlassen. Gleichzeitig ermunterte die ARPA die private Wirtschaft, die gewonnenen Forschungsresultate in Produkte umzusetzen, was indirekt wiederum dem Militär zugute kam, weil es auf diese Weise fortgeschrittene Technologien zu einem erträglichen Preis erwerben konnte.

Die Computerszene der Vereinigten Staaten war zur Gründungszeit der ARPA gekennzeichnet durch die wachsende Verbreitung von allmählich - für damalige Verhältnisse - immer leistungsfähigeren Rechnern. Der für viele Vorhaben notwendige Transfer von Daten machte allerdings den mühseligen Austausch von physischen Datenträgern wie Magnetbändern oder Lochkarten erforderlich und war ausschließlich auf Computer desselben Herstellers oder desselben Typs beschränkt. Genutzt wurden die Rechner hauptsächlich für umfangreiche numerische Kalkulationen; nur wenige sahen das volle Potential der neuen Werkzeuge vorher. Einer dieser Visionäre war J.C.R. Licklider.

Nach seinem Studium der Physik, Mathematik und Psychologie an der Universität von Washington und seiner Promotion in Psychologie an der Universität in Rochester wurde Licklider Professor in Harvard und lehrte am MIT Psychoakustik. Als er zum ersten Mal einen Rechner sah, begann ihn die Vorstellung von Computern als einem die menschlichen Möglichkeiten erweiternden Denkwerkzeug zu faszinieren. Licklider entwickelte am Lincoln Laboratorium, einer Einrichtung des MIT, die für das US-Verteidigungsministerium arbeitete, Computerdisplays. Dort kam er mit jenen Leuten in Kontakt, die ihn später für die ARPA gewannen.

Licklider hatte im Jahr 1960 ein Manuskript mit dem Titel "Man-Computer Symbiosis" geschrieben, in dem er die Perspektive einer Neuorientierung der Computertechnik an den Bedürfnissen der Benutzer entwarf: "The hope is that, in not too many years, human brains and computing machines will be coupled together very tightly, and that the resulting partnership will think as no human brain has ever thought and process data in a way not approached by the information-handling machines we know today... Those years should be intellectually the most creative and exciting in the history of mankind." (Licklider, 1960, 4). Licklider meinte, daß neue Wege der Nutzung von Computern nicht nur bei der Entwicklung von Waffen von Wert sein könnten, sondern auch neue Möglichkeiten für die Wissenschaft und die Verwaltung eröffnen würden. Um den an ihren Projekten beteiligten Wissenschaftlern und Verwaltungsangestellten die von Licklider beschriebenen Werkzeuge zur Verfügung zu stellen, setzte die ARPA im Jahr 1962 mit einem Büro für informationsverarbeitende Technologien (Information Processing Techniques Office, IPTO) einen neuen Schwerpunkt und wurde zu einem der wichtigsten Förderer der noch jungen Computertechnik in den Vereinigten Staaten. Licklider betraute man mit der Leitung der neugegründeten Behörde.

Zu den Visionen, die Licklider realisieren wollte, gehörten der interaktive Umgang mit Rechnern anstelle der mühsamen und zeitaufwendigen Vorbereitung von Lochkarten im Stapelbetrieb, die Entwicklung maschinenunabhängiger Hochsprachen, bessere und benutzerfreundlichere Ein- und Ausgabegeräte und eine effizientere Nutzung bestehender Hardwareressourcen. Die Vernetzung von Computern erschien ihm dabei als wesentlicher evolutionärer Schritt in der Rechnerentwicklung, die von der reinen Zahlenfresserei wegführen und einen interaktiven Dialog zwischen den Benutzern ermöglichen würde. Unter den vom IPTO unter Lickliders Leitung finanzierten Projekten waren viele wegweisende Entwicklungen wie die Implementierung von Time-Sharing-Betriebssystemen, die Herstellung graphischer Computerterminals und grundlegende Forschungen zur künstlichen Intelligenz. Von den geförderten Projekten sollte jedoch dasjenige zur Errichtung eines nationalen Computernetzwerks die größte Bedeutung erlangen.

Durch die Entwicklung von Time-Sharing-Betriebssystemen war es für die Benutzer von Computern möglich geworden, interaktiv und gleichzeitig mit anderen Benutzern einen Teil der Rechenzeit eines zentralen Prozessors in Anspruch zu nehmen. Die mühselige Vorbereitung einer großen Menge von Lochkarten wurde damit verzichtbar. Als Erweiterung der Idee des Timesharing - der gleichzeitigen Inanspruchnahme eines Rechners durch mehrere Benutzer - und zur Förderung der Dezentralisierung lag es nahe, den Benutzern durch die Einrichtung eines Netzwerks von Rechnern zu ermöglichen, gleichzeitig die Dienste verschiedener und auch räumlich weiter entfernter Rechner in Anspruch zu nehmen. Als entscheidende Frage stellte sich dabei die nach der geeigneten Topologie eines solchen Netzwerks.

Typischerweise wurden beim Time-Sharing Betrieb eine ganze Reihe von Terminals an einen zentralen Hostrechner angeschlossen, wobei die Terminals die Form eines Sterns mit dem Host in der Mitte bildeten. Diese Topologie brachte allerdings einige schwerwiegende Nachteile mit sich: ein einzelner Leitungsfehler führte zum völligen Ausfall des betroffenen Rechners, und ein Ausfall des Zentralrechners hatte den Ausfall des gesamten Netzwerks zur Folge. Zudem ließ sich eine solche Konfiguration nur begrenzt erweitern, weil der Anschluß immer weiterer Terminals schließlich zu einer Überlastung des Zentralrechners führte. Außerdem konnten wegen der völligen Inkompatibilität ausschließlich Computer desselben Herstellers oder sogar desselben Typs verbunden werden.


Paketorientierte Netzwerkprotokolle

Eine alternative Netzwerktopologie schlug Paul Baran (1964) von der RAND Corporation vor. Mit seinem Vorschlag versuchte Baran, der Sorge der US Air Force um die Überlebensfähigkeit ihrer Kommandostruktur im Falle eines sowjetischen Nuklearangriffs Rechnung zu tragen. An Stelle des konventionellen Sterns sah Baran ein "distributed network" vor, bei dem spinnwebförmig eine Vielzahl von Verbindungen zwischen den in das Netzwerk eingebundenen Rechnern vorgesehen war. Durch den Wegfall eines Zentralrechners sollte das Datenaufkommen im Netzwerk gleichmäßig auf die einzelnen Leitungen aufgeteilt werden. Da viele Leitungen redundant sind, gibt es in einem verteilten Netzwerk stets mehrere Wege von einem Start- zu einem Zielrechner. Ein Totalausfall des Netzes kann deshalb erst auftreten, wenn jeder einzelne mögliche Pfad ausfällt. Damit ist eine sehr viel höhere Zuverlässigkeit als bei einem Telefonnetz mit festen Leitungsverbindungen erreichbar.

Den militärischen Auftraggebern wurde das verteilte Netzwerk mit dem Argument schmackhaft gemacht, es könne seine Funktion sogar bei dem im Falle eines Krieges befürchteten Ausfall großer Teile des Gesamtnetzes aufrechterhalten. Obwohl die Air Force von Barans Idee begeistert war, wurde das Netz in seiner geplanten Form nicht realisiert, weil das Verteidigungsministerium auf einem Gesamtnetz für alle Streitkräfte bestand. Barans Vorschläge flossen aber in die späteren Überlegungen anderer Netzwerkentwickler ein. Als einflußreich erwies sich dabei vor allem die Idee des "packet switching".

Anstatt für die Übertragung einer Nachricht eine feste Leitung wie beim Telefonieren einzurichten, hielt Baran für sein Netzwerk das Aufspalten der Nachrichten in viele kleine Pakete für die geeignete Übertragungsmethode. Seine Überlegung war, auf diese Weise das Datenaufkommen im Netzwerk besser zu verteilen. Für jedes einzelne Paket würde in Analogie zum Versand konventioneller Postpakete individuell bestimmt werden, welches der gerade jeweils günstigste Weg zum Bestimmungsort ist. Wenn eine Leitung verstopft ist oder ausfällt, nimmt das Paket einfach einen anderen Weg. Falls ein Paket verloren geht, wird nur das verlorengegange Paket erneut verschickt, nicht aber die ganze Nachricht. Auf dem Zielrechner kann nach Eintreffen aller Pakete die ursprüngliche Nachricht wieder zusammengesetzt werden, wobei es gleichgültig ist, ob die Pakete in der richtigen Reihenfolge an ihrem Bestimmungsort ankommen oder nicht. Da jedes Datenpaket und jeder Rechner im Netz "weiß", wie und wohin die Informationen weiterzusenden sind, ist eine zentrale Steuereinheit nicht erforderlich. Die verschickten Datenpakete sind prinzipiell in der Lage, beliebige Inhalte aufzunehmen: Computerprogramme und -daten, digitalisierte Stimmen, Töne, Texte, hochauflösende Grafiken oder bewegte Bilder.

Viele Skeptiker zweifelten zunächst am Sinn des "packet switching". Der nicht unerhebliche zusätzliche Aufwand, alle einzelnen Pakete mit dem Zielort zu beschriften und an jedem Knotenpunkt im Netzwerk neu zu bestimmen, wohin ein Paket am besten weitergeleitet wird, schien das System unnötig komplex und störanfällig zu machen. Fraglich schien weiter, ob die Speicherkapazität der Zielrechner immer ausreichen würde, um die einzelnen Teile mehrerer Nachrichten bis zum Eintreffen des letzten Paketes aufzunehmen. Besonders Telefontechniker bezweifelten, daß das Eintreffen jedes einzelnen Paketes auf dem Zielrechner gewährleistet werden könne, wenn der gewählte Weg für jedes Paket neu bestimmt wird.

Die Societe Internationale de Telecommunications Aeronautiques (SITA) entschloß sich 1965 dennoch, Barans Vorschlag aufzugreifen und erstmals das Prinzip des "packet switching" für die Kommunikation der ihr angeschlossenen 175 Fluggesellschaften einzusetzen (Hirsch, 1974). Neun Knotenpunkte - Amsterdam, Brüssel, Frankfurt, Hong Kong, London, Madrid, New York, Paris und Rom - wurden mit fest gemieteten Telefonleitungen untereinander verbunden. Alle Nachrichten wurden zum jeweils nächstgelegenen Netzknoten weitergeleitet, bis der Zielflughafen erreicht war. Das SITA-Netz war ein voller Erfolg. Bereits im Jahr 1973 überstieg das Datenvolumen des Systems das des gesamten internationalen Telegraphieverkehrs. Ein weiteres paketorientiertes Netz wurde 1965 im National Physical Laboratory in England aufgebaut. Es blieb jedoch in einem experimentellen Stadium, weil aus Kostengründen der ursprüngliche Plan einer landesweiten Vernetzung nicht realisiert werden konnte (Abbate, 1994).

Ein Jahr später nahm IPTO die Idee in Angriff, nach Barans Plänen die über das ganze Land verstreuten ARPA-Computerzentren miteinander zu vernetzen. Unter Zugrundelegung der "packet switching"-Technologie plante man eine landesweite, verteilte Topologie. Durch effiziente Routing-Algorithmen sollte die rasche und effiziente Verschickung der anfallenden Datenpakete gewährleistet werden.


Das ARPANET

Anders als bei früheren Anläufen bestand bei der Entwicklung des ARPANET von Anfang an die Absicht, in das entstehende Netz vollkommen heterogene Hardwareplattformen zu integrieren. Charles Hitzfeld, der Leiter von ARPA, bewilligte für die Pilotarbeiten des Jahres 1968 ein Budget von 500.000 Dollar. Zwei Jahre später betrug das jährliche Budget für das ARPANET bereits 2.2 Millionen Dollar. Als Ziel des ARPANET-Projekts wurde die Errichtung eines zuverlässigen, störungsresistenten Netzes auf der Basis der neuen Pakettechnik, die gemeinsame Nutzung vorhandener Hardware-Ressourcen und die Möglichkeit des Datenaustauschs zwischen Rechnern unterschiedlicher Hersteller benannt: "Almost every conceivable item of computer hardware and software will be in the network ... This is the greatest challenge of the system, as well as its greatest ultimate value" (Dickson, 1968, 131).

Zu diesem Zeitpunkt finanzierte IPTO den ARPA angeschlossenen Forschungszentren eine Vielzahl unterschiedlicher Rechnerplattformen, u.a. von IBM, DEC, SDS und Univac. Durch die Vernetzung sollten vor allem teure Einzelstücke wie der Superrechner ILLIAC in Illinois allen beteiligten Forschungseinrichtungen gemeinsam zur Verfügung stehen, damit ARPA nicht mehr jedem Zentrum einen eigenen Kauf finanzieren mußte.

1969 wurde mit der Vernetzung der ARPA-Forschungseinrichtungen begonnen. Gegen Ende des Jahres waren die ersten vier Computerzentren miteinander verbunden: die Universität von Kalifornien in Santa Barbara mit einer IBM 360/75, das Stanford Research Institute mit einer SDS-940, die Universität von Utah mit einer PDP-10 und die Universität von Kalifornien in Los Angeles mit einer SDS Sigma-7. Im folgenden Jahr kamen auch Harvard und das MIT hinzu. Mitte 1971 waren bereits mehr als dreißig verschiedene Computerzentren in das Netz eingebunden.

Von der Idee des ARPANET waren allerdings nicht alle Computerzentren begeistert, weil sie zu Recht befürchteten, daß ein Erfolg des Netzes Einschnitte in das Budget für Hardwarekäufe mit sich bringen würde. Als Hauptbedenken äußerten die Leiter mehrerer Forschungseinrichtungen deshalb Kritik an dem enormen Aufwand, der notwendig sein würde, für jeden der vielen vorhandenen Rechnertypen die erforderliche Netzwerksoftware zu schreiben. Wesley Clark von der Washington University in St. Louis fand für dieses Problem aber eine einfache Lösung: jeder Rechner wurde an einen kleinen Minicomputer angeschlossen, der als Interface zum Netz fungierte. Die Paketverteilung wurde dann von einem Programm erledigt, das für die überall als "interface message processor" (IMP) eingesetzten Minicomputer nur einmal entwickelt zu werden brauchte. Diese Arbeitsteilung zwischen unterschiedlichen Netzwerkschichten (layering) erwies sich als die am besten geeignete Lösung für das Problem der Interaktion unterschiedlicher Komponenten in einem Netzwerk: die Aufgabe der Paketverteilung brauchte von keinem Anwendungsprogrammen selbst wahrgenommen zu werden, solange die spezifizierte Schnittstelle zu der hierarchisch untergeordneten Paketverteilungssoftware eingehalten wurde.

Die Kommunikationsfunktion im Netz übernahmen Honeywell DDP-516-Minicomputer mit 24 Kilobyte Hauptspeicher. In ihrer Software wurde zur Erhöhung der Übertragungszuverlässigkeit das Prinzip des "acknowledgment" implementiert: der Empfang jedes Pakets wurde vom Empfänger bestätigt; eine Fehlerkontrolle wurde durch die Übermittlung einer Quersumme des Paketinhalts realisiert. Auch das wichtigste Problem, das korrekte Weiterleiten der Pakete in Richtung auf den Zielrechner ("routing") konnte erfolgreich gelöst werden. Alle 0.7 Sekunden berechnete jeder IMP abhängig von der momentanen Auslastung der verschiedenen Strecken die jeweils günstigste Verbindung zu allen benachbarten Rechnern. Allmählich gelang es, den Routing-Algorithmus immer weiter zu verbessern und Engpässe bei der Paketverteilung zu vermeiden (Stallings, 1991).


Die vergessene Anwendung

Die ersten beiden Anwendungsprogramme für das neue Netzwerk waren, wie von den Verantwortlichen geplant, ein Programm zur Fernsteuerung fremder Rechner (telecommunications network, "Telnet") und ein Programm für den Austausch von Dateien mit anderen Rechnern (file transfer protocol, "FTP"). In der Anfangszeit wurde das ARPANET allerdings bei weitem nicht so intensiv genutzt, wie es seine Erbauer sich vorgestellt hatten. Das änderte sich schlagartig mit dem Aufkommen einer neuen Anwendung, an die bei der Errichtung des Netzes nicht gedacht worden war, die sich jedoch zur Überraschung der Konstrukteure als die wichtigste Ressource des Netzes erweisen sollte: die elektronische Post ("eMail").

Noch 1967 hatte Lawrence Roberts - späterer Leiter von IPTO - geurteilt, die Möglichkeit des Austauschs von Botschaften zwischen den Benutzern sei "not an important motivation for a network of scientific computers" (Roberts, 1967). Tatsächlich wurde der eMail-Dienst jedoch schon bald in einem weit größeren Ausmaß genutzt, als es die Verwaltung des Netzes - der ursprüngliche Anwendungszweck der eMail - erforderte. Bereits kurz nach der Veröffentlichung des ersten experimentellen Mailprogramms im Jahr 1971 überstieg das Gesamtvolumen des elektronischen Postverkehrs das Datenvolumen der Dienste Telnet und FTP.

Die elektronische Post hatte viele offensichtliche Vorteile: sie war viel schneller als die normale Post, erheblich billiger als ein Ferngespräch, konnte vom Empfänger zu einem für ihn angenehmen Zeitpunkt gelesen und bearbeitet werden und eröffnete für die Computerwissenschaftler die Möglichkeit, landesweit mit ihren Kollegen zu kommunizieren. Als weiteren Vorteil des neuen, informellen Kommunikationsmediums sahen viele den Wegfall der Notwendigkeit an, in die Formulierung und die formale Gestaltung eines Schreibens so viel Mühe zu investieren wie in einen normalen Postbrief.

Während also das Netz ursprünglich gebaut worden war, um Computer miteinander zu verbinden, verdankte es seinen durchschlagenden Erfolg schließlich seiner nicht vorhergesehenen Fähigkeit, auch Menschen miteinander in Kontakt zu bringen (Abbate, 1994). Aus der Perspektive der Techniker war die weit verstreute geographische Verteilung der Computerzentren quer über das Land nur ein Zufall; die Probleme der Vernetzung wären dieselben gewesen, wenn die durch das Netz verbundenen Rechner nahe beieinander gestanden hätten. Aus der Perspektive der Benutzer erwies es sich jedoch als entscheidend, daß räumlich weit entfernte Computerzentren plötzlich zusammenzurücken schienen und große Distanzen, die mit Telefongesprächen nur sehr teuer und durch Reisen nur sehr mühsam überbrückt werden konnten, durch das Netz zusammenschrumpften. Mit dem eMail-Dienst wurde es möglich, eine einzeilige oder hundert Seiten lange Nachricht an einen oder auch an tausend Empfänger zu schicken. Mit einem einzigen Tastendruck konnten eintreffende Nachrichten an neue Empfänger weitergeschickt werden. Allmählich entstanden Verteilerlisten und damit auf eMail basierende virtuelle Konferenzsysteme, in denen sich eine eigene neue Kultur entwickelte.

Die erste große eMail-Diskussionsgruppe, die im ARPANET entstand, war die SF-LOVERS-Liste, in der sich eine Reihe von ARPA-Forschern an öffentlichen Diskussionen über Science Fiction beteiligte (Rheingold, 1994). SF-LOVERS tauchte in den späten 70er Jahren im ARPANET auf. Zunächst wurde versucht, dagegen einzuschreiten, weil derartige Aktivitäten selbst bei liberalster Auslegung mit Forschung wenig zu tun hatten. Für einige Monate wurde die Liste deshalb gesperrt. Schließlich wurden die Verantwortlichen der ARPA aber mit dem Argument überzeugt, daß SF-LOVERS ein wichtiges Pilotprojekt zur Erforschung der Verwaltung und des Betriebs großer Mailinglisten war (Hauben, 1993). Die Systemingenieure mußten das System wiederholt umbauen, damit es das explosionsartig ansteigende Nachrichtenaufkommen bewältigen konnte.

Die technische Entwicklung des Netzes wurde in einer fortlaufenden Reihe von Dokumenten festgehalten, die Requests for Comments (RFC) genannt wurden. Die RFCs dienten dem informellen Austausch von Vorschlägen und Ideen bei der Entwicklung des ARPANET; allen beteiligten Forschern, Doktoranden und Studenten stand es frei, Artikel beizusteuern oder zu kommentieren. Akzeptiert wurden philosophische Überlegungen ebenso wie Programmvorschläge, technische Detaildiskussionen und provokative Fragen ohne Lösungsvorschläge. Die RFCs wurden fast von Anfang an durch das ARPANET selbst verteilt. Über viele Fragen der Netzwerkadministration und der technischen Spezifikation der Netzwerkprotokolle wurde auf diesem informellen Weg ein Konsens erzielt, der dann schließlich zur offiziellen ARPA-Richtlinie wurde. Im Verlauf von 26 Jahren wurden über 1750 RFCs veröffentlicht (Salus, 1995).

Der Siegeszug des Netzes machte es den Forschern möglich, anstelle der nächstgelegenen diejenigen Computer zu benutzen, die für ihre Problemstellungen am besten geeignet waren, und mit denjenigen Menschen zu kommunizieren, die für ihre Probleme die besten Lösungsvorschläge anbieten konnten. Viele Dozenten und Studenten nutzten die neuen Kommunikationsmöglichkeiten, um mit weit entfernt lebenden Kollegen zusammenzuarbeiten, deren Forschungsinteressen sie teilten. Auf diese Weise wurden Gemeinschaftsprojekte wie die Entwicklung der Programmiersprache LISP möglich, bei denen geographisch weit verstreut liegende Gruppen zusammenarbeiteten.

Den Durchbruch in der Aufmerksamkeit der Fachöffentlichkeit erzielte das ARPANET mit einer Präsentation bei der International Conference on Computer Communications (ICCC) im Oktober 1972. Die Demonstration der neuen Möglichkeiten, die das Netz bot, dauerte drei Tage, während derer das Netz zuverlässig arbeitete. Diese erste öffentliche Vorführung überzeugte die anwesenden Experten, daß es möglich war, eine Vielzahl von Großrechnern und Minicomputern auf zuverlässige Art und Weise miteinander zu vernetzen. Vor dieser Konferenz betrug das mittlere monatliche Wachstum des Datenvolumens im ARPANET wenige Prozent; im Monat nach der Konferenz sprang es um 67%. Auch später hielt das starke Wachstum an, und die Zahl der ans ARPANET angeschlossenen Rechner vergrößerte sich ständig. In rascher Folge entstand eine Reihe von lokalen Universitätsnetzen, die sich zum großen Teil an das ARPANET anschlossen oder sich bei der Wahl der zugrundegelegten Technologie am ARPANET orientierten. ARPA trug zu der Verbreitung des Netzes bei, indem sie das beim Aufbau des ARPANET erworbene Wissen an viele Universitäten sowie an die Air Force, den Wetterdienst, die National Science Foundation (NSF) und die NASA weitergab.

Die großen Hardwarehersteller begannen ebenfalls, Netzwerktechnologie für ihre Produkte anzubieten. IBM hatte bereits seit längerem eine Vielzahl von Übertragungsprotokollen im Angebot; mit ihnen war es aber noch nicht einmal möglich, alle unterschiedlichen Rechnertypen von IBM zu vernetzen. 1974 führte IBM deshalb die Systems Network Architecture (SNA) ein, die diesen Mangel behob. Xerox folgte mit den Xerox Network Services, und die Digital Equipment Corporation (DEC) errichtete das DECNET. Alle diese Netzwerke waren paketorientiert und bauten insofern auf der für das ARPANET entwickelten Technologie auf. Als entscheidender Nachteil der Herstellernetze erwies sich allerdings, daß Rechner fremder Hersteller nicht oder nur mit großen Schwierigkeiten in das Netz eingebunden werden konnten. Das war von den großen Firmen auch durchaus beabsichtigt, um auf diesem Wege Marktanteile zu sichern. Daß sich das ARPANET gegen diese Herstellernetze durchsetzte, lag vor allem an seiner für viele Anwender bedeutsamen Möglichkeit, vorhandene, heterogene Hardwareplattformen zu integrieren.


Das Internet und das TCP/IP-Protokoll

Nachdem die Grundprinzipien des Paketaustauschs erfolgreich implementiert worden waren, unternahm IPTO Versuche, auch ursprünglich nicht für den elektronischen Datenaustausch vorgesehene Medien in das Netz einzubinden. So hatten Radiowellen den Vorteil, von mobilen Sendern erzeugt werden zu können, was für militärische Anwendungen attraktiv erschien. Geostationäre Satelliten waren hingegen in der Lage, mit geringem Aufwand ein sehr großes Gebiet mit hohen Übertragungsraten bestrahlen.

Das erste Experiment mit Radiowellen fand an der University of Hawaii statt, wo man unglücklich darüber war, aufgrund der schlechten Telefonqualität keinen befriedigenden Zugang zum ARPANET zu haben. 1970/71 wurden die wichtigsten Forschungseinrichtungen in Hawaii im ALOHANET miteinander vernetzt. Das Problem, daß nur ein einziger Kanal zur Verfügung stand, der von allen Benutzern gleichzeitig genutzt werden mußte, wurde gelöst, indem von vornherein Kollisionen zwischen Paketen unterschiedlicher Absender eingeplant wurden; es wurde jedoch sichergestellt, daß sich das Netz von solchen Kollisionen erholen würde. Im Falle einer Kollision mußten lediglich die beteiligten Pakete erneut über den Radiowellenkanal verschickt werden; jeder Rechner wartete dabei eine bestimmte Zeit bis zum nächsten Versuch, sein Paket loszuwerden, und diese Wartezeit wurde für alle angeschlossenen Rechner von einem Zufallsgenerator bestimmt. Dadurch war eine wiederholte Blockade von Paketen sehr unwahrscheinlich. Besonders die Streitkräfte nutzten die neue Technik radiowellenbasierter Netze intensiv.

Seit 1973 wurden auch Satellitenverbindungen in das ARPANET integriert. Neben der wiederum führend an der Entwicklung beteiligten University of Hawaii nutzten erstmals auch einige europäische Forschungseinrichtungen Satelliten zur Verbindung ihrer Rechner. 1975 wurde das SATNET gegründet, das gemeinsam von der ARPA, dem British Post Office und der Norwegischen Telekommunikationsbehörde finanziert wurde. Eines der Anwendungsgebiete des SATNETS war die Übertragung seismischer Messungen.

Nachdem es durch den Erfolg des ARPANET möglich geworden war, unterschiedliche Hardwareplattformen zu integrieren, und durch die Nutzung unterschiedlicher Trägermedien verschiedenartige Netze realisiert worden waren, nahm die ARPA als nächsten Schritt die Verbindung heterogener Netzwerke in Angriff. Das "Internetworking" (das Verbinden von Netzwerken) war die logische Fortsetzung des Verbindens einzelner Computer, eine Möglichkeit, gemeinsame Ressourcennutzung und Kommunikation in einem noch größeren Maßstab zu betreiben. Eine erste experimentelle Verbindung zweier Netzwerke fand bereits 1972 statt, als zu Demonstrationszwecken eine Verbindung zwischen dem ARPANET und dem kommerziellen TYMNET eingerichtet wurde. Den eigentlichen Anstoß für die Internetworking-Bemühungen der ARPA gab jedoch die Entwicklung des PRNET.

Das PRNET beruhte auf Rundfunkwellen und benutzte eine deutlich andere Technologie als das ARPANET. Dennoch wollte die ARPA eine Verbindung zwischen dem ARPANET und dem PRNET herstellen. Zu diesem Zweck wurde 1973 das "INTERNET Program" unter der Leitung von Robert Kahn und Vinton Cerf ins Leben gerufen. Ausgangspunkt ihrer Überlegungen war, daß die Netzwerke in einem weltweiten Netzwerkverbund nur sehr wenig gemeinsam haben würden. Sie suchten deshalb nach einer Möglichkeit zur Integration unterschiedlichster Einzelnetze, die nur minimale Anforderungen an die Struktur der Teilnetze stellen durfte, um auch sehr heterogene Netzwerke untereinander verbinden zu können. Das Internet sollte auf einer höheren Ebene derselben Philosophie wie zuvor das ARPANET folgen: nicht nur Hardware der unterschiedlichsten Typen und Hersteller, sondern ganze Netzwerke der unterschiedlichsten Art sollten sich zu einem gemeinsamen "Netz der Netze", dem INTERNET, zusammenfinden.

Dafür war es notwendig, sich auf ein einheitliches Datenformat und eine einheitliche Methode der Verbindungsherstellung zu einigen. Da die alten ARPANET-Protokolle der neuen Aufgabe nicht gewachsen waren, entschlossen sich Cerf und Kahn, einen neuen Standard zu schaffen, der auf allen von der ARPA betriebenen Netzen verwendet werden sollte. Dieses neue Netzwerkprotokoll tauften sie auf den Namen "Transmission Control Protocol" (TCP). Es sorgte für den reibungslosen Paketaustausch, indem es den Versand der Pakete überwachte und diese so aufteilte, daß kein Teil des Netzes überlastet wurde. Neben diesen Routing-Aufgaben übernahm das Protokoll ursprünglich auch die Adressierung aller Internet-Rechner. Um 1980 wurde diese Funktion dann einem eigenen Protokoll, dem "Internet Protocol" (IP), übergeben. Im IP wird hierarchisch jedem Rechner eine Adresse zugewiesen. Ein Teil der Adresse gibt das Netzwerk an, in dem sich der Rechner befindet, und ein weiterer Teil die Adresse des Rechners innerhalb dieses Netzwerkes. Auf diese Weise wird das "Routing" vereinfacht, weil jedes Netz durch ein eigenes Gateway mit dem Internet verbunden ist, das eindeutig der Nummer des jeweiligen Netzwerks zugeordnet werden kann. Jede Nachricht aus einem anderen Netzwerk wird deshalb zunächst zum Gateway des Zielnetzwerks geleitet, und erst hier wird die genaue Rechneradresse innerhalb des Zielnetzwerks zur Weiterleitung benutzt.

Durch die Verwendung der Protokolle TCP/IP wurde es den verschiedenartigsten Netzen möglich, untereinander zu kommunizieren, sofern alle Teilnetze den neuen Standard verwendeten. Die erste Installation des TCP/IP-Protokolls wurde im Jahr 1975 auf den Rechnern einiger amerikanischer Universitäten sowie auf dem University College in London vorgenommen. Zunächst wurden mit Hilfe des Internet-Protokolls das ALOHANET, das PRNET und das SATNET mit dem ARPANET verbunden. Die ARPA ermunterte andere Netzwerkbetreiber, ebenfalls auf die Internet-Protokolle zurückzugreifen, und stellte die Spezifikation der Protokolle kostenlos zur Verfügung. Darüberhinaus leistete die ARPA aktiv finanzielle Unterstützung, um die neue Berkeley-Version des UNIX-Betriebssystems mit TCP/IP auszustatten. Weil UNIX an allen Universitäten des Landes eingesetzt wurde, wurde TCP/IP schnell zu einem de-facto-Standard bei der Vernetzung akademisch orientierter Netzwerke. Ab Mitte der 80er Jahre waren auch kommerzielle Versionen von TCP/IP verfügbar.

Ursprünglich nannte die ARPA die mit TCP/IP verbundenen Netzwerke das "ARPA Internet". Als immer mehr militärische, wissenschaftliche und Regierungsorganisationen aus den Vereinigten Staaten und anderen Ländern den TCP/IP-Standard übernahmen und sich dem ARPA Internet anschlossen, wurde das Netz schließlich einfach "Internet" genannt. Während bereits mindestens zwei miteinander verbundene Netzwerke als ein Internet bezeichnet werden können, wird heute unter dem Begriff Internet meist die Menge aller Netzwerke verstanden, die das TCP/IP-Protokoll verwenden und untereinander durch Gateways verbunden sind. Häufig werden unter dem Begriff Internet auch noch einige weitere Netze subsumiert, die mit dem Internet verbunden sind. Unter diesen verdient eines besondere Erwähnung.


Das USENET

Im Jahr 1978 war eine neue Version des UNIX-Betriebssystems veröffentlicht worden, das ein Programm namens UUCP (UNIX-to-UNIX-copy) enthielt, mit dessen Hilfe man über eine Telefonleitung Daten zwischen zwei UNIX-Maschinen austauschen konnte. Entwickelt wurde es 1976 von Mike Lesk in den Bell Laboratories von AT&T. Schon im folgenden Jahr schrieben zwei Studenten der Duke University ein Unix-Shellskript, das mit Hilfe von UUCP elektronische Nachrichten zwischen der Duke University und der University of North Carolina austauschte. Aus diesem Programm wuchs allmählich, nach vielen durch das starke Anwachsen des Datenaufkommens notwendig gewordenen Änderungen, ein weltweites elektronisches schwarzes Brett mit Diskussionsgruppen zu allen möglichen Themen: das USENET. In seinen Anfängen wurde das USENET von seinen Autoren das "ARPANET des armen Mannes" genannt (Hauben, 1993), weil es einen Netzzugang auch für Personen ermöglichte, die nicht in einem Projekt der ARPA beschäftigt waren. Notwendig für die Teilnahme am USENET war lediglich ein unter dem Betriebssystem UNIX laufender Computer und ein Telefonanschluß.

Das USENET bot ein Verfahren, mehrere öffentliche Gesprächsrunden zu bestimmten Themen zu verwalten, die nicht in einer zentralen Einrichtung lokalisiert waren und auch nicht zentral gesteuert wurden. Damit ist das USENET im wesentlichen ein Mittel zur Konversation; in ihm finden Hunderttausende von Gesprächen am Tag über Tausende unterschiedlicher Themen statt. Das zugrundeliegende Prinzip besteht darin, einfach jedes Schreiben eines Teilnehmers allen anderen Teilnehmern zugänglich zu machen. Anders als bei klassischen Massenmedien arbeitet beim USENET der Kanal aber nicht nur in eine Richtung; jeder Teilnehmer des Netzes kann die veröffentlichte Meinung anderer kommentieren oder eine neue Diskussion eröffnen. Die Abwesenheit jeder Art von Werbung und die Unabhängigkeit von allen kommerziellen Einflußgrößen ist bis heute ein bestimmendes und von vielen Benutzern energisch verteidigtes Kennzeichen des USENET; nirgendwo sonst verbreiten sich zum Leidwesen vieler Hersteller die Nachteile mangelhafter Produkte so schnell wie in dieser virtuellen Gemeinschaft kritischer Verbraucher, und nirgendwo sonst werden gesellschaftlich und politisch relevante Themen unzensiert von einer so breiten Öffentlichkeit diskutiert.

1980 waren 15 Rechner an das USENET angeschlossen, und täglich wurden etwa 10 Nachrichten ("News") gepostet. Den Teilnehmern war es deshalb noch leicht möglich, jede einzelne eintreffende Nachricht zu verfolgen. Im selben Jahr wurde erstmals eine noch inoffizielle Schnittstelle zwischen dem USENET und dem ARPANET eingerichtet. Ein Jahr später schloß sich mit der Zoologischen Fakultät in Toronto der erste Rechner außerhalb der Vereinigten Staaten an das USENET an. Bereits 1985 war weltweit die Zahl der an das USENET angeschlossenen Rechner auf 1300 und die der täglichen Nachrichten auf 375 gestiegen, womit das Datenvolumen erstmals über einem Megabyte täglich lag.

Nach einer teilweise erbittert geführten Auseinandersetzung in den Jahren 1986 und 1987 über die zulässigen Gesprächsthemen und Diskussionsgruppen im explosionsartig anwachsenden USENET wurden die Diskussionsforen ("Newsgroups") in eine Handvoll übergeordneter Hierarchien eingeteilt, die sich grundlegenden Themengebieten wie der Wissenschaft (sci), der Freizeitgestaltung (rec), Computern (comp), sozialen Angelegenheiten (soc) oder Neuigkeiten(news) widmeten. Nach entsprechenden Vorschlägen, Diskussionen und erfolgreichen Abstimmungen wurden und werden seither ständig weitere Untergruppen in den Haupthierarchien eingerichtet, die sich mit unterschiedlichsten Themen wie beispielsweise bestimmten Betriebssystemen (comp.os.ms-windows), Politik (soc.politics), wissenschaftlichen Disziplinen (sci.math.research), Witzen (rec.humor), Programmiersprachen (comp.lang.pascal.misc) oder Ahnenforschung (soc.genealogy.german) beschäftigen. Mit der weltweiten Verbreitung des USENET wurden die ursprünglichen ausnahmslos englischsprachigen Hierarchien allmählich durch eine Vielzahl nationaler Diskussionsgruppen ergänzt, in denen die jeweilige Landessprache gepflegt wird (z.B. in der deutschen Newsgroup de.soc.politik).

Eine weitere Hierarchie mit dem Namen "alt" (für Verschiedenes oder Alternatives) wurde 1988 aus Protest von dem USENET-Rebellen Brian Reid eingeführt, nachdem sich der angesehene und einflußreiche Netz-Guru Gene Spafford aus Anstandsgründen geweigert hatte, in den "seriösen" Hierarchien die Gruppen soc.sex und soc.drugs einzurichten. In einem berühmten "Posting" hatte Reid 1988 deshalb die Gründung der ersten drei Gruppen seiner anarchistischen Hierarchie verkündet:

"To end the suspense, I have just created alt.sex. That meant that the alt-network now carried alt.sex and alt.drugs. It was therefore artistically necessary to create alt.rock-n-roll, which I have also done" (nach Hardy, 1995).

Obwohl die alt-Hierarchie bis heute kein offizieller Teil des USENET ist, führen fast alle USENET-Server auch diese Gruppen. Für die Einrichtung neuer Diskussionsforen im offiziellen Teil des USENET wurde jedoch ein festes Reglement vereinbart. Über jeden Vorschlag zur Neueinrichtung einer Gruppe oder einer Untergruppe wird diskutiert und abgestimmt. Bei Erreichen einer Mehrheit und einer Mindeststimmenzahl wird ein neues Diskussionsforum eingerichtet. Lediglich in der alt-Hierarchie können nach Reids Vorbild weiterhin neue Diskussionsgruppen von einzelnen Benutzern eigenmächtig ins Leben gerufen werden.

Heute gibt es weltweit mehr als 15.000 Newsgroups mit allerdings zum Teil nur lokaler Verbreitung. Das tägliche Datenaufkommen liegt inzwischen bei über 1000 Megabyte. 85% des Datenvolumens entfallen dabei auf die Hierarchie alt (hauptsächlich wegen vieler Diskussionsforen, in denen Bilder und Programme veröffentlicht werden), 6% auf die Hierarchie rec, 3% auf die Hierarchie comp und 2% auf die Hierarchie soc. Viele der im USENET geführten Diskussionsforen bilden eine äußerst wertvolle Ressource für die an den unterschiedlichsten Themengebieten interessierten Teilnehmer, die bei Problemen über das USENET den Rat von Experten auf dem jeweiligen Gebiet einholen können.


Die Entstehung von Netzen in Europa

Die Entwicklung von Computernetzen in Europa begann mit einiger zeitlicher Verzögerung gegenüber den Vereinigten Staaten. Als erste europäische Staaten nahmen 1973 Norwegen und England Verbindung mit dem Internet auf. Viele der frühen nationalen Netze in Europa schlugen anstelle der Übernahme des TCP/IP-Protokolls einen eigenen Weg ein und folgten der Netzwerkspezifikation der International Standards Organization (ISO), indem sie das X.25-Protokoll wählten. Dazu zählte das 1978 eingerichtete öffentliche französische Datennetz TRANSPAC und das 1980 errichtete öffentliche britische Netz PSS. Das erste Netz in Japan wurde 1979 ebenfalls auf dem X.25-Standard errichtet. Besonders geeignet war der ISO-Standard für die Errichtung großer homogener Netzwerke, was vor allem den Bedürfnissen der nationalen Telekommunikationsgesellschaften als den zentralen Betreibern entgegenkam. Bei der hitzigen Debatte der Verfechter beider Protokolle wurden die unterschiedlichen Philosophien hinter den konkurrierenden Netzwerktechnologien TCP/IP und X.25 deutlich (Abbate, 1994). Während es die ARPA als wertvollstes Gut betrachtete, die unterschiedlichsten Netze integrieren zu können, hofften die das X.25-Protokoll favorisierenden Telefongesellschaften, infolge ihrer Monopolstellung homogene Netzwerke durchsetzen und auf diese Weise in den Genuß der Vorteile einer weitestgehend standardisierten Technik kommen zu können.

Während die Telefongesellschaften auch davon ausgingen, in allen Teilen ihrer Netze ausreichend stabile Verbindungen aufrechterhalten zu können, um die Verwendung des störungsresistenteren TCP/IP-Protokolls entbehrlich zu machen, hielten es die Verfechter von TCP/IP für wichtig, daß der Betrieb eines Netzes auch unter ungünstigen Bedingungen - etwa beim Ausfall einzelner Rechner oder Leitungen - aufrechterhalten werden konnte. Als besonders problematisch erwies sich die Einbindung lokaler Netzwerke in die X.25-Netzstruktur.

Das Xerox Palo Alto Research Center (PARC) hatte erstmals kleine lokale Netzwerke auf Ethernet-Basis entwickelt, und in der Folge kam es zu einem weltweiten Siegeszug der Local Area Networks (LANs) auf Ethernet- oder Token-Ring-Basis, die in Tausenden von Einrichtungen und Firmen installiert wurden. Da das X.25-Protokoll sehr hohe Anforderungen an kleinere Subnetze auf lokaler Ebene stellte, war es zur Integration dieser LANs wenig geeignet; ohnehin waren derartige Subnetze von den Betreibern der großen Telekommunikationsunternehmen nicht erwünscht. Bei der Wahl fiel in der Praxis die Entscheidung deshalb immer häufiger auf das TCP/IP-Protokoll, das sich dadurch immer mehr zum weltweiten Standard entwickelte. Im Jahr 1982 demonstrierte ARPA erstmals die Möglichkeit einer Schnittstelle zwischen dem TCP/IP-basierten Internet und dem X.25-basierten Telenet. In der Folge wurden die bestehenden X.25-Netze, darunter auch das seit 1990 die Universitäten des Landes verbindende deutsche Forschungsnetz WiN, als Teilnetze in das Internet integriert.


Das NSFNET

Bereits 1974 versuchte die ARPA erstmals, ihr Netz an einen privaten Betreiber zu übergeben (Abbate, 1994). Zu diesem Zeitpunkt bestand das Netz aus 60 IMPs und über 100 Host-Rechnern. Durch die Privatisierung hoffte man, die kommerzielle Netzwerkindustrie zu stimulieren und auch nichtmilitärische und außeruniversitäre Organisationen für die Teilnahme am Netz zu gewinnen. AT&T zeigte an einer Übernahme des ARPANET jedoch kein Interesse, weshalb die ARPA den Betrieb des Netzes selbst weiterführte.

In den folgenden Jahren wurden im alltäglichen Netzwerkbetrieb allmählich divergierende Interessen der militärischen Betreiber und der universitären Forschergemeinde sichtbar. Während den Militärs vor allem an einem sicheren und zuverlässigen Betrieb des ARPANET gelegen war, legten die Forscher Wert auf die Freiheit, die bestehenden Übertragungsprotokolle modifizieren und gelegentlich einige Experimente durchzuführen zu können, bei denen beispielsweise die Auswirkung der Stillegung einzelner Knotenrechner auf die Performanz des Netzes untersucht wurde. Auch die Sicherheitsbedenken des Militärs gegenüber unbefugten Zugriffen wurden mit der Vergrößerung des Nutzerkreises stärker. Bei den Betreibern reifte deshalb der Entschluß, das ARPANET in zwei getrennte Teilnetze aufzuteilen. 1983 übernahm MILNET den militärischen Datenverkehr, während das zweite Teilnetz den Namen ARPANET beibehielt.

Inzwischen waren weitere große Netzwerkprojekte gestartet worden, von denen das der National Science Foundation (NSF) die größten Ambitionen verfolgte. Seit Mitte der 60er Jahre hatte die NSF Computerzentren finanziert, von deren Vernetzung man sich eine ökonomischere Ressourcennutzung versprach. Darüberhinaus sollte durch die Vernetzung die Zusammenarbeit der von der NSF unterstützten Wissenschaftler über institutionelle und geographische Grenzen hinweg gefördert und der Austausch von Daten und Programmen erleichtert werden. Zunächst errichtete die NSF 1979 ein Netz, das die Informatik-Fakultäten des Landes verband; für dieses CSNET (Computer Sciences Net) wurden 5 Millionen Dollar bereitgestellt. Allmählich begannen auch die Wissenschaftler anderer Disziplinen, in immer größerem Umfang Zugang zu dem neuen Netz zu verlangen. Schließlich kulminierten die Netzwerkaktivitäten der NSF im Jahr 1984 in einem eigenen landesweiten Forschungsnetz, dem NSFNET. Als Grundlage für das NSFNET wurde das TCP/IP-Protokoll gewählt.

Ein Hauptziel bei der Einrichtung des NSFNET war, die fünf bestehenden Einrichtungen mit besonders teuren und leistungsfähigen Supercomputern den Forschungstreibenden aller Fachrichtungen in den Vereinigten Staaten unabhängig von ihrer institutionellen Zugehörigkeit verfügbar zu machen. Von vornherein wurde zwischen der NSF und der ARPA eine Vereinbarung getroffen, derzufolge bei der Errichtung des NSFNET die bestehende Infrastruktur des ARPANET genutzt werden durfte, wofür im Gegenzug auch alle an ARPA beteiligten Forscher Zugang zu den von der NSF finanzierten Supercomputern erhielten.

Die Kapazität des NSFNET überstieg 1988 die des fast zwei Jahrzehnte älteren ARPANET bei weitem. Schon seit einiger Zeit waren die bürokratischen und finanziellen Möglichkeiten von ARPA durch das ARPANET immer stärker strapaziert worden. Die ARPA entschied deshalb 1990, daß das ARPANET überflüssig geworden war, und deinstallierte die ARPANET-Hardware. Das NSFNET übernahm alle Funktionen des ARPANET. Für die meisten Benutzer hatte der reibungslos verlaufende Wechsel keinerlei Auswirkungen. Obwohl das ursprüngliche ARPANET damit aufgehört hatte zu existieren, lebte die Technologie des ARPANET im NSFNET weiter: Computerressourcen konnten auf der Grundlage des TCP/IP-Protokolls gemeinsam und entfernungsunabhängig genutzt werden, die Inkompatibilität unterschiedlicher Hardwareplattformen war überwunden und gemeinsame Forschungsaktivitäten räumlich weit voneinander entfernter Institutionen konnten mit geringem Aufwand koordiniert werden. Durch Dienste wie eMail, News, IRC und MUDs war eine Vielzahl virtueller Gemeinschaften entstanden, in denen sich Menschen aus allen Ländern der Erde trafen, kennenlernten und austauschten.

Die Möglichkeiten des Internets wurden in den folgenden Jahren in rascher Folge durch eine Reihe neuer Dienste und Suchprogramme wie Archie, Veronica, Jughead und Gopher ergänzt, mit deren Hilfe man sich im immer stärker wachsenden Netz zurechtfinden konnte. Kennzeichnend für die noch immer steigende Geschwindigkeit seiner Entwicklung ist aber die Tatsache, daß der heute wichtigste Dienst des Internets erst vor fünf Jahren ins Leben gerufen wurde.


Das WWW

Tim Berners-Lee entwickelte 1991 am europäischen Kernforschungszentrum CERN in Genf ein Hypertextsystem mit einer äußerst einfach zu bedienenden graphischen Benutzeroberfläche. Mit ihm wollte er Dokumente von allgemeinem Interesse für alle Mitglieder der Forschungseinrichtung zugänglich machen.

Schnell wurde das enorme Potential der Möglichkeit deutlich, bei der Lektüre von Hypertextdokumenten mit einem einfachen Knopfdruck interessant erscheinenden Querverweisen nicht nur innerhalb der Abteilung oder der Institution, sondern quer durch das Land und sogar über den gesamten Globus zu folgen. Weil alle Teilnehmer in einem solchen World Wide Web (WWW) unterschiedliche Fähigkeiten und Kenntnisse, Meinungen und Interessen haben, kann jeder Teilnehmer zu dem Wert und den Möglichkeiten des Netzes beitragen. Hunderttausende von Nutzern haben Informationsangebote für das WWW aufbereitetet und der Öffentlichkeit zur Verfügung gestellt. Derzeit wächst das World Wide Web mit einer Geschwindigkeit von einem Prozent täglich, was zu einer Verdoppelung der Informationsmenge alle zehn Wochen führt. Innerhalb weniger Jahre stieg der Anteil des WWW am gesamten Netzverkehr deshalb von anfänglich 0.1% explosionsartig an, und im Laufe des Jahres 1996 wird das WWW den Dateitransfer (FTP) als datenintensivsten Dienst ablösen. Die Bedienung von WWW-Browsern ist auch für Anfänger so leicht, daß technische Vorkenntnisse bei der Erkundung des Netzes erstmals entbehrlich geworden sind.

Das explosionsartige Wachstum des Internets stellt für seine technische Infrastruktur eine erhebliche Herausforderung dar. Mehr als ein Jahrzehnt genügte eine Übertragungsgeschwindigkeit im ARPANET von 56.000 Bit pro Sekunde, was im Vergleich zu den ersten Modems für den privaten Einsatz (300 Bit/s) auch relativ viel war. Die 1987 installierten NSFNET-Leitungen, die das ARPANET als Backbone des Internets ablösten, waren in der Lage, 1.5 Millionen Bit pro Sekunde zu transportieren. 1992 konnten die zentralen Übertragungsleitungen des NSFNET bereits 45 Millionen Bit pro Sekunde bewegen. In Deutschland wurde für 1996 von Forschungsminister Rüttgers ein Glasfaser-Breitbandnetz zur Verbindung der bundesdeutschen Forschungszentren mit einer Übertragungskapazität von 155 Millionen Bit pro Sekunde in Auftrag gegeben. Das entspricht der Übertragung einer ganzen Enzyklopädie in einer einzigen Sekunde. Dennoch reichen alle diese Kapazitätssprünge nicht aus, um die explodierende Nachfrage nach ausreichenden Bandweiten vor allem für datenintensive Multimedia-Anwendungen im WWW sowie die wachsende Zahl von Videokonferenzen und Audioübertragungen zu decken. Die nächsten Quantensprünge in der erreichbaren Geschwindigkeit sind indes bereits absehbar. Übertragungen im Gigabit-Bereich sollen es ermöglichen, ganze Bibliotheken binnen Sekunden zu übertragen, und auch die Forschungen für Geschwindigkeiten im Terabit-Bereich - Trillionen von Bit pro Sekunde - haben schon begonnen. Unsicher ist derzeit allerdings noch die Implementierung und Finanzierung der Infrastruktur, die dringend erforderlich ist, um mit dem explosionsartigen Wachstum des Netzes Schritt zu halten und die gegenwärtigen spürbaren Engpässe in der Netzwerkkapazität zu beseitigen.


Die Zukunft des Netzes

Hält man sich vor Augen, daß die ersten vier Rechner des heutigen Internets erst im Jahre 1969 vernetzt wurden, so wird deutlich, welch kurze Zeitspanne seit den Ursprüngen der Entwicklung eines globalen Netzes verstrichen ist. Noch immer verläuft die Entwicklung dieses Netzes so stürmisch, daß es unmöglich erscheint anzugeben, wann (und ob überhaupt jemals) das Internet oder eine ihm nachfolgende Netzwerktechnologie seine endgültige Form annehmen wird.

Besonders kennzeichnend für die derzeitige Phase der Entwicklung ist ein explosionsartiges Wachstum der Zahl der Netzteilnehmer. Der Zuwachs beträgt in jedem Monat etwa zehn Prozent. Die Zahl der Menschen, die im Augenblick weltweit das Internet in verschiedener Form (eMail, FTP, WWW usw.) nutzen, wird deshalb auf etwa 20-40 Millionen geschätzt. Jede derartige Schätzung ist allerdings notwendig mit einer erheblichen Ungenauigkeit behaftet, weil die Zahl der Benutzer pro angeschlossenem Rechner stark schwankt und selten genau angegeben werden kann. Auf immer mehr Rechnern arbeitet nur ein Benutzer, aber an vielen Rechnern in zentralen Einrichtungen ist eine Vielzahl von Benutzern zugelassen. Hochrechnungen schätzen die Zahl der Netzteilnehmer im Jahr 2000 auf etwa 500 Millionen. Das entspräche einem aller Wachstumseuphorie zum Trotz vergleichsweise geringen Anteil von 9% der Weltbevölkerung, weil sich auch im Bezug auf die Computervernetzung voraussichtlich bis zur Jahrtausendwende am Gefälle zwischen der Ersten und Zweiten gegenüber der Dritten Welt wenig ändern wird.

Die größte Dichte von Internetzugängen findet sich derzeit in Finnland, wo im Juli 1996 auf 24 Einwohner 1 Hostrechner kam. Deutschland, wo auf 179 Einwohner ein Internetrechner registriert ist, liegt damit noch deutlich hinter Ländern wie Australien, Schweden, Neuseeland und den Niederlanden zurück (Killen, 1996). Nach einer Zählung waren im Juli 1996 9.5 Millionen Hosts an das Internet angeschlossen. Davon standen 2.2 Millionen in Europa, 1.2 Millionen in Nordamerika, 360.000 in Australasien, 345.000 in Fernost, 49.000 in Afrika, und 40.000 in Südamerika. In Deutschland waren 576.000 ans Internet angeschlossene Rechner gemeldet. Weitere 5.2 Millionen Rechner waren aufgrund ihrer transnationalen Adresse (wie .net, .edu oder .com) nicht eindeutig einem Land zuzuordnen; aus historischen Gründen ist aber sicher, daß die überwiegende Zahl dieser Rechner in den Vereinigten Staaten beheimatet ist.

Mit der immer größeren Verbreitung beginnt das Internet sein bislang einer kleinen Minderheit vorbehaltenes Potential allmählich zu entfalten und dringt in immer weitere Bereiche der Öffentlichkeit, der Wirtschaft und der Politik ein. Auch die militärische Bedeutung eines dezentralen, störungsresistenten Netzes wurde 1990 beim erfolglosen Staatsstreich der Gorbatschow-Gegner in der Sowjetunion deutlich, als die Putschisten nicht verhindern konnten, daß ihre Pläne über die Computernetze bekannt und verbreitet wurden. Die studentische Demokratiebewegung in China bedient sich heute ebenfalls des Internets, um den staatlichen Zensoren zu entkommen. Dank des Netzes ist es auch in totalitären Staaten keiner Regierung mehr möglich, ihren Bürgern Informationen erfolgreich vorzuenthalten.

Seit Ende der 80er Jahre und verstärkt in den 90er Jahren hat eine teilweise engagiert geführte öffentliche Debatte um die Zukunft des Internets eingesetzt. Im Zuge der Entwicklung von einem kleinen militärischen und akademischen Experimentalnetz zur globalen und öffentlichen Ressource geraten zunehmend auch politische und wirtschaftliche Fragestellungen in den Mittelpunkt des Interesses. In den Vereinigten Staaten konzentriert sich die öffentliche Diskussion vor allem auf die Initiative von Al Gore, Vizepräsident der Clinton-Administration, eine "National Information Infrastructure (NII)" zu errichten. Dieses und verwandte Projekte sollen nicht nur die TCP/IP-Netzwerke umfassen, die heute das Internet ausmachen, sondern eine Reihe weiterer Medien wie das Telefonnetz und das TV-Kabelnetz integrieren. Al Gore ist der glühendste Verfechter eines Netzes, das Schulkindern den Zugriff auf die Library of Congress und Landärzten die Übertragung von Röntgenbildnern an städtische Gesundheitszentren ermöglichen soll.

Das aus dem NSFNET hervorgegangene Forschungs- und Bildungsnetz NREN (National Research and Education Network) soll deshalb nach einem 1993 in Kraft getretenen Gesetz seinerseits Keimzelle einer umfassenden nationalen Informationsinfrastruktur für die Vereinigten Staaten mit einer Vielzahl sozialer, institutioneller und ökonomischer Aufgabenstellungen werden. Anders als die durch die Wahl des Terminus "Datenautobahn" (information superhighway) suggerierte Analogie nahelegt, wird die Finanzierung des neuen amerikanischen Hochleistungsnetzes jedoch nicht durch die öffentliche Hand, sondern ausschließlich durch Privatunternehmen erfolgen. Die weitere Entwicklung des Netzes steht deshalb erstmals in seiner Geschichte im Mittelpunkt eines Spannungsfeldes von Interessengruppen aus der Politik, der Wirtschaft, der Wissenschaft und der Öffentlichkeit.

Einige der wichtigsten administrativen Funktionen bei der Verwaltung des Internets wurden von der NSF bereits 1993 an private Unternehmen vergeben: die Vergabe von Internet-Adressen (die die Möglichkeit eröffnet, als Türsteher zu agieren und genau festzulegen, welche Einrichtungen die Erlaubnis zur Nutzung des Netzes erhalten) sowie die Weiterentwicklung und Modernisierung der Informationsdienste, die den Internet-Benutzern zur Verfügung stehen. Hierzu wurden Verträge über mehrere Millionen Dollar mit Großunternehmen wie AT&T, MCI und IBM abgeschlossen. Von vielen Beobachtern wird dies als der Beginn eines wohlüberlegten Prozesses der Privatisierung einer Technologie gewertet, die ihren staatlichen Förderern allmählich über den Kopf zu wachsen droht. Die durch diese Privatisierung aufgeworfenen Schlüsselfragen über Zugang, Preis, Zensur und die Beseitigung von Mißständen werden in den nächsten Jahren ihre Antwort in der Praxis finden. Zu erwarten ist, daß die dabei getroffenen Regelungen und insbesondere die erwartete und in weiten Teilen noch ausstehende Gesetzgebung die politische und ökonomische Struktur des Netzes für die kommenden Jahrzehnte festlegen werden.

Nachdem die scheinbar glänzenden Aussichten auf neue Märkte und Gewinnmöglichkeiten einem Goldrausch ähnelnde Kommerzialisierungsbestrebungen im Netz ausgelöst hat, versuchen immer mehr Großunternehmen, Marktanteile im großen Geschäft um das Netz zu erobern. Von vielen Netzteilnehmern wird deshalb die ernsthafte Gefahr gesehen, daß ähnlich wie beim kommerziellen Fernsehen in den nächsten Jahren wenige Großunternehmen wie Microsoft und IBM das Netz unter sich aufteilen werden. Wie aber wird ein Netz aussehen, das vom Profitstreben großer Medien- und Telekommunikationsunternehmen dominiert wird? Wieviele Informationsangebote werden weiterhin kostenlos der Allgemeinheit zur Verfügung stehen, und welche Kosten werden für den Zugriff auf die wertvollen Ressourcen erhoben werden?

Trotz berechtigter Befürchtungen ist es durchaus möglich, daß sich die dezentrale, offene Architektur des Netzes als wirksames Bollwerk gegen die Hegemoniebestrebungen großer Netzanbieter erweisen wird. Denn obwohl die öffentliche Diskussion weiterhin von einer intensiven Regulierungsdebatte aufgund neuer Formen der Kriminalität und der Verbreitung von Pornographie gekennzeichnet ist, beginnen auch Fragen der Meinungsfreiheit, der Bildungs- und Berufschancen und die Bedeutung des freien Zugangs zu Informationen eine immer größere Rolle im öffentlichen Bewußtsein zu spielen.

Häufig werden dabei Schulen und Bibliotheken als die wichtigsten Institutionen angesehen, die allen Bürgern den Zugang zu den neuen Technologien eröffnen sollen, eine Hoffnung, die angesichts sinkender öffentlicher Haushalte allerdings wenig realistisch erscheint. Dennoch könnte das Internet in den kommenden Jahren eine wichtige öffentliche Instanz werden. Es ist vergleichsweise billig, relativ leicht zu nutzen, der Zugang kann nur schwer verhindert werden, und eine Zensur der Diskussion ist technisch nahezu unmöglich. Damit hat das Internet nicht nur das Potential, die informierte Öffentlichkeit herstellen, die für eine demokratische offene Gesellschaft unabdingbar ist (Popper, 1950); seine globale Natur bietet auch die Perspektive, den durch die zunehmende Internationalisierung erforderlichen intensiven länderübergreifenden Informationsaustausch auf wissenschaftlicher, kultureller und wirtschaftlicher Ebene zu gewährleisten.

Schon heute sind die Auswirkungen der zunehmenden Verbreitung des Internets auf den wissenschaftlichen Arbeitsprozeß und die Veröffentlichung von Forschungsergebnissen erheblich und werden in der nahen Zukunft noch stärker zunehmen. In zunehmendem Maße werden Buchprojekte, darunter das vorliegende, von Autoren in geographisch weit voneinander entfernten Städten geschrieben, ohne daß sie sich jemals physikalisch begegnen müßten. Die Unzufriedenheit vieler Wissenschaftler mit der Langsamkeit der konventionellen Publikationsprozedur, bei der oft ein oder sogar zwei Jahre zwischen der Fertigstellung einer Arbeit und ihrer Veröffentlichung vergehen, hat angesichts der neuen Möglichkeit elektronischer Publikationsverfahren zugenommen. Hinzu kommt, daß die Preise für den Druck von Büchern und vor allem von hochspezialisierten Fachzeitschriften in den letzten Jahren stark angestiegen sind. Der rasche Austausch von Ideen und Ergebnissen in forschungsintensiven Gebieten verlagert sich deshalb immer stärker auf das Netz. Viele Forscher reichen schon heute fertig gesetzte Manuskripte zum Druck ein und reduzieren dadurch die klassische Arbeit der Verlage auf ein Minimum. Das ehrenamtliche Review-System der Fachgutachter kommt ebenfalls weitgehend ohne die Beteiligung von Verlagen aus. Der Schritt zur ausschließlichen Publikation im Netz unter Umgehung der herkömmlichen Verlage liegt deshalb nahe und wird durch elektronische Zeitschriften bereits beschritten. Insbesondere der dadurch in Bälde technisch realisierbare Traum aller Forscher, mit fortgeschrittenen Suchwerkzeugen alle für eine Fragestellung relevanten Literaturstellen am eigenen Schreibtisch recherchieren zu können und auch in elektronischer Form binnen Sekunden verfügbar zu haben, wird ohne Zweifel einschneidende Auswirkungen auf das Verlags- und Bibliothekswesen haben und könnte das Publikationswesen grundlegend verändern. So hat die Library of Congress bereits ein Projekt gestartet, mit dem sie fast ihr gesamtes Material bis zum Jahr 2000 digital verfügbar machen will; zahlreiche Pilotprojekte zur digitalen Aufbereitung und Auslieferung von Veröffentlichungen und Dokumenten wurden auch in Europa gestartet. Die Möglichkeit von Copyrightverletzungen per Knopfdruck wirft dabei allerdings komplizierte Rechtsfragen auf, die noch einer befriedigenden Lösung harren und auf nationaler Ebene auch kaum zu lösen sein werden.

Welche anderen Entwicklungen wird die Zukunft des Netzes bringen? Bereits heute ist abzusehen, daß Videokonferenzen immer mehr zum Alltag gehören werden und teure und uneffektive Reisen verzichtbar machen. Auch die Heimarbeit wird eine immer größere Verbreitung finden. Verschlüsselungstechniken werden den heute noch sehr unsicheren Datentransport über das Netz sicherer machen und die Voraussetzung für in großem Umfang ablaufende finanzielle und geschäftliche Transaktionen über das Netz schaffen.

Staatliche Regulierungsversuche vor allem auf der hierfür denkbar wenig geeigneten nationalen Ebene sind in vielen Bereichen zu erwarten, wobei der Ausgang der Diskussion über die Gefahr der Kriminalität und Jugendgefährdung im Netz und die Abwägung solcher Gefahren gegen die Grundrechte auf Informations- und Meinungsfreiheit über Art und Umfang dieser Regulierung entscheiden werden.

Mit einer erstmals vergleichsweise geringen zeitlichen Verzögerung gegenüber vergleichbaren Projekten in den Vereinigten Staaten hat Forschungsminister Rüttgers im August 1996 1,9 Milliarden Mark für ein dreijähriges Programm zur Vernetzung der deutschen Bibliotheken zur Verfügung gestellt, mit dem Ziel, jedem Wissenschaftler und Techniker von seinem Bildschirm aus Zugang zu den weltweit vorhandenen elektronischen Informationen zu verschaffen. Es ist zu erwarten, daß der alte Menschheitstraum einer Weltbibliothek mit freiem Zugang von jedem beliebigen Ort aus zu Beginn des nächsten Jahrhundert erreicht werden kann.

Ohne Zweifel wird die parallel zum Ausbau des Netzes zunehmende Kommerzialisierung die Struktur des Internets, wie sie sich historisch entwickelt hat, in den nächsten Jahren in erheblichem Maße verändern. Der globale Durchbruch des Internets bietet auf vielen Gebieten große Chancen. Es besteht jedoch auch die Gefahr, im Spannungsfeld zwischen Politik, Wirtschaft und Wissenschaft die Wurzeln des Netzes aus den Augen zu verlieren. Das Internet in seiner heutigen Form wurde von engagierten Menschen aus vielen Ländern und Kontinenten errichtet, die den Glauben daran teilten, daß die Kommunikation in einem offenen Netz zwischen allen Teilnehmern ungehindert und über alle Grenzen hinweg stattfinden und vorhandene Informationen weltweit frei zur Verfügung stehen sollten. An diesen Idealen seiner Gründer sollte sich auch die weitere Entwicklung des Netzes orientieren.


Literatur

Abbate, J.E. (1994). From Arpanet to Internet: A History of ARPA-Sponsored Computer Networks, 1966-1988. Unveröffentlichte Dissertation, University of Pennsylvania.

Baran, P. (1964). On Distributed Communications. RAND Report Series, August 1964.

Cerf, V. (1989). Requiem for the ARPANET. ConneXions: The Interoperability Report (Special Issue: "The ARPANET is Twenty"), October: 27.

Dickson, P. (1968). ARPA network will represent integration on a large scale. Electronics, 30, 131-134.

Hardy, E.H. (1995). A Short History of the Net. [WWW Document]. URL http://www.ocean.ic.net/ftp/doc/snethistnew.html

Hauben, R. (1993). The Evolution of Usenet News: The Poor Man's Arpanet. [WWW Document] URL http://www.cs.columbia.edu/~hauben/netbook/ch.1_poorman_arpa.html

Hirsch, P. (1974). SITA: Rating a Packet-Switched Network. Datamation, April, 112-113.

Johnson, L. B. (1972). Statement of the President to the Cabinet on Strengthening the Academic Capability for Science Throughout the Nation. In J.L. Penick Jr., C.W. Pursell Jr., M.B. Sherwood, & D.C. Swain (Eds.), The Politics of American Science, 1939 to the Present. Cambridge: MIT Press.

Killen & Associates (1996). Internet: Global Penetration and Forecast 2000. [WWW Document]. URL http://www.killen.com/kwr/isz.htm

Licklider, J.C.R. (1960). Man-Computer Symbiosis. IRE Transactions on Human Factors in Electronics, 1 (1), 4-11.

Popper, K. (1950). The Open Society and its Enemies. Princeton, University Press.

Rheingold, H. (1994). Virtuelle Gemeinschaft. Bonn: Addison-Wesley.

Roberts, L. G. (1967). Multiple Computer Networks and Intercomputer Communication. ACM Symposium on Operating System Principles.

Salus, P. H. (1995). Casting the Net: from ARPANET to Internet and Beyond. Reading: Addison-Wesley.

Stallings, W. (1991). Data and Computer Communications. 3. Auflage. New York: MacMillan.