<< Vorher: Ära der Fragmentierung, Teil 4: Anarchisten
1990 veröffentlichte John Quaterman , Netzwerkberater und UNIX-Experte, einen umfassenden Überblick über den damaligen Stand der Computernetzwerke. In einem kleinen Abschnitt über die Zukunft des Rechnens prognostizierte er die Entstehung eines einzigen globalen Netzwerks für "E-Mail, Konferenzen, Dateiübertragung und Remote-Login - so wie es heute das weltweite Telefonnetz und die weltweite Post gibt". Dem Internet hat er jedoch keine besondere Rolle eingeräumt. Er schlug vor, dass dieses weltweite Netzwerk "wahrscheinlich von anderen staatlichen Kommunikationsdiensten als den Vereinigten Staaten betrieben wird", wo es von den regionalen Abteilungen von Bell Operating Companies und Fernverkehrsbetreibern betrieben wird.
Der Zweck dieses Artikels ist es zu erklären, wie das Internet mit seinem plötzlichen explosiven exponentiellen Wachstum vollkommen natürliche Annahmen so grob widerlegt hat.
Den Staffelstab übergeben
Das erste kritische Ereignis, das zur Entstehung des modernen Internets führte, ereignete sich in den frühen 1980er Jahren, als die Defense Communication Agency (DCA) [jetzt DISA] beschloss, das ARPANET in zwei Teile zu teilen. DCA übernahm 1975 die Kontrolle über das Netzwerk. Bis dahin war klar, dass es keinen Grund für die Abteilung Information Processing Technology (IPTO) von ARPA, einer theoretischen Forschungsorganisation, gab, sich an der Entwicklung eines Netzwerks zu beteiligen, das nicht für die Kommunikationsforschung, sondern für die alltägliche Kommunikation verwendet wurde. ARPA versuchte erfolglos, die Kontrolle über das Netzwerk von der privaten Firma AT & T zu übernehmen. Der für die militärische Kommunikation zuständige DCA schien die beste zweite Option zu sein.
In den ersten Jahren der neuen Situation blühte ARPANET in einer Art glückseliger Missachtung auf. In den frühen 1980er Jahren war die alternde Kommunikationsinfrastruktur des Verteidigungsministeriums jedoch dringend modernisierungsbedürftig. Das vorgeschlagene Ersatzprojekt AUTODIN II, für das DCA Western Union als Auftragnehmer ausgewählt hatte, schien gescheitert zu sein. Dann beauftragten die Leiter des DCA Oberst Heidi Hayden mit der Wahl der Alternative. Er schlug vor, die paketvermittelte Technologie, die DCA bereits in Form des ARPANET hatte, als Grundlage für ein neues Verteidigungsdatennetz zu verwenden.
Es gab jedoch ein offensichtliches Problem bei der Übertragung von Militärdaten über ARPANET - das Netzwerk war voll von langhaarigen Wissenschaftlern, von denen einige aktiv gegen Computersicherheit oder Geheimhaltung waren - zum BeispielRichard Stallmanmit anderen Hackern im MIT Artificial Intelligence Lab. Hayden schlug vor, das Netzwerk in zwei Teile aufzuteilen. Er beschloss, die ARPA-finanzierten Wissenschaftler im ARPANET zu belassen, während die in der Verteidigungsindustrie tätigen Computer einem neuen Netzwerk namens MILNET zugewiesen wurden. Diese Mitose hatte zwei wichtige Konsequenzen. Erstens war die Aufteilung der militärischen und nichtmilitärischen Teile des Netzwerks der erste Schritt zur Übertragung des Internets auf die zivile und anschließend auf die private Verwaltung. Zweitens war dies ein Beweis für die Realisierbarkeit einer fruchtbaren Internet-Technologie - der TCP / IP-Protokolle, die erstmals fünf Jahre zuvor erfunden wurden. DCA benötigte alle ARPANET-Knoten, um Anfang 1983 von Legacy-Protokollen auf TCP / IP zu migrieren. Zu dieser Zeit verwendeten nur wenige Netzwerke TCP / IP, aber nach diesem Prozess vereinigten sich die beiden Netzwerke des Proto-Internets.Ermöglichen, dass der Nachrichtenverkehr Forschungs- und Militärunternehmen nach Bedarf miteinander verbindet. Um die Langlebigkeit von TCP / IP in militärischen Netzwerken sicherzustellen, hat Hayden einen 20-Millionen-Dollar-Fonds eingerichtet, um Computerhersteller zu unterstützen, die Software zur Implementierung von TCP / IP auf ihren Systemen schreiben.
Der erste Schritt bei der schrittweisen Übertragung des Internets von der militärischen zur privaten Kontrolle bietet uns auch eine gute Gelegenheit, uns von ARPA und IPTO zu verabschieden. Seine Finanzierung und sein Einfluss, angeführt von Joseph Carl Robnett Licklider, Ivan Sutherland und Robert Taylor, führten direkt und indirekt zu allen frühen Entwicklungen im Bereich interaktives Computing und Computernetzwerke. Mit der Einführung des TCP / IP-Standards Mitte der 1970er Jahre spielte dieser jedoch zuletzt eine Schlüsselrolle in der Geschichte der Computer.
Das nächste große Computerprojekt, das von DARPA organisiert wird, ist der Autonomous Vehicle Competition 2004-2005. Das bekannteste Projekt davor wird eine Milliarden-Dollar-Initiative für strategische KI-Computer der 1980er Jahre sein, die mehrere nützliche militärische Anwendungen hervorbringen wird, die keine oder nur geringe Auswirkungen auf die Zivilgesellschaft haben.
Der Vietnamkrieg war ein entscheidender Katalysator für den Einflussverlust der Organisation.... Die meisten akademischen Forscher glaubten, für eine gerechte Sache zu kämpfen und die Demokratie zu verteidigen, als die Forschung des Kalten Krieges vom Militär finanziert wurde. Diejenigen, die in den 1950er und 1960er Jahren aufwuchsen, verloren jedoch das Vertrauen in das Militär und ihre Ziele, nachdem dieses im Sumpf des Vietnamkrieges festgefahren war. Zu den ersten gehörte Taylor selbst, der das IPTO 1969 verließ und seine Ideen und Verbindungen zu Xerox PARC aufnahm. Der demokratisch kontrollierte Kongress, besorgt über die verheerenden Auswirkungen von Kriegsgeldern auf die wissenschaftliche Grundlagenforschung, verabschiedete Änderungsanträge, wonach Verteidigungsgelder ausschließlich für militärische Forschung ausgegeben werden mussten. ARPA spiegelte diesen Wandel in der Finanzierungskultur 1972 wider, indem es sich in DARPA umbenannte, die Agentur für fortgeschrittene Verteidigungsforschungsprojekte des US-Verteidigungsministeriums .
Daher ging der Staffelstab an die zivile National Science Foundation (NSF) über. Bis 1980 war NSF mit einem Budget von 20 Millionen US-Dollar für die Finanzierung von etwa der Hälfte der Computerforschungsprogramme des Bundes in den Vereinigten Staaten verantwortlich. Und die meisten dieser Mittel werden bald an das neue nationale Computernetzwerk NSFNET gehen .
NSFNET
In den frühen 1980er Jahren besuchte Larry Smarr, ein Physiker an der Universität von Illinois, das Institut. Max Planck in München, wo der Cray-Supercomputer betrieben wurde, zu dem europäische Forscher Zugang hatten. Frustriert über den Mangel an ähnlichen Ressourcen für US-Wissenschaftler schlug er vor, dass NSF die Schaffung mehrerer Supercomputer-Zentren im ganzen Land finanziert. Die Organisation reagierte auf die Behauptungen von Smarr und anderen Forschern mit ähnlichen Beschwerden, indem sie 1984 eine Abteilung für fortgeschrittenes wissenschaftliches Rechnen einrichtete, die zur Finanzierung von fünf solchen Zentren mit einem Fünfjahresbudget von 42 Millionen US-Dollar führte. Sie erstrecken sich von der Cornell University im Nordosten des Landes bis nach San Diego im Südwesten. Dazwischen erhielt die University of Illinois, an der Smarr arbeitete, ein eigenes Zentrum, das National Center for Supercomputing Applications (NCSA).
Die Kapazität der Zentren zur Verbesserung des Zugangs zu Rechenleistung war jedoch begrenzt. Die Nutzung ihrer Computer wäre für Benutzer außerhalb eines der fünf Zentren schwierig und würde eine Finanzierung für semester- oder sommerlange wissenschaftliche Reisen erfordern. Daher beschloss NSF, auch ein Computernetzwerk aufzubauen. Die Geschichte wiederholte sich - Taylor drängte das ARPANET Ende der 1960er Jahre genau, um der Forschungsgemeinschaft Zugang zu leistungsfähiger Rechenleistung zu verschaffen. NSF wird ein Rückgrat bilden, das wichtige Supercomputer-Zentren auf dem gesamten Kontinent miteinander verbindet und dann regionale Netze miteinander verbindet, um anderen Universitäten und Forschungslabors Zugang zu diesen Zentren zu verschaffen. NSF wird die von Hayden beworbenen Internetprotokolle nutzen.Übertragung der Verantwortung für die Schaffung lokaler Netzwerke auf lokale wissenschaftliche Gemeinschaften.
NSF verwies zunächst auf die Aufgaben des Aufbaus und der Wartung des NCSA-Netzwerks der University of Illinois als Quelle des ursprünglichen Vorschlags für ein nationales Supercomputerprogramm. Im Gegenzug mietete NCSA die gleichen 56-kbit / s-Leitungen, die ARPANET seit 1969 verwendet hatte, und startete das Netzwerk 1986. Diese Leitungen wurden jedoch schnell durch den Datenverkehr verstopft (Details zu diesem Prozess finden Sie in David Mills ' The NSFNET BackboneUnd wieder wiederholte sich die Geschichte von ARPANET - es wurde schnell klar, dass die Hauptaufgabe des Netzwerks nicht der Zugang von Wissenschaftlern zur Computerleistung sein sollte, sondern der Austausch von Nachrichten zwischen Menschen, die Zugang dazu hatten. Sie können den Autoren von ARPANET verzeihen, dass sie das nicht wissen Dies könnte passieren - aber wie könnte der gleiche Fehler fast zwanzig Jahre später wiederholt werden? Eine mögliche Erklärung ist, dass es viel einfacher ist, einen siebenstelligen Zuschuss für die Nutzung von Rechenleistung zu rechtfertigen, dessen Kosten achtstellige Beträge betragen, als die Ausgaben für solche Beträge zu rechtfertigen Es kann nicht gesagt werden, dass die NSF absichtlich jemanden in die Irre geführt hat. Als anthropisches Prinzip behauptet sie jedoch, dass die physischen Konstanten des Universums das sind, was sie sind, weildass wir sonst einfach nicht existieren würden und wir sie nicht beobachten könnten, und ich müsste nicht über ein Computernetz mit staatlicher Finanzierung schreiben, wenn es keine ähnlichen, mehrere fiktive Ausreden für seine Existenz gäbe.
Nachdem sich NSF davon überzeugt hatte, dass das Netzwerk selbst mindestens so wertvoll war wie die Supercomputer, die seine Existenz rechtfertigen, wandte sich NSF an externe Hilfe, um das Backbone des Netzwerks mit T1-Leitungen (1,5 Mbit / s) aufzurüsten /von). Der T1-Standard wurde in den 1960er Jahren von AT & T gegründet und sollte bis zu 24 Telefonanrufe verarbeiten, von denen jedes in einem digitalen 64-kbit / s-Stream codiert war.
Der Auftrag wurde von Merit Network, Inc. gewonnen. in Partnerschaft mit MCI und IBM und erhielt in den ersten fünf Jahren von NSF einen Zuschuss in Höhe von 58 Mio. USD für den Aufbau und die Wartung des Netzwerks. MCI stellte die Kommunikationsinfrastruktur bereit, IBM stellte Rechenleistung und Software für Router bereit. Das gemeinnützige Unternehmen Merit, das das Computernetzwerk betrieb, das die Standorte der University of Michigan miteinander verband, brachte das Know-how für die Aufrechterhaltung eines wissenschaftlichen Computernetzwerks mit und gab der Partnerschaft einen Universitätsgeist, der es NSF und Wissenschaftlern, die NSFNET nutzen, leichter machte, es zu nutzen. Die Übergabe von NCSA an Merit war jedoch ein offensichtlicher erster Schritt in Richtung Privatisierung.
MERIT stand ursprünglich für Michigan Educational Research Information Triad. Der Bundesstaat Michigan fügte eigene 5 Millionen US-Dollar hinzu, um das Wachstum des T1-Heimnetzwerks zu fördern.
Mehr als ein Dutzend regionale Netzwerke gingen über das Merit-Backbone, von NYSERNet, einem New Yorker Forschungs- und Bildungsnetzwerk, das mit Ithaca mit der Cornell University verbunden ist, bis zu einem kalifornischen Forschungs- und Bildungsnetzwerk, CERFNet, das in San Diego verbunden ist. Jedes dieser regionalen Netzwerke war mit unzähligen lokalen Campus-Netzen verbunden, da Hunderte von Unix-Maschinen in Universitätslabors und Fakultätsbüros betrieben wurden. Dieses föderale Netzwerk von Netzwerken ist zum Keimkristall des modernen Internets geworden. ARPANET verband nur gut finanzierte Informatikforscher, die in wissenschaftlichen Eliteeinrichtungen arbeiten. Und bis 1990 konnte fast jeder Student oder Lehrer online gehen.Durch die Übertragung von Paketen von Knoten zu Knoten - über das lokale Ethernet, dann weiter in das regionale Netzwerk und dann über große Entfernungen mit Lichtgeschwindigkeit entlang des NSFNET-Backbones - konnten sie E-Mails austauschen oder gelegentlich mit Kollegen aus anderen Teilen des Landes im Usenet chatten.
Nachdem über NSFNET viel mehr wissenschaftliche Organisationen als über ARPANET verfügbar wurden, stellte DCA 1990 das bestehende Netzwerk außer Betrieb und beseitigte das Verteidigungsministerium vollständig von der Entwicklung ziviler Netzwerke.
Ausziehen, starten, abheben, losfahren
Während dieses gesamten Zeitraums hat sich die Anzahl der mit NSFNET verbundenen Computer und der damit verbundenen Netzwerke - und wir können dies alles als Internet bezeichnen - jedes Jahr ungefähr verdoppelt. 28.000 im Dezember 1987, 56.000 im Oktober 1988, 159.000 im Oktober 1989 und so weiter. Dieser Trend setzte sich bis Mitte der neunziger Jahre fort, und dann verlangsamte sich das Wachstum leicht . Wie, frage ich mich, hätte Quaterman angesichts dieses Trends möglicherweise nicht bemerkt, dass das Internet dazu bestimmt ist, die Welt zu regieren? Wenn uns die jüngste Epidemie etwas gelehrt hat, ist es für einen Menschen sehr schwierig, sich ein exponentielles Wachstum vorzustellen, da es nichts entspricht, was uns im Alltag begegnet.
Natürlich sind der Name und das Konzept des Internets älter als NSFNET. Das Internetprotokoll wurde 1974 erfunden, und noch vor NSFNET gab es Netzwerke, die über IP kommunizierten. Wir haben bereits ARPANET und MILNET erwähnt. Vor dem Aufkommen des dreistufigen NSFNET konnte ich jedoch keine Erwähnung des "Internets" finden - eines einzigen weltweiten Netzwerks von Netzwerken.
Die Anzahl der Netze im Internet wuchs ähnlich schnell - von 170 im Juli 1988 auf 3.500 im Herbst 1991. Da die wissenschaftliche Gemeinschaft keine Grenzen kennt, befanden sich viele von ihnen im Ausland, beginnend mit den 1988 eingerichteten Verbindungen zu Frankreich und Kanada. Bis 1995 konnte auf das Internet aus fast 100 Ländern zugegriffen werden, von Algerien bis Vietnam. Und obwohl die Anzahl der Maschinen und Netzwerke viel einfacher zu berechnen ist als die Anzahl der realen Benutzer, gab es nach vernünftigen Schätzungen Ende 1994 10 bis 20 Millionen. Da keine detaillierten Daten darüber vorliegen, wer, warum und wann das Internet genutzt wird, ist dies ziemlich schwierig oder eine andere historische Erklärung für solch ein unglaubliches Wachstum. Eine kleine Sammlung von Geschichten und Anekdoten kann kaum erklären, wie 350.000 Computer von Januar 1991 bis Januar 1992 mit dem Internet verbunden waren und 600.000 im nächsten Jahr.und für die nächsten - weitere 1,1 Millionen.
Ich wage es jedoch, dieses epistemisch wackelige Gebiet zu betreten und zu behaupten, dass die drei überlappenden Wellen von Benutzern mit jeweils eigenen Gründen für die Verbindung, die für das explosive Wachstum des Internets verantwortlich sind, durch die unaufhaltsame Logik des Metcalfe-Gesetzes verursacht wurden , die besagt: dass der Wert (und damit die Anziehungskraft) des Netzwerks mit dem Quadrat der Anzahl seiner Teilnehmer zunimmt.
Wissenschaftler standen an erster Stelle. NSF hat das Computing bewusst auf möglichst viele Universitäten verteilt. Danach wollte sich jeder Wissenschaftler dem Projekt anschließen, weil alle anderen schon da waren. Wenn Sie möglicherweise keine E-Mails erhalten haben, wenn Sie die letzten Diskussionen im Usenet nicht gesehen und daran teilgenommen haben, riskierten Sie, eine wichtige Konferenzankündigung zu verpassen, einen Mentor zu finden, die neuesten Forschungsergebnisse nicht zu bemerken, bevor sie veröffentlicht wurden, und so weiter. Die Universitäten fühlten sich gezwungen, an wissenschaftlichen Online-Gesprächen teilzunehmen, und stellten schnell eine Verbindung zu regionalen Netzen her, die sie mit dem NSFNET-Backbone verbinden konnten. Zum Beispiel hatte NEARNET, das sechs Bundesstaaten in der Region New England abdeckte, Anfang der neunziger Jahre über 200 Mitglieder.
Zur gleichen Zeit begann der Zugang von Fakultäts- und Doktoranden zu einer viel größeren Studentengemeinschaft zu gelangen. Bis 1993 hatten ungefähr 70% der Harvard-Neulinge eine E-Mail-Adresse. Zu diesem Zeitpunkt hatte das Internet in Harvard physisch jede Ecke und die damit verbundenen Institutionen erreicht. Die Universität hat erhebliche Kosten aufgewendet , um Ethernet nicht nur in jedes Gebäude der Bildungseinrichtung, sondern in alle Studentenwohnheime zu bringen. Sicherlich blieb nur sehr wenig Zeit, bis einer der Studenten nach einer stürmischen Nacht als erster in sein Zimmer stürmte, auf einen Stuhl fiel und mühsam eine E-Mail abhörte, die er am nächsten Morgen bedauerte - sei es eine Liebeserklärung oder eine gewalttätige Zurechtweisung der Feind.
Auf der nächsten Welle, um 1990, kamen kommerzielle Nutzer. In diesem Jahr wurden 1.151 .com-Domains registriert. Die ersten kommerziellen Teilnehmer waren Forschungsabteilungen von Technologieunternehmen (Bell Labs, Xerox, IBM usw.). Sie nutzten das Internet im Wesentlichen für wissenschaftliche Zwecke. Die Geschäftskommunikation zwischen ihren Führungskräften erfolgte über andere Netzwerke. Bis 1994 gab es jedoch über 60.000 .com-Domainnamen, und das Geldverdienen im Internet begann wirklich.
In den späten 1980er Jahren wurden Computer zu einem Teil der täglichen Arbeit und des Privatlebens der US-Bürger, und die Bedeutung einer digitalen Präsenz für jedes ernsthafte Unternehmen wurde deutlich. E-Mail bot eine Möglichkeit, Nachrichten einfach und extrem schnell mit Kollegen, Kunden und Lieferanten auszutauschen. Mailinglisten und das Usenet boten sowohl neue Möglichkeiten, sich über die Entwicklungen in der Fachwelt auf dem Laufenden zu halten, als auch neue Formen sehr billiger Werbung für eine breite Palette von Nutzern. Über das Internet kann auf eine Vielzahl kostenloser Datenbanken - rechtliche, medizinische, finanzielle und politische - zugegriffen werden. Die Studenten von gestern, die in vernetzten Schlafsälen arbeiteten, verliebten sich ebenso in das Internet wie ihre Arbeitgeber. Es bot Zugang zu einer viel größeren Gruppe von Benutzern,als jede der einzelnen kommerziellen Dienstleistungen (und wieder Metcalfe's Gesetz). Nachdem Sie einen Monat lang für den Internetzugang bezahlt haben, können Sie fast alles andere kostenlos erhalten, im Gegensatz zu den erheblichen Kosten für die Zahlung der verwendeten Stunden oder für gesendete Nachrichten, die CompuServe und andere ähnliche Dienste verlangten. Zu den frühen Marktteilnehmern im Internet gehörten Versandhändler wie The Corner Store in Litchfield, Connecticut, die in Usenet-Gruppen beworben wurden, und The Online Bookstore, ein E-Book-Shop, der von einem ehemaligen Redakteur bei Little, Brown and Company gegründet wurde, und mehr als zehn Jahre vor dem Kindle.im Gegensatz zu den erheblichen Kosten für die Abrechnung der verwendeten Stunden oder der gesendeten Nachrichten, die CompuServe und andere ähnliche Dienste angefordert haben. Zu den frühen Marktteilnehmern im Internet gehörten Versandhändler wie The Corner Store in Litchfield, Connecticut, die in Usenet-Gruppen beworben wurden, und The Online Bookstore, ein E-Book-Shop, der von einem ehemaligen Redakteur bei Little, Brown and Company gegründet wurde, und mehr als zehn Jahre vor dem Kindle.im Gegensatz zu den erheblichen Kosten für die Abrechnung der verwendeten Stunden oder der gesendeten Nachrichten, die CompuServe und andere ähnliche Dienste angefordert haben. Zu den frühen Marktteilnehmern im Internet gehörten Versandhändler wie The Corner Store in Litchfield, Connecticut, die in Usenet-Gruppen beworben wurden, und The Online Bookstore, ein E-Book-Shop, der von einem ehemaligen Redakteur bei Little, Brown and Company gegründet wurde, und mehr als zehn Jahre vor dem Kindle.Brown and Company und ist dem Kindle mehr als ein Jahrzehnt voraus.Brown and Company und ist dem Kindle mehr als ein Jahrzehnt voraus.
Und dann kam die dritte Wachstumswelle, die normale Verbraucher anzog, die Mitte der neunziger Jahre in großer Zahl im Internet surften. Zu diesem Zeitpunkt war Metcalfe's Law bereits in vollem Gange. Zunehmend bedeutete „online sein“ „im Internet sein“. Verbraucher konnten es sich nicht leisten, Mietleitungen der T1-Klasse nach Hause zu verlängern, weshalb sie fast immer über ein DFÜ-Modem online gingen... Wir haben bereits einen Teil dieser Geschichte gesehen, als sich kommerzielle BBS allmählich zu Internetanbietern entwickelten. Diese Änderung hat sowohl den Benutzern (deren digitaler Pool plötzlich zum Meer gewachsen ist) als auch dem BBS selbst zugute gekommen, die in das viel einfachere Geschäft der Vermittlung zwischen dem Telefonsystem und dem T1-Internet-Backbone eingetreten sind, ohne ihre eigenen Dienste warten zu müssen.
Größere Online-Dienste haben sich in die gleiche Richtung entwickelt. Bis 1993 boten alle landesweiten Dienste in den USA - Prodigy, CompuServe, GEnie und das junge America Online (AOL) - insgesamt 3,5 Millionen Nutzern die Möglichkeit, E-Mails an Internetadressen zu senden. Nur das rückständige Delphi (mit 100.000 Abonnenten) bot vollen Internetzugang. In den nächsten Jahren überwog jedoch der Wert des Internetzugangs, der weiterhin exponentiell zunahm, schnell den Zugang zu eigenen Foren, Spielen, Geschäften und anderen Inhalten aus den kommerziellen Diensten selbst. 1996 war ein Wendepunkt - bis Oktober nutzten 73% der Benutzer, die online gingen, das WWW, gegenüber 21% im Vorjahr. Ein neuer Begriff "Portal" wurde geprägt, um die rudimentären Überreste der von AOL erbrachten Dienstleistungen zu beschreiben.Prodigy und der Rest der Unternehmen, für die die Leute Geld bezahlt haben, nur um online zu gehen.
Geheimzutat
Wir haben ungefähr erfahren, wie das Internet so explosionsartig gewachsen ist, aber wir haben nicht genug verstanden, warum dies passiert ist. Warum wurde es bei einer Vielzahl anderer Dienste, die in der vorangegangenen Ära der Fragmentierung zu wachsen versuchten, so dominant ?
Natürlich haben staatliche Subventionen eine Rolle gespielt. Abgesehen von der Finanzierung der Backbone-Kommunikation war NSF nicht unerheblich, als sie sich entschied, unabhängig von ihrem Supercomputer-Entwicklungsprogramm ernsthaft in die Netzwerkentwicklung zu investieren. Die konzeptionellen Leiter des NSFNET-Programms, Steve Wolfe und Jane Cavines, beschlossen, nicht nur ein Netzwerk von Supercomputern, sondern auch eine neue Informationsinfrastruktur für amerikanische Hochschulen und Universitäten aufzubauen. Deshalb haben sie das Connections-Programm ins Leben gerufen, das einen Teil der Kosten für den Anschluss von Universitäten an das Netzwerk übernahm, um möglichst vielen Menschen das Netzwerk an ihren Standorten zur Verfügung zu stellen. Dies hat die Verbreitung des Internets sowohl direkt als auch indirekt beschleunigt. Indirekt - da viele der regionalen Netze Handelsunternehmen mit derselben Infrastruktur hervorgebracht haben,aufgebaut auf einer Subvention zum Verkauf des Internetzugangs an kommerzielle Organisationen.
Aber Minitel hatte auch Subventionen. Vor allem aber zeichnete sich das Internet durch seine mehrschichtige dezentrale Struktur und seine inhärente Flexibilität aus. IP ermöglichte es Netzwerken mit sehr unterschiedlichen physikalischen Eigenschaften, mit demselben Adressierungssystem zu arbeiten, während TCP sicherstellte, dass Pakete an ihr Ziel geliefert wurden. Und alle. Die Einfachheit des Grundschemas des Netzwerks ermöglichte es, fast jede Anwendung darauf aufzubauen. Wichtig ist, dass jeder Benutzer einen Beitrag in Form neuer Funktionen leisten kann, wenn er andere davon überzeugen kann, sein Programm zu verwenden. Zum Beispiel war die Übertragung von FTP-Dateien in den Anfangsjahren eine der beliebtesten Möglichkeiten, das Internet zu nutzen, aber es war unmöglich, Server zu finden, die andere interessante Dateien als Mundpropaganda anbieten.Daher haben unternehmungslustige Benutzer verschiedene Protokolle zum Katalogisieren und Verwalten von Listen von FTP-Servern erstellt - zum Beispiel Gopher, Archie und Veronica.
Theoretisch hatte das OSI-Netzwerkmodell die gleiche Flexibilität sowie den offiziellen Segen internationaler Organisationen und Telekommunikationsriesen als Verbindungsstandard. In der Praxis wurde das Feld jedoch TCP / IP überlassen, und sein entscheidender Vorteil war der Code, der zuerst auf Tausenden und dann auf Millionen von Computern ausgeführt wird.
Die Übertragung der Steuerung der Anwendungsschicht auf die äußersten Ränder des Netzwerks hatte andere wichtige Konsequenzen. Dies bedeutete, dass große Unternehmen, die daran gewöhnt waren, ihr eigenes Feld zu verwalten, sich wohl fühlen konnten. Unternehmen können ihre eigenen E-Mail-Server einrichten und E-Mails senden und empfangen, ohne dass der gesamte Inhalt auf dem Computer eines anderen gespeichert wird. Sie konnten ihre eigenen Domain-Namen registrieren, ihre eigenen Websites mit Zugang für alle einrichten, die online gingen, sie jedoch vollständig unter ihrer Kontrolle ließen.
Das auffälligste Beispiel für mehrschichtige Struktur und Dezentralisierung ist natürlich das World Wide Web. Zwei Jahrzehnte lang drehten sich Systeme, die von Time-Sharing-Computern der 1960er Jahre bis zu Diensten wie CompuServe und Minitel reichten, um eine kleine Reihe grundlegender Dienste zum Informationsaustausch - E-Mail, Foren und Chatrooms. Das Web ist etwas grundlegend Neues geworden. Die Anfänge des Web, als es ausschließlich aus einzigartigen, handgefertigten Seiten bestand, sind nichts anderes als sein aktueller Zustand. Das Wechseln von Link zu Link hatte jedoch schon damals einen seltsamen Reiz und gab Unternehmen die Möglichkeit, extrem billige Werbung und Kundenbetreuung anzubieten. Keiner der Architekten des Internets hat für das Web geplant. Es war das Ergebnis der Kreativität von Tim Berners-Lee, britischer Ingenieur am Europäischen Zentrum für Kernforschung (CERN).der es 1990 zum Zweck der bequemen Verbreitung von Informationen unter Laborforschern geschaffen hat. Er lebte jedoch leicht von TCP / IP und verwendete ein Domainnamensystem, das für andere Zwecke für allgegenwärtige URLs erstellt wurde. Jeder mit Internetzugang konnte eine Website erstellen, und Mitte der 90er Jahre schien dies jeder getan zu haben - Rathäuser, lokale Zeitungen, kleine Unternehmen und Amateure aller Art.
Privatisierung
In dieser Geschichte über den Aufstieg des Internets habe ich einige wichtige Ereignisse ausgelassen, und Sie haben möglicherweise noch einige Fragen offen. Wie genau haben Unternehmen und Verbraucher beispielsweise Zugang zum Internet erhalten, das ursprünglich auf NSFNET ausgerichtet war, einem von der US-Regierung finanzierten Netzwerk, das angeblich der Forschungsgemeinschaft dienen soll? Um diese Frage zu beantworten, werden wir im nächsten Artikel auf einige wichtige Ereignisse zurückkommen, die ich noch nicht erwähnt habe. Ereignisse, die das staatliche wissenschaftliche Internet allmählich, aber unweigerlich in ein privates und kommerzielles verwandelten.
Was noch zu lesen
- Janet Abatte, Das Internet erfinden (1999)
- Karen D. Fraser „NSFNET: Eine Partnerschaft für Hochgeschwindigkeitsnetzwerke, Abschlussbericht“ (1996)
- John S. Quarterman, Die Matrix (1990)
- Peter H. Salus, Casting the Net (1995)