12.04.2001

Wie das Unvorhersehbare gesteuert wurde

zurück

Wie das Unvorhersehbare gesteuert wurde

Von ARMAND MATTELART *

Schon 1970 hat der amerikanische Präsident Richard Nixon die Weichen für eine Umwälzung des organisatorischen Ablaufs von Regierungsentscheidungen im Bereich der Kabel-, Informations- und Satellitentechnologien gestellt. Eine dem Weißen Haus angeschlossene Koordinierungsstelle, das Office of Telecommunications Policy (OTP), wurde geschaffen und seine Leitung einem Experten anvertraut, der von der Rand Corporation kam. Es ging, so die Devise, um die Anwendung der Elektronik auf die „gesellschaftlichen Belange“. Diese Zielrichtung regte ein Jahr später das Projekt eines Systems nationaler Netze an, das die Nasa in einem Bericht mit dem bezeichnenden Titel „Communications for Social Needs. Technological Opportunities“ vorstellte und im Vorwort so begründete: „In den Vereinigten Staaten tritt immer deutlicher zutage, dass es eine Reihe nationaler Probleme gibt, die durch die Mittel der Telekommunikation gelöst werden könnten.“ Ganz oben auf der Prioritätenliste standen das Bildungs- und Gesundheitswesen, das Justizsystem und die Dienstleistungen der Post.

Der vorsorgende Vater Staat erstrahlte damals noch in seinem vollen Glanz. Es ist also nur logisch, dass der Nasa-Bericht die ungleiche Schulbildung betont, unter der besonders die Kinder ethnischer Minderheiten zu leiden haben. Das neue System des Fernunterrichts sollte „Haltungen begründen, die das Heranwachsen eines flexiblen Bürgers fördern, der, wie viele es schon ahnen, eben der Bürger ist, den das 21. Jahrhundert brauchen wird“. Die in Aussicht gestellten Verheißungen lagen auf derselben Linie: „Im Jahr 2000 wird die Trennlinie zwischen Elternhaus und Schule weitgehend verschwunden sein . . . Die Schulgebäude müssten dann nur noch als Zentralen dienen, Verteiler von elektronisch übermittelten Lernprogrammen, Gemeinschafts- oder Sportzentren, Übungsstätten für die Praxis und Orte der künstlerischen Erfahrung.“ Sagten damals nicht auch die großen Telekommunikationsfirmen voraus, die Fernarbeit werde das Los von mehr als dreiviertel der erwerbstätigen Bevölkerung sein?

Die Diskussion über das strategische Vorgehen beim Aufbau der Informationsgesellschaft hat sich erst nach einem langen pragmatischen Hin und Her entschieden, das über mehr als zehn Jahre andauerte. 1969 versuchte der demokratische Präsident Lyndon B. Johnson mit allen juristischen Mitteln, die gegen den freien Wettbewerb gerichteten Praktiken von IBM zu unterbinden (das dreiviertel des US-amerikanischen Computermarkts kontrollierte). 1974 veranlasste der Nixon-Nachfolger Gerald Ford ein Antitrustverfahren gegen einen anderen Riesen, der das Fernmeldewesen beherrschte: American Telegraph and Telephone (AT&T). Kurz darauf schaffte die Carter-Administration das Office of Telecommunications Policy (OTP) wieder ab und ersetzte es durch eine dem Handelsministerium unterstellte Behörde, die National Telecommunications and Information Administration (NTIA). Grund für diese Verschiebung war ein neuer Regulierungsmodus für das gesamte Kommunikationssystem.

Der neue Communication Act räumte in der Tat mit sämtlichen Spielregeln auf, die in den Gründungsstatuten von 1934 definiert worden waren. Dahinter stand der Gedanke, dem „naturwüchsigen“ Monopol von AT&T ein Ende zu setzen und zugleich die Philosophie zu zerschlagen, durch die es legitimiert wurde – insbesondere die Idee, das öffentliche Interesse erfordere ein einziges Netz unter der Kontrolle eines öffentlichen Regulierungsorgans, der Federal Communications Commission (FCC). Diese Maßnahme, die den Kompetenzbereich der staatlichen Aufsicht über das Fernmeldewesen einschränkte, hat Ähnlichkeit mit einer anderen, die ebenfalls unter der Präsidentschaft von Jimmy Carter beschlossen wurde und einen allmählichen Rückzug der öffentlichen Hand aus den Bereichen der zivilen Luftfahrt und der Landtransporte vorsah.

Die Antitrustverfahren gegen die Giganten des Fernmeldewesens und der Informatik kamen im Januar 1982 unter der Präsidentschaft von Ronald Reagan zu ihrem Abschluss. AT&T musste sich damals von dreiundzwanzig Tochterunternehmen trennen, und zwar von den Betreibern der lokalen Telefondienste. Das Verfahren gegen IBM dagegen wurde eingestellt. Die neue republikanische Administration ließ dreizehn Jahre gerichtliche Verfolgung plötzlich unter den Tisch fallen und schwang sich zum Verteidiger des Multis auf, dem die damalige Europäische Gemeinschaft Missbrauch seiner Vormachtstellung (65 Prozent aller EDV-Großanlagen waren von IBM) vorwarf. Dank einiger Konzessionen wurde IBM dann zwei Jahre später auch in Brüssel von jedem Verdacht reingewaschen.

Die Liberalisierung des gesamten Kommunikationssystems der USA unter der Präsidentschaft von Ronald Reagan erfolgte zeitgleich mit einer machtvollen Rückkehr des Verteidigungsministeriums zur technologischen Innovation: der Strategic Defense Initiative (SDI), auch „Krieg der Sterne“ genannt. Dieses Projekt, das am 23. März 1983 lanciert wurde, zielte auf die Konstruktion eines satellitengestützten Raketenabwehrsystems, das in der Lage sein sollte, gegnerische Angriffe in der Luft abzufangen. Das Programm eines derartigen globalen elektronischen Schutzschildes, ein Sciencefiction-Traum, konnte als solches nicht verwirklicht werden. Es wurde auf Eis gelegt – und kam erst im Jahr 2000 wieder zur Sprache.

Aber der Investitionssegen trug dazu bei, die militärische Anwendung der künstlichen Intelligenz voranzutreiben. Im Gefolge der SDI wurde die Strategic Computing Initiative ins Leben gerufen. Die Japaner hatten gerade ihr Computerprogramm der fünften Generation angekündigt. Die Amerikaner konterten, indem sie der DARPA (Defense Advance Research Projects Agency) die vermittelnde Rolle zuwiesen, die in Japan das Superministerium der Industrie innehat. Die in diesem Rahmen entwickelten Befehls-, Kontroll-, Kommunikations- und Nachrichtensysteme wurden 1991 im Zuge des Golfkriegs getestet.

Die Berufung auf die „Informationsgesellschaft“ hat sich still und leise in den internationalen Institutionen durchgesetzt. 1975 wurde der Begriff erstmals von der Organisation für Wirtschaftliche Zusammenarbeit und Entwicklung (OECD) gebraucht, in der damals die vierundzwanzig reichsten Länder vertreten waren und die schleunigst den Sachverstand zahlreicher amerikanischer Experten hinzuzog. Vier Jahre später übernahm der Ministerrat der Europäischen Gemeinschaft den Begriff und machte ihn zum Leitmotiv eines auf fünf Jahre angelegten Versuchsprogramms, Forecasting and Assessment in the Field of Science and Technology (Fast). Eine Abteilung der Unctad zur Untersuchung der transnationalen Gesellschaften beschäftigt sich eingehend mit dem Ungleichgewicht der grenzüberschreitenden Datenflüsse. Die von Washington vertretene These einer freien Entwicklung „ohne Vorbehalt und ohne Zwänge“ ist dort alles andere als unangefochten. Sowohl die Internationale Arbeitsorganisation (ILO) als auch die Gewerkschaftsverbände meldeten Besorgnis über die Auswirkungen der Computerisierung am Arbeitsplatz an.

1980 verabschiedete der Europarat nach vierjähriger Vorbereitung eine „Konvention zum Schutz der Persönlichkeit gegen die automatisierte Verarbeitung persönlicher Daten“. Eine zwingende, allgemein gültige Vorschrift. Die wesentliche Neuerung bestand darin, dass in Artikel 1 festgeschrieben wurde, jedermann, „ungeachtet seiner Nationalität oder seines Wohnsitzes“, könne die angeführten Garantien und Rechte für sich in Anspruch nehmen. Im gleichen Jahr gab auch die OECD eine ähnlich lautende Empfehlung zum „grenzüberschreitenden Fluss persönlicher Daten“ heraus. Nur wurde darin klargestellt, dass sie für die Mitgliedstaaten nicht bindend war. Beide Schriftstücke enthielten jedoch eine Aufforderung an die einzelnen Staaten, keine Richtlinien zu erlassen, die unter dem Vorwand, das Privatleben zu schützen, den freien Umlauf persönlicher Daten behindern könnten.

Fast zwanzig Jahre später sollte die offensichtliche Zweischneidigkeit dieser Klausel den amerikanisch-europäischen Streit wieder aufflammen lassen. Den Anlass lieferte das Inkrafttreten der EU-Weisung zum Schutz personenbezogener Daten. Die amerikanischen Behörden und die global marketeers sahen darin ein Hindernis für die Einrichtung von Datenbanken und die Anfertigung gezielter, „aufzeichnungsfähiger“ Profile, unerlässliche Hilfsmittel der elektronischen Vermarktung.

Bereits im Jahr 1979 hatten zwei sehr unterschiedlich ausgerichtete Ereignisse einen Vorgeschmack auf die Komplexität der Probleme gegeben, die mit der Durchsetzung der neuen Technologien einhergehen: die Weltfunkkonferenz (WARC) und das Projekt Interfutures der OECD. Die erste brachte die Frage der Neuverteilung der Frequenzen – seit Anfang des Jahrhunderts ein Monopol der großen Seemächte – wieder auf den Tisch. Organisiert von der Internationalen Fernmeldeunion (ITU), kündigte sie eine Verschiebung der Diskussion über die zukünftige Gesellschaft an: Vorrang gewinnen die technologischen Vorreiterorganisationen auf Kosten von Institutionen mit kulturellem Auftrag wie etwa der Unesco. Die Interfutures hatte sich die Untersuchung der „künftigen Entwicklung der fortgeschrittenen Industriegesellschaften in Einklang mit den Ländern der Dritten Welt“ zum Ziel gesetzt und fragte sich nach dem „entscheidenden qualitativen Sprung“, den die Mikroelektronik unter diesem Gesichtspunkt bedeutet. Die Unsicherheiten, die den Weg zur Informationsgesellschaft pflastern, werden im Untertitel angesprochen: „Kommende Zeiten: für eine Beherrschung des Wahrscheinlichen und eine Steuerung des Unvorhersehbaren“.

Die Jahre 1984/85 bilden einen Wendepunkt. Einerseits öffnet sich der Weltmarkt unbeschränkten Kapitalbewegungen. Die Verwirrung der Finanzsphäre lässt ein erstes grandioses Bild von den Netzen der globalen Ökonomie erkennen, während zugleich die Krisengefahr mangels überstaatlicher Regulierungsmechanismen am Horizont aufzieht. Andererseits löst die mit dem 1. Januar 1984 wirksame Zerschlagung des AT&T-Imperiums eine weltweite Schockwelle aus, die das Tempo der Liberalisierung des Fernmeldewesens vor dem Hintergrund der technologischen Veränderung (Digitalisierung, Hochleistungsnetze, Optoelektronik, Erhöhung der Speicherkapazitäten und Kostensenkung) rasant beschleunigt.

In Großbritannien prescht die neoliberale Thatcher-Regierung mit der Privatisierung von British Telecom schon im Jahr 1984 vor. Unter dem Zwang, sich dem Gesetz des Wettbewerbs zu beugen, änderten die öffentlichen Fernmeldedienste ihre Statute schrittweise so, dass sie außerhalb ihrer Grenzen operieren konnten. Mit dem Inkrafttreten des im Rahmen der Welthandelsorganisation (WTO) von 68 Regierungen geschlossenen Abkommens zur Liberalisierung der Telekommunikationsmärkte im Januar 1998 wurde diese Entwicklung irreversibel. Doch abgesehen von der Tatsache, dass sich einige Unterzeichnerländer (etwa Brasilien, Kanada oder Japan) das Recht vorbehalten wollten, den Investitionen ausländischer Firmen im nationalen Kommunikationssystem eine feste Beschränkung aufzuerlegen, hatten im Jahr 2000 mehr als die Hälfte der 135 WTO-Mitglieder das Abkommen noch nicht unterzeichnet.

Der Übergang zum Wettbewerb wirkt sich auf den gesamten Kommunikationssektor aus. Eine regelrechte Schlacht bricht los, jeder will zu den wenigen globalen Anbietern von Telekommunikationsdiensten (Telefon, Datenübermittlung etc.) gehören, die über ein so genanntes Nahtlosnetz verfügen. Kompetenzbereiche dehnen sich immer weiter aus. Fusionen, Aufkäufe und gemischte Anteilserwerbungen verquicken die Produktion der Inhalte zunehmend mit ihrer Übermittlung. Es folgte eine Auktion auf die andere, der Konzentrationsprozess galoppierte, die Technologien verschmolzen so rasch, dass es müßig wäre, die einzelnen Börsengroßtransaktionen im Einzelnen aufzuzählen.

Paradebeispiel solcher Zwillingswirtschaft, bei der sich die Netze der „New Economie“ mit denen der „Realökonomie“ verbinden, ist die Übernahme der weltweiten Nr. 1 der Multimedia-Gruppen, Time-Warner-CNN, durch America Online, den weltweit ersten Anbieter von Internetzugängen. Die Ambition der AOL prangt auf den Wänden ihres Hauptsitzes: „AOL everywhere, for everyone“.2 Allgegenwärtig will sie sein, von der Produktion der Inhalte bis zu ihrer Verbreitung, auf allen Trägern und in allen Leitungen, die es gibt und die da kommen werden. Dieser Megafusion entsprach einige Monate später eine andere, die vom „nationalen Spitzenreiter“ Frankreichs ausging: Vivendi-Universal verband sich mit Canal plus.3

dt. Grete Osterwald

*  Professor an der Universität Paris VIII. Der hier abgedruckte Text ist ein Auszug aus seinem soeben erschienenen Buch „Histoire de la société de l’information“, Paris (La Découverte) 2001.

Fußnoten: 1 Siehe dazu Armand Mattelart, „Kybernetik und die Folgen. Wie der Internet-Mythos entstand“, Le Monde diplomatique, September 2000. 2 Zur Fusion AOL/Time-Warner siehe Dan Schiller, „Die Spinne hockt im Web“, Le Monde diplomatique, Februar 2000. 3 Siehe dazu „Vivendi schluckt Universal“, Le Monde diplomatique, Januar 2001.

Le Monde diplomatique vom 12.04.2001, von ARMAND MATTELART