Artikel drucken zurück

Herr Automat

Callcenter und andere Zumutungen von Jean-Noël Lafargue

Es ist leicht, zwischen die automatischen Türen am Eingang der Pariser Metrostationen zu geraten. Eine kleine Unaufmerksamkeit, eine falsche Bewegung, ein zu großer Rucksack, ein Kind an der Hand, das nicht so schnell mitkommt – und schon quetscht einem die Gummizange der schließenden Tür die Schultern oder schlägt gegen den Kopf. Dann grinsen die erfahrenen Metrobenutzer: Sie haben schon gelernt, sich diesen Maschinen anzupassen. Deren Opfer sind einfach ungeschickt und selber schuld.

Aber stellen wir uns einen Moment lang vor, statt dieser Türen gäbe es Wachleute, die den Kunden, die nicht schnell genug durchgehen, Ohrfeigen oder Schläge versetzen: Das wäre skandalös und unerträglich. Von den Maschinen nehmen wir es hin, weil wir wissen, dass sie nicht denken. Wir sind daher überzeugt, dass sie gar nicht in böser Absicht handeln können.

Doch das stimmt nicht: Wenn die Automaten auch kein Bewusstsein ihres Handeln besitzen, gehorchen sie doch immer einem Programm, das mit voller Absicht so eingestellt wurde. In anderen Städten der Welt gibt es kleine Stempelmaschinen, aber keine automatischen Türen; mancherorts werden die Tickets auch von Menschen geprüft – und in den französischen Gemeinden Aubagne oder Châteauroux ist der öffentliche Nahverkehr ohnehin gratis.

Die Logik der Fahrscheinkontrollen (deren Wirtschaftlichkeit stark zu bezweifeln ist) bringt noch weitere Zwangsmaßnahmen hervor: Die Barrieren weisen den Passagieren ganz bestimmte Aufenthaltsorte zu, man ist entweder drinnen oder draußen. In unserem Vorortbahnhof zum Beispiel verhindern die neuen automatischen Sperren, dass man den Bahnsteig noch einmal verlässt, um eine Zeitung zu kaufen, einen Kaffee zu trinken oder am Schalter eine Auskunft zu erfragen. Der Reisende kann nur noch die (überteuerten) Getränke- oder Süßigkeitenautomaten auf dem Bahnsteig benutzen, und wenn er etwas lesen möchte, muss er mit den Werbetafeln Vorlieb nehmen.

Unzählige solcher vorprogrammierten Apparaturen regeln unseren Alltag – oder sollen ihn uns gar erleichtern. Wer hat noch nicht im Gespräch mit einer dieser Callcenter-Sprechmaschinen die Nerven verloren, die ständig verlangen, dass man die Stern-Taste drückt oder ganz laut und deutlich Schwachsinn artikuliert: „Wünschen Sie Informationen, sagen Sie ‚Information‘. – ‚Information.‘ – ‚Es tut mir leid, aber ich habe Sie nicht verstanden, bitte versuchen Sie es noch einmal.‘ – ‚In – for – ma – tion.‘ – ‚Bitte rufen Sie später noch einmal an.‘ “?

Der Informatikpionier Alan Turing, der solche Maschinengespräche bereits voraussah, schlug im Jahre 1950 einen Test vor:1 Wenn man nur über ein Text-Interface kommuniziert, wie kann man herausfinden, ob unser Gegenüber ein Mann, eine Frau oder ein besonders gut geschriebenes Computerprogramm ist? Mit den Praktiken des Telefonmarketings oder der Hotlines kommt noch ein weiterer Aspekt hinzu: Mit wem sprechen wir eigentlich, wenn wir im Callcenter anrufen? In vielen Fällen befolgen die Angestellten dort auch nur ein „Masterprogramm“, das ihnen keinerlei Handlungsspielraum zugesteht.

Diesen Automatismen liegt der – zweifellos faktisch belegbare – Gedanke zugrunde, dass fast alle Anrufer mehr oder weniger die gleichen Fragen stellen. Die „robotisierten“ Mitarbeiter dienen als Filter und verhindern, dass sich das wirklich technisch ausgebildete Personal mit Bagatellproblemen befassen muss. Oft aber ist dieser menschliche Filter so gut, dass es völlig unmöglich ist, einen kompetenten Ansprechpartner zu erreichen.

Dass tatsächlich ein Mensch unseren Anruf beantwortet und kein interaktives Programm, liegt vor allem daran, dass Kunden, die keine Lösung für ihr Problem erhalten, dann wenigstens den Eindruck haben, mit einem mitfühlenden Gesprächspartner zu tun zu haben. Im schlimmsten Fall bietet dieser ihnen auch die Möglichkeit, sich verbal abzureagieren: Damit kann, wie Studien zeigen, Stress auf neurologischer Ebene gut abgebaut werden – fast so als wäre das eigentliche Problem tatsächlich gelöst.

Außerdem haben Callcenter-Agenten, die genau dem vorprogrammierten Gesprächsleitfaden folgen, den Vorteil, völlig austauschbar zu sein. Heute arbeiten sie für eine Behörde, morgen für einen Telefonanbieter und übermorgen für ein Meinungsforschungsinstitut. Sie erhalten nur eine ganz kurze Einweisung, in der sie vor allem lernen, nur noch positive Sätze zu formulieren (man sagt nicht: „Das ist nicht möglich“, sondern: „Wir werden alles tun, um Ihr Problem zu lösen“). Es ist gut möglich, dass diese Angestellten, die häufig in einem anderen Land sitzen, wo die Arbeitskräfte billiger sind, die Probleme, die sie lösen sollen, gar nicht wirklich verstehen – man kann sich schwer vorstellen, dass beispielsweise eine Bewohnerin von Casablanca oder Tunis sich leidenschaftlich für die Probleme eines Paketdienstkunden in Frankreich interessiert.2

Die Callcenter-Angestellten sind proletarisiert – insofern, als sie weder die Möglichkeit haben, selbst Initiative zu ergreifen, noch weiterführende Kenntnisse oder Wissen erwerben (geschweige denn vermarkten) können: Kein Mitarbeiter also wird jemals unersetzlich sein.

Computerprogramme (in diesem Fall hundertprozentig automatisch) rufen die Kunden nach dem Zufallsprinzip an, um deren Zufriedenheit zu testen. Sie stellen nur selten Fragen zum allgemeinen Service, sondern erkundigen sich vor allem nach der Gesprächsqualität: „War Ihr Gesprächspartner höflich genug? Hat er gut Französisch gesprochen?“ Mit solchen Fragen, die nur den Arbeitgeber interessieren, wälzt man das Controlling auf die Kunden ab und macht sie zu Helfern der Teamleiter – zu einer Art „Zweitchefs“, wie es die Soziologin Marie-Anne Dujarier ausgedrückt hat.3

Die Automatisierung sollte eigentlich monotone Arbeiten für den Menschen reduzieren; doch für das menschlichen Personal hat sich daraus weder etwa Wahlfreiheit ergeben noch ist jetzt mehr Kompetenz gefragt (der Angestellte hat ja keinen Einfluss auf die Gesprächsvorgaben). Gefragt ist vor allem die Fähigkeit, Stress und Aggressionen auszuhalten. Das System ist nicht primär dafür da, Probleme zu lösen, sondern vielmehr dafür, dass sie erst gar nicht bis zu den Verantwortlichen durchdringen.

Betrachten wir für einen Augenblick unseren Personalausweis oder Pass. Wir sind auf dem Foto kaum wiederzuerkennen: kein Lächeln, kein Ausdruck, leere Augen – wir machen einen traurigen, ein wenig ängstlichen Eindruck und sehen uns so wenig ähnlich, dass uns eigentlich niemand erkennen kann.

Das aber sind die offiziellen Vorschriften des Innenministeriums (nach dem internationalen biometrischen Standard ISO/IEC 19794-5): „Die Person muss mit neutralem Gesichtsausdruck und geschlossenem Mund gerade in die Kamera blicken.“ „Die Gesichtshöhe muss 70–80 Prozent des Fotos einnehmen. Dies entspricht einer Höhe von 32–36 mm von der Kinnspitze bis zum oberen Kopfende“ (Zitate aus der Fotomustertafel der Bundesdruckerei).

Das Ministerium für Traurigkeit hat gute Gründe für seine Anweisungen: Das Bild ist nicht für menschliche Augen, sondern für äußerst komplexe Biometrieprogramme gedacht, die Menschen nur nach bestimmten Standards erkennen. So wird das offizielle Gesicht jedes Einzelnen durch die Erfordernisse eines Programms bestimmt, das darin lediglich eine Summe von Maßen sieht und nur die Gestalt erkennt, aus der jeder lebendige Ausdruck verbannt ist.

Im Augenblick testet man Programme, die von den Lippen lesen können –wie der Computer HAL9000 in Stanley Kubricks „2001: Odyssee im Weltraum“ – und Gesten, Gangart, Haltung oder Bewegungsmuster analysieren. Ein Mensch, der am Bahnsteig steht und mehrere Züge vorbeifahren lässt, ist verdächtig. Ein anderer, der sich gegen den Strom der Masse bewegt, ist ebenfalls verdächtig. Jedes abweichende Verhalten löst Alarm aus und führt zu Überprüfungen.

Es geht noch schärfer: Das Heimatschutzministerium der USA will die Flughäfen künftig mit einem neuen System namens Future Attribute Screening Technology (Fast) ausrüsten, das bereits im Vorfeld körperliche Anzeichen erkennt, die unerwünschten Verhaltensweisen vorausgehen: ausweichender Blick, beschleunigter Pulsschlag und so weiter. Wie in Steven Spielbergs Science-Fiction-Film „Minority Report“ wird das Verbrechen schon erkannt, bevor es begangen wird.4

Auch scheinbar ganz neutrale Computerprogramme können solche Zwänge ausüben. Die Einführung des PCs hat zahlreiche Berufe radikal verändert und bestimmte Fachkenntnisse überflüssig gemacht. Früher brauchte ein Fotoretuscheur eine jahrelange Ausbildung, denn er musste über besonderes manuelles Geschick verfügen und seine Werkzeuge und Materialien genau kennen. Heute überträgt man das technische Wissen auf ein Programm und proletarisiert den Handwerker: Er wird abhängig von den Entscheidungen, die die Programmentwickler bei Adobe oder Apple getroffen haben. Wie der Künstler und Designer John Maeda erklärte, kann niemand sich als „Großen Meister von Photoshop“ bezeichnen, denn: „Wer hat wirklich die Macht? Das Werkzeug oder der Meister?“ Das Schicksal des Künstlers liegt für Maeda im Besitz seiner Produktionsmittel.

Wie können wir unser „digitales Schicksal“ wieder in die eigenen Hände nehmen, während wir alle heute Computerwerkzeuge benutzen, die uns zu ihren Objekten zu machen drohen? Die Diskussionen um Hacker, die Programme so einsetzen, wie es „weder vorgesehen noch erlaubt“ ist,5 um freie (Open Source) Software – der Nutzer kann erfahren, wie ein Programm funktioniert, und es sogar verbessern – sind weniger technischer denn politischer Natur.

Fußnoten: 1 Alan Turing (1912–1954), britischer Mathematiker, in: „Computing machinery and intelligence“, Mind, Oktober 1950. 2 Vgl. den Film „John & Jane“ von Ashim Ahluwalia (Future East Film, Bombay 2005) über indische Callcenter-Angestellte, die sich eine amerikanische Zweitpersona zulegen. 3 Marie-Anne Dujarier, „Le travail du consommateur“, Paris (La Découverte) 2008. 4 „Terrorist ‚pre-crime‘ detector field tested in United States“, in: Nature, London, 27. Mai 2011; www.nature.com. 5 Jean-Marc Manach, „Tüftler, Warner und Piraten. Die nützlichen Quälgeister der Informationsgesellschaft“, in: Le Monde diplomatique, September 2008. Aus dem Französischen von Sabine Jainski Jean-Noël Lafargue ist Multimedia-Regisseur, Dozent an der Universität Paris 8 und Verfasser (gemeinsam mit Jean-Michel Géridan) von: „Processing: Le code informatique comme outil de création“, Paris (Pearson) 2011.

Le Monde diplomatique vom 12.08.2011,