User account

Digital Disrupture

Dieter Mersch

Digital Criticism
Für eine Kritik ›algorithmischer‹ Vernunft

Published: 10.12.2017

EN

Digital Disrupture

Theorien des Digitalen beziehen ihre Konjunktur aus einer zweideutigen Lage. Zum einen besitzen sie ihre Herkunft in den Visionen und Utopien der gegenkulturellen Aufklärung der 1970er Jahre, aus denen nicht nur der Personal-Computer, sondern auch die Medienwissenschaften und Medientheorien hervorgegangen sind, die den digital disrupture theoretisiert und unter Reflexion gestellt haben und nach deren Diagnose wir vor einer ebenso nachhaltigen Zäsur stehen wie die frühe Neuzeit mit der Erfindung des Buchdrucks. Alle Zeichen und Inhalte bisheriger Kulturen stehen damit auf dem Prüfstand, werden transformiert und von einer Entwicklung überholt, deren weitere Dynamik kaum absehbar ist. Die mit der Digitalisierung verbundene technologische Wende, so die allgemeine Analyse, werde alle Lebensverhältnisse dermaßen verändern und von Grund auf durchschütteln, dass mit Marshall McLuhan und dessen zusammen mit Quentin Fiore verfassten Buch, dessen Titel ironischerweise nicht lautet: The Medium is the Message, sondern The Medium is the Massage, von einer gründlichen ›Massage‹ des gegenwärtigen Zeitalters gesprochen werden muss. Was sind die damit verbundenen Hoffnungen? Was die Grenzen und Risiken? Und warum bildet die eigentliche Stelle der Zäsur die Periode des gesellschaftlichen Aufbegehrens in den 1970er Jahren – und nicht schon die späten 1940er oder frühen 50er Jahre, die Zeuge der mathematischen Theoretisierung des Phänomens und der Konstruktion der ersten Computer waren, welche damals noch »Elektronengehirne« hießen?

Tatsächlich ist der Ursprung und damit die Zäsur der Digitalisierung viel älter, zumindest ihr theoretisches Modell und dessen technologische Entsprechung, welche weit in die Anfänge des 20. Jahrhunderts und vielleicht sogar, mit der Boole’schen Algebra und mit Charles Babbages und Lady Lovelaces Studien zur DifferenceEngine, bis in die Mitte des 19. Jahrhunderts zurückreichen. Bereits Alan Turing hatte das nach ihm benannte mathematische Schema der Turingmaschine als eine ›universale Maschine‹ bezeichnet, die alle berechenbaren bzw. mathematisch darstellbaren Probleme zu simulieren vermag. Zudem riefen Claude Shannons Informationstheorie und Norbert Wieners Kybernetik, neben den Entwürfen zu einer allgemeinen Semiotik, Mitte des 20. Jahrhunderts ein neues Wissenschaftsparadigma auf den Plan, das sich spätestens seit den frühen 1960er Jahren anschickte, zirkuläre Kommunikationsprozesse, selbstkorrigierende Maschinen oder zyklischen Kausalitäten und Feedbackschleifen zu denken, um die Einheit von Natur- und Geisteswissenschaften wiederherzustellen und damit die von C.P. Snow so genannten ›zwei Kulturen‹ miteinander zu versöhnen.

Seither scheint es kaum mehr eine Grenze zu geben, die sich dem Erfolg der Digitalisierung widersetzt: Denken und geistige Prozesse werden mittels digitaler Algorithmen erfasst, und die Neurowissenschaften folgen – zumindest in Teilen – immer noch einem Bild vom Gehirn als Computer; Netzwerke und digitale Kommunikationsströme formieren unseren Sinn des Sozialen, welcher von der Vorstellung einer integralen Partizipation beherrscht ist, Wissen und die Wissensgesellschaft sind ohne digitale Archive und Datenverarbeitung undenkbar geworden, während mittels algorithmischer Statistik und Big Data – eine Entwicklung, die gleichfalls auf die ›Probabilistic Revolution‹ des 19. Jahrhunderts zurückgeht – auf neue Weise die Ökonomien des Begehrens nahezu verlässlich vorausberechnet und befriedigt werden können, um hier nur einige der Konsequenzen zu nennen. Warum also verorten wir die Zäsur ausgerechnet in die 70er Jahre, die Epoche der Revolte? Die der skizzenhaften historischen Rekonstruktion von Digitalisierung und Computerisierung als kultureller Formation entgegenstehende These lautet an dieser Stelle, dass die Digitalisierung nicht diesen beispiellosen Erfolg gehabt hätte, wäre sie allein, wie Friedrich Kittler wähnte, aus Missbrauch von ›Heeresgeräten‹ und ›Kriegsmaschinen‹ bzw. einer Mathematisierung von ökonomischem Tausch und Kommunikation und der sie begleitenden Theorien hervorgegangen. Denn die Erfindungen von Telefon, Kinematographie und Fernsehen, die bekanntermaßen die Grundlagen für die erste medientheoretische Reflexion, namentlich für McLuhan und die Kanadische Schule bildeten, sowenig wie die Erfindungen des Tape- und Videorecorders, wie Joachim Paech hinzugefügt hat, die portable Aufzeichnungen der ansonsten flüchtigen Ton- und Bewegtbildszenen, und d.h. auch ihre Wiederholung, Schneidung und Zitation, mit einem Wort deren Lesbarkeit wie Manipulation gestatteten, erklären nur unzureichend die Disruption der 70er Jahre und die bis in die Subjektivierung reichenden Einschnitte der Gegenwart.

Zweideutigkeit einer ›Kultur‹ des Digitalen

Dagegen sei behauptet, dass nicht die genannten Ereignisse, die zweifellos zur Entstehung dessen, was heute als eine ›Kultur des Digitalen‹ apostrophiert wird, beigetragen haben, ausschlaggebend waren, sondern vor allem die Miniaturisierung des Computers im selben Zeitraum, die wiederum auf Demokratisierungsideen der 1960er Jahre beruhte und binnen zweier Jahrzehnte die unterschiedlichsten medialen Formate zu einem Metamedium zusammenzuschließen erlaubte, um sie über die bereits existierenden Telefonnetze miteinander zu verschalten und in ein einziges, global funktionierendes Mediendispositiv zu verwandeln. Und auch diese Tatsache alleine, die Kittler ebenfalls mit Blick auf die von ihm so genannte Universelle Diskrete Maschine ins Zentrum seiner medientheoretischen Wende gestellt hatte, wäre nicht so entscheidend gewesen, wäre sie nicht gleichzeitig durch eine nur in Kalifornien mögliche gegenkulturelle Bewegung grundiert worden, die mit ihrer charakteristischen Mischung aus sozialem und technologischem Utopismus den Personal Computer als eine Apparatur der Befreiung und Gegenoffensive gegen staatliche Kontrolle zugleich feierte wie missverstand. Es bedurfte also der Vision, deren Geschichte Fred Turner in seinem Buch From Counterculture to Cyberculture nachzuzeichnen versucht hat, denn es war besonders die zivilisationskritisch orientierte kalifornische Aussteigerbewegung, die mit einem Grundimpuls sowohl gegen die Wucherungen des kapitalistischen Ökonomismus als auch der technologischer Macht opponierte, wie vor allem ihr Emblem, The Whole Earth Catalog demonstrierte, um dennoch binnen eines Jahrzehnts vom Romantizismus zur technologischen Affirmation umzuschwenken und im Hypertext und den Cyber-Communities das Auftauchen neuer Gemeinschaftsformen auf der Grundlage egalitärer Partizipativität zu erträumen. Sie stellte deren einstige Herkunft und Kritik genau auf den Kopf.

Symptomatisch für diese ›Kehre‹ war unter anderem, dass der Autor des Whole Earth Catalog, Stuard Brand, nur wenige Jahre nach dessen Herausgabe, den Whole Earth Software Catalog publizierte und 1985 das Netzwerk Whole Earth ‘Lectric Link mit dem Akronym WELL gründete, das schnell zum Pionier von Online-Communities avancierte. Als Grundlagensprache adaptierte er die Philosopheme von Systemtheorie und Kybernetik, zu denen sich später poststrukturalistische Vokabularien hinzugesellten, deren eigentliche Anliegen durch ihre Adaption gleichzeitig rückhaltlos entstellt wurden. »As it turned out«, schrieb Brand später, »psychedelic drugs, communes, and Buckminster Fuller domes were a dead end, but computers were an avenue to realms beyond our dreams.« Die Idealismen, die so von der ›großen Verweigerung‹ Herbert Marcuses zu den Online-Communities übergingen, gründeten folglich im Phantasma, der PC könnte zu einer Dissidenz-Maschine par excellence avancieren, zu einem Agenten der Demaskierung antidemokratischer und autoritärer Formationen, und sich in ein neues, ungeahntes ›Werkzeug‹ der Kritik zu verwandeln, das nicht nur subversive Gegen-Öffentlichkeiten auszubilden verhelfe, sondern auch andere Arten von Gemeinschaften zu kreieren ermögliche, welche imstande sein könnten, die auf den klassischen Hierarchien beruhenden sozialen Strukturen endgültig aufzusprengen und zu überwinden. Nun ist seit Jahren daraus nichts anders entstanden als eine Transgression des Kapitalismus auf der Grundlage multinational agierender IT-Unternehmen, die mehr Ressourcen besitzen und verwalten als ganze Staaten, unter sich 95% des Internets und der Internetkommunikation aufteilen und dabei immer noch Slogans verbreiten wie ›Don’t be Evil‹ oder ›Making the World a Better Place‹. Jenseits jeder Idee des Politischen und unterhalb staatlicher Gesetze lehren sie unter dem unschuldigen Teaser ›Das könnte Ihnen auch gefallen‹ ihre User, die nurmehr zu willfährigen Konsumenten unendlich beschleunigter Kommunikations- und Warenströme mutiert sind, das, was sie in Zukunft werden wünschen oder genießen wollen – nicht, wie man meinen könnte, um sie zu kontrollieren, sondern um sie für ihren künftigen Konsum gerade freizusetzen (was schlimmer als Kontrolle ist).

Cyberculture bedeutet dann die konsequente Erfüllung der Counterculture, wie Fred Turner pointierte, und gleichzeitig ihren kompletten Ruin, ihre Umkehrung und Entstellung, die sämtliche damaligen Utopismen bis zum letzten Buchstaben verbrannt haben. Selten ist eine Zeit derart restlos zur Zeugin eines Zusammenbruchs ihrer Hoffnungen und Visionen und damit ihrer Desillusionierung geworden wie unsere. Das Credo des digital disrupture und die Konstitution digitaler Kulturen und ihrer Theorien, so die folgende These, sitzt bis heute dieser Zweideutigkeit auf, und zwar in einem doppelten Sinne von ›Aufsitzen‹, insofern sie zum einen wörtlich darauf beruhen – und ihnen darum wie ein Gnom aufsitzen –, wie sie ihr andererseits als Selbst-Verkennung verfallen sind und von ihr genarrt werden und ihr deshalb aufsitzen. Unsere Fähigkeit zur wissenschaftlichen Analyse, zur Kritik und Urteilskraft wie auch zur Erkenntnis der Grenzen der Computierung wie ihres ›Unheils‹ ist durch diese doppelte Illusion im eigentlichen Sinne ›gezeichnet‹.

Macht und Unmacht:
Die Bemächtigung des Sozialen und seiner Existenzen

Der beispiellose Triumph der Digitalisierung und Computerisierung steht vor allem für eine neue Ära der Macht. Macht ist dem technologischen Dispositiv selbst inskribiert, man muss sie jedoch im Kontext des ›digital disrupture‹ vor allem als die Macht einer alle Grenzen überschreitenden Mathematisierung lesen. Mathematisierung heißt: der Zugang zur Welt, zum Realen, sogar das Denken, Handeln, Entscheiden sowie Kommunikation, Öffentlichkeit oder das Soziale werden, in einem hegemonialen Akt, dem einheitlichen Schema einer ausschließlich quantitativen Operativität unterzogen und damit algorithmisiert. Ihr Metasystem ist das Netz in Gestalt vielfach ineinander verwickelter Graphen, eine komplexe, vieldimensionale Struktur aus Linien, Knoten und Kanten, die ihre ebenso flächendeckende Überwachung ermöglicht wie die probabilistische Auswertung der Datenströme durch Big Data, die Kontrolle sämtlicher Verbindungen und damit auch der zwischenmenschlichen Affekte, Sinne und Begehrungen. Das Regime der Computerisierung und seine Macht besitzen einen geradezu phantasmatischen Charakter, gepaart mit dem gleichermaßen phallischen wie infantilen Glauben der Nutzer an ihre Allmacht über die Apparatur und den unbedingten Besitz der Mittel sowie ihrer Versprechungen, insofern sich scheinbar jeder, der über Zugänge, Schlüssel und Codes verfügt, Gewalt über ihre technische Anlage bis ins Innerste der Maschine und ihrer Geheimnisse hinein zu verschaffen vermag. Jeder Schritt, jede Aktion und jeder Impuls basiert auf einem Rechenschritt, einer mathematischen Funktion und deren formaler Ableitung, die ebenso Verfügbarkeit wie Lösbarkeit suggeriert. Seit Alan Turing das Hilbert’sche Entscheidungsproblem auf die Idee einer virtuellen »Papiermaschine« übertrug, die ihre Resultate dadurch produziert, dass sie lediglich auf der Entscheidbarkeit zwischen ›wahr‹ und ›falsch‹ oder 0 und 1 bzw. von Lese- und Schreib-Bewegungen nach rechts und nach links sowie der Haltefunktion beruht, bildet sie eine ›Entscheidungsmaschine‹ par excellence, für die es weder Zwischenzustände noch Unschärfen oder Unbestimmtheiten gibt (außer der Unentscheidbarkeit der Berechenbarkeit oder Unberechenbarkeit der Gesamtheit der Maschinezustände selbst). Jede Entscheidbarkeit aber weckt, weil sie allein zwei Positionen benötigt, die Fiktion einer Machbarkeit, die eine Pragmatik der Probe evoziert, welche alles auf die Wahrscheinlichkeit von tatsächlichen Wahlen zurückführt, solange etwas überhaupt zählbar und daher überschaubar ist.

Die digitale Logik ist eine strikt diskrete und binäre Logik ohne die Existenz von Paradoxien oder eines Dritten, die folglich den Schein einer Lösbarkeit aufrechterhält, als sei alles eine Frage des ›Entweder-oder‹ bzw. der korrekten Inferenz oder Richtigkeit. Analog verhält es sich mit den Gegenstrategien des subversiven Hackings, das die anonymen Regierungsmächte im Zeichen einer politischen Aufklärung zu dekuvrieren trachten und sich dabei derselben Mechanismen bedienen, um ihrerseits den Einsatz von Technologien als aneigenbar und steuerbar zu halluzinieren. Wenn die Fundamente der neuen, digitalen Technologien neben der Turingmaschine und der Theorie der Graphen auf der Kybernetik als zugrunde liegendes mathematisches Modell aufruht, dann erscheint, schon vom disziplinären Namen her, nicht nur das Paradigma der Lenkung und Kontrolle als ubiquitär, sondern umgekehrt auch das der Technik als eines durch die Mathematik vollständig regierbaren kulturellen Dispositivs. Der Schein der Berechenbarkeit ist mit dem Schein der Macht des Mathematischen äquivalent – als sei alles eine Frage des richtigen Algorithmus, eine Haltung, die wiederum den Laplace’schen Dämon schonungslos von der Natur und ihrer kausalen Erklärung auf das Politische und seine Institutionen sowie auf das Soziale überträgt, um schließlich das, was unsere Wünsche gewesen sein werden und wovon wir geträumt haben würden, noch vorwegzunehmen. Macht bildet dann nicht nur die Form einer Strukturierung und Produktion des Realen, sondern auch des Gesellschaftlichen und Alteritären, welche Jean-Luc Nancy und Maurice Blanchot mit dem Ausdruck »Désœuvrement«, weniger als das ›Entwerkte‹ als vielmehr das ›Unerwerkbare‹ und darum nicht Kalkulierbare, beschrieben haben.

›Strukturwandel der Öffentlichkeit‹

Die Folgen für das, was einst ›politische Öffentlichkeit‹ im Unterschied zur Privatheit der Person hieß, sind unabsehbar. Das Web 2.0 bietet heute ein Schlachtfeld der Aufmerksamkeit, der Intrige, der Manipulation wie gleichermaßen der Aneignung und Verwertung persönlicher Informationen, Bilder und Meinungsäußerungen, die sich derart im indifferenten Raum zwischen ›intim‹ und ›öffentlich‹ bewegen, dass die klassischen Unterscheidungen jede kritische Funktion eingebüßt haben. Bereits 1961 hatte Jürgen Habermas einen »Strukturwandel der Öffentlichkeit« diagnostiziert, der die Veränderungen des Begriffs der ›bürgerlichen Öffentlichkeit‹ seit ihrer Instantiierung durch die Aufklärung und ihre Rolle für eine funktionierende Demokratie bis in die 1960er Jahre hinein nachverfolgte. Mit den verschiedenen ›counterculturalen‹ Utopien der 70er Jahre und ihrer technologischen Wende in den späteren 80er und 90er Jahren scheint zwar der Prozess der Digitalisierung und das Internet die legitimen Erben einer kritischen Öffentlichkeit anzutreten, sodass wir mit einem zweiten, diesmal technologiegetriebenen Strukturwandel zu tun bekommen, doch unterliegt er ebenso einer ungehemmten Ökonomisierung wie er durch die Verbreitung ›alternativer Fakten‹ sowie sich verselbständigender Informationsblasen und der Erosion des Sozialen durch ›Shit Storms‹ und ›Hate Speeches‹ seine eigene Form der Krise erzeugt.

Damit einher geht die Frage, ob die Grundlagen von Digitalisierung und Vernetzung nicht neu zu bestimmen wären. Zu lange hat sich der kritische Diskurs allein mit den Zerrbildern der Überwachung beschäftigt und ausschließlich eine Debatte um Subversion und Dekontrollierung ausgelöst, ungeachtet der Tatsache, dass auf diese Weise dieselben technischen Mechanismen reproduziert wurden, die sie zu bekämpfen vorgab. Wie die technische Kritik einer technologischen Macht nichts anderes hervorzubringen vermag als wiederum die Affirmation des Technischen, vervielfältigen WikiLeaks und andere kritische Hacking-Programme deren Strukturen, ohne Alternativen zu schaffen. Julian Assange, Edward Snowden oder virale Aktionen als Verfahren produktiver Störung können darum, getreu der Devise, die Herrschenden mit ihren eigenen Mitteln zu schlagen, nicht umhin, die gleichen Überwachungsstrukturen wieder anzuwenden wie die, in die sie ihre ›Lecks‹ zu schlagen suchen. Freiheit ist mit der Negation von Macht durch dieselbe Macht ohne Widerspruch nicht zu erringen.

Darüber hinaus wurde jahrelang das Recht auf Anonymität als ein verbrieftes Freiheitsrecht im Gebrauch des Internets angesehen, trotz des Missbrauchs durch anonymisierte Posts, die hinter der Maske von Scheinidentitäten, die ebenso Social Bots oder Robots sein könnten, Falschheiten, Erfindungen oder Unüberprüfbares verbreiten, um die Systeme des Vertrauens gezielt zu erschüttern. In der Tat wurde die Immaterialität der Kommunikation sowie die Möglichkeit unbegrenzter Konnektibilität ohne materielle Barrieren als eine der enormen Errungenschaften der Netzkultur gefeiert, doch geht mit dem Verschwinden körperlicher Präsenz und der Parrhesia als Haltung eines selbstbewussten ›Einstehens für‹ zugleich auch ein Verlust der sozialen Verantwortung und ihrer eingeschrieben Ethizität einher. Wenn die Menschen den Glauben an die Religionen verlieren, hatte Gilbert Chesterton gespottet, glauben sie nicht mehr an nichts, sondern vielmehr an alles. Notwendig erscheint daher die Restitution einer Unterscheidungsfähigkeit, die der Beliebigkeit von Informationsverbreitung Einhalt zu gebieten vermag und erneut die Glaubwürdigkeit rettet. Die bisherigen Vorschläge sind konfus bis wirkungslos, doch ist dies kein Argument gegen sie, sondern vielmehr ein Beleg für die Schwierigkeit der Aufgabe. Zudem sind von Beginn an die Wucherungen einer zur Deregulierung neigenden exzessiven Kommunikativität via Internet unterschätzt worden, weil allein die Infrastrukturen sowie die Beschleunigung der Systeme thematisiert und technisch umgesetzt wurden, nicht aber mögliche Regularien. Es geht um Akzeleration, um die Vermehrung der Zugänge und die Erhöhung der Zirkulationsgeschwindigkeiten, mit einem Wort um das, was Friedrich Nietzsche als unbedingten Willen zur Steigerung und Übersteigerung denunziert hatte, was freilich nichts anderes darstellt als einen Exzess der ökonomischen Logik selbst. Zu fragen wäre dann auch, ob nicht die derzeitige Entwicklung in Richtung einer Entdemokratisierung und das Aufkommen populistischer Tendenzen wie auch der Enthemmung und Hetze im Netz eine direkte Frucht der Netzstrukturen selber bilden, sodass die digitale Öffentlichkeit und ihre Formatierung bereits von sich her das Siegel einer zunehmenden Asozialisierung trägt.

Technikkritik als Kulturkritik:
Philosophie als Grenzziehung

Aus den genannten Punkten folgt gleichzeitig die weit tieferliegende Frage nach der Zukunft einer ebenso kritischen wie demokratischen und politischen Urteilskraft – wie überhaupt das Problem aufgeworfen wird, ob der Begriff des Sozialen nicht unter den Bedingungen einer ausschließlich auf den Direktiven mathematischer Entscheidungslogik beruhenden Kommunikation leidet und seinen Sinn dadurch einbüßt, dass im Rahmen von Digitalität Fakten und Wissen durch Daten, Reflexion durch Referenz, Praxis durch Operativität, Gerechtigkeit durch Partizipation und Vertrauen durch Zugänglichkeit ersetzt werden. Hatte zudem Jacques Derrida in den 1980er Jahren die Asymmetrie der ›Gabe‹ als eine unverzichtbare Grundlage von Sozialität aufgewiesen und Emmanuel Lévinas das – ebenfalls asymmetrische – Prinzip von Alterität als jeder möglichen Form von Beziehung als vorgängig gedacht, wäre ebenfalls zu fragen, ob nicht durch die technologischen Bedingungen der ›Netzkultur‹ diese Dimensionen gerade wieder ausgesetzt und durchgestrichen würden. Es geht dabei nicht um Technikkritik als Kulturpessimismus, in deren Schatten sich unweigerlich der Verdacht einer neokonservativen Fortschrittsfeindlichkeit einschleicht, als vielmehr um Kulturkritik, die, insofern sie die Rückseiten eines sich totalisierenden Prinzips adressiert, umso notwendiger erscheint, je vergeblicher sie sich ausmacht.

Es gilt demnach die Grenzen, Hindernisse und Verkennungen dessen auszuloten, was unter dem Stichwort des ›digital disrupture‹ rangiert, um allererst das ausmachen zu können, was ihre ›Kultur‹ und deren ›Gefahr‹, um mit Heidegger zu sprechen, sein könnte. Sie lässt sich insbesondere mit einer in der Geschichte der Freiheit immer wieder zu beobachtenden Dialektik zwischen Entgrenzung, Wahrheit und Maß aufweisen. Zwei historische Beispiele seien dafür angeführt. Zum einen blühte mit dem Aufkommen der altgriechischen Stadtdemokratien der Sophismus auf, der die Technik der Rhetorik zugleich in ein Mittel der Aufklärung wie der Entfremdung und Macht verwandelte, indem sie die chronische Ununterscheidbarkeit zwischen Überzeugung und Überredung ausbeutete, um, wie es in den sokratischen Kritiken am Sophismus heißt, »die schlechtere Sache zur besseren« zu machen. Folgerichtig überflügelte die Gewalt der Rede die Kraft der Vernunft, indem scheinbar jede haltlose Behauptung vertreten wurde. Tief empfunden wurde damit der Skandal, dass sich mit denselben Praktiken der Sprache ebenso sehr die Wahrheit wie die Lüge aussprechen ließe, ohne je verbindliche Kriterien ihrer Scheidung zu besitzen. Die Reaktion darauf war die Entstehung der klassischen Periode der griechischen Philosophie mit Platon und Aristoteles, die im Innern der Sprache das Prinzip des Logos selbst zum Kriterium erhoben, um es gegen die sophistischen Fehlschlüsse auszuspielen und in den Regimen des Rhetorischen eine Scheidelinie zu implementieren, die die Macht der Rede zu begrenzen erlaubte.

Als zweites Beispiel kann die Erfindung des Buchdrucks in der frühen Neuzeit genommen werden, die zu einer veränderten Wissenskultur führte, deren Individualisierung zur gleichen Zeit der Flut der Publikationen keine Schranken auferlegte. Scheinbar alles konnte gesagt, angeführt oder verbreitet werden, gegen deren überbordende Produktion wie auch der mit ihr verbundenen Erosion gesicherten Wissen die Wissenschaften selbst einerseits den Maßstab einer Wiederholbarkeit der Experimente und ihrer öffentlichen Aufführung und Nachprüfbarkeit (Exoterik) etabliert haben, wie andererseits Denis Diderot und Jean Baptiste d’Alembert die großen Enzyklopädien als gesellschaftliches Aufklärungsprojekt und Wissenskorrektiv entwarfen, die das Wissen zugleich objektivieren sollten. Zuletzt hatte Kant mit seiner Kritik der reinen Vernunft der allzu freien und uferlosen Pragmatik der Vernunft dadurch einen Riegel vorzuschieben versucht, dass er ihre selbst noch rational durchzuführende ›Kritik‹ als »Einschränkung ihres Gebrauchs und deren Geltungsbereichs« verstand. Nicht die Beliebigkeit der Behauptung triumphiert über das öffentliche Leben, vielmehr einzig das, was durch die Dressuren der Vernunft und ihrer Sagbarkeit hindurchgegangen und sich selbst eingeschränkt hat. Erneut bot damit die philosophische Reflexion eine Antwort auf die drohende Dispersion von Wahrheit und Freiheit, um beide in ein angemessenes Maß zueinander zu rücken.

Kritik ›algorithmischer Vernunft‹

Überträgt man diese beiden exemplarischen historischen Situationen auf die gegenwärtigen »Kulturen des Digitalen«, wäre entsprechend zu fragen, ob nicht eine neuerliche und noch ungeschriebene »Kritik der algorithmischen Vernunft«, verstanden als Eingrenzung ihres Geltungsanspruchs, vonnöten wäre, um die Überproduktion von ›Wahrheiten‹ und ›Falschheiten‹ im Netz zu bändigen. Auffallend ist nicht nur die Eroberung unterschiedlichster Bereiche des Wissens und der gesellschaftlichen Praxis durch Prozesse der Digitalisierung – von der technischen Materialprüfung über medizinische Expertisen bis zur mathematischen Beweisführung, oder von der Steuerung der Finanzströme über die automatische Generierung des Wissens bis zu seiner Evaluierung und Qualifizierung, um nur einige zu nennen. Vielmehr besteht das Problem offenbar in einer doppelten Herausforderung. Denn einerseits gerät im Kontext des Digitalen der propositionale Gehalt einer Aussage, seine eigentliche Bestimmung ausschließlich zu einer ›Sache‹ der Daten und ihrer Verrechnung, d.h. der mathematischen Funktion – oft durch statistische Verfahrensweisen wie ›big data‹ oder ›brut force‹, die das Urteil zu einer Angelegenheit der großen Zahl und folglich zum Resultat einer Verdurchschnittlichung der verschiedensten Prozesse und Programme macht. Zum anderen wird dadurch der algorithmische Code totalisiert und selbst dort eingesetzt, wo er versagt: etwa in Bezug auf moralische Entscheidungsprozesse oder die auf Klugheit und die Berücksichtigung von Einzelfällen gestützte juristische Urteilsfindung, aber auch im Bereich der semantischen Analyse von ›wahren‹ oder ›wahrhaften‹ Aussagen gegenüber expliziten Vortäuschungen und Mystifikationen bis hin zu Ironie und Karikatur, weil Verifikation nicht allein einem wahrscheinlichkeitstheoretischen Kalkül überlassen werden kann. Vielmehr müssen immer neue, abweichende und gleichzeitig wohlbegründete Positionen oder kreative Antworten gefunden werden, die in der Lage sind, Paradigmenwechsel auszulösen, die jedoch statistisch gerade nicht zu decken sind, weil sie der Norm nicht entsprechen. Dies gilt auch für die in den Echoräumen der ›sozialen Medien‹ auftauchenden alternativen Überzeugungen oder Meinungen.

Indessen ist dazu eine Bedingungsanalyse des Algorithmischen und seiner Paradoxien und Amphibolien erforderlich, die ihm allererst einen angemessenen Rahmen, einen Horizont verliehe. Tatsächlich scheinen wir heute dabei, stattdessen eine algorithmische Lösung des Algorithmischen zu finden, wie gleichermaßen für die Probleme digitaler Öffentlichkeit digitale Lösungen angeboten werden, indem etwa globale IT-Unternehmen für die Beurteilung und entsprechende Löschung von ›Fake News‹, unangemessenen Darstellungen oder der Verletzung von Persönlichkeitsrechten ausschließlich mathematische Verfahren einzusetzen, sodass sich in der Tendenz eine Zirkularität ergibt, die die Ziehung von Schranken und Barrieren einzig der Programmierung überlässt, statt sie uns selbst, unserem ethischen Gewissen und dem Verständnis dessen, was das Soziale heute heißen kann, zurückzuerstatten. Der Maschine bleibt dagegen jede Begrenzung der Maschine fremd – wie ebenso ihre Unentscheidbarkeit in der Unmöglichkeit der Berechnung ihrer selbst liegt. Der Nukleus digitaler Kultur wäre stattdessen dort zu suchen, wo das Kulturelle der Kultur selber ihren Ort besitzt: beim Menschen und seiner Fähigkeit zur Selbstkritik, zur Reflexion.

My language
English

Selected content
English

Dieter Mersch

Dieter Mersch

studied mathematics and philosophy in Cologne, Bochum, Darmstadt. In 2004 he became Professor for Media Theory and Media Science at the University of Potsdam. Since 2013 he is Head of the Institute for Theory at ZHdK Zurich and visiting professor at University Potsdam, where he is one of the chairs of the DFG Research Training Centre 'Visibility and Visualization – Hybrid Forms of pictorial Knowledge'. Dieter Mersch was a visiting professor in Chicago, Budapest and Luzern, and Fellow at IKKM Weimar and at ZHdK Zurich. His work focuses on media philosophy, aesthetics and art theory, semiotics, hermeneutics, post-structuralism and philosophy of the image and language.

Other texts by Dieter Mersch for DIAPHANES