Wo ist Kritik angebracht?
Technologie ist menschengemacht und trägt daher neben positiven Innovationen und den Errungenschaften demokratischer Austauschprozesse auch die Einschreibungen menschlicher Vorurteile in sich, den sogenannten bias. So lernt die Künstliche Intelligenz (KI) mit Daten, die von Menschen generiert bzw. programmiert wurden und daher mit strukturellem Diskriminierungswissen durchzogen sind.
Nicht ausreichend differenzierter Input für die lernenden Maschinen führte zunächst u.a. bei der Online Bildersuche auf mehreren Plattformen zur Zuordnung der Beschreibung „Gorilla“ zu Personen mit schwarzer Hautfarbe und reproduzierte damit ein historisch rassistisches Stereotyp (vgl. Kühl, 2015).
Algorithmen sind keine objektiven mathematischen Konstrukte, sondern verbreiten Vorurteile, dominante Erzählungen und Machtstrukturen u.a. auch im Dienst wirtschaftlicher Interessen (vgl. Noble, 2018; Niederberger, 2019).
Das Geschäftsmodell von Google z.B. verknüpft seine Werbeeinnahmen mit der Generierung von Klickzahlen, nicht mit der Qualität der jeweiligen Medieninhalte. Auch die Vervollständigung der Suchanfragen basiert auf diesem Modell. Daraus entwickelt sich eine verstärkende Dynamik: Besonders reißerische, stark vereinfachende oder eben auch vorurteilsvolle, diskriminierende, sexistische und rassistische Schlagworte erlangen somit oftmals eine hohe mediale Sichtbarkeit (vgl. Noble, 2018).
Wer am digitalen Leben teilnehmen möchte, kann der Marktdominanz von Facebook und Google kaum entkommen: „Suchmaschinen stellen inzwischen so etwas wie quasi-öffentliche Infrastrukturen dar, die aber komplett in privater Hand liegen. Sie sind keiner demokratischen Kontrolle unterstellt“ (Niederberger, 2019).
Privatwirtschaftliche Anbieter:innen handeln bekanntermaßen mit Daten aller User:innen, die ihre Services nutzen. Diese Informationen werden dabei nicht nur wie vorgegeben zu personalisierten Werbeangeboten genutzt, sondern sie sind in der Lage, sehr intime Details in Profile zu verwandeln und Prognosen über individuelle Verhaltensweisen zu treffen (vgl. Al Ghussain, 2022; Kulturstiftung des Bundes, 2021).
Ohne Mitsprache der Nutzer:innen und ohne demokratische Kontrolle entsteht somit eine Asymmetrie von Transparenz: „Wissen über unser online und offline Leben wird […] auf einem riesigen Datenmarkt gehandelt, dessen Akteure und deren Methoden und Ziele uns weitgehend unbekannt sind. Wir wissen also nicht, wer genau was über uns weiss.“ (Niederberger, 2019)
Die originäre Vision des World-Wide-Web-Erfinders Tim Berners-Lee ist damit in weite Ferne gerückt: Das freie Teilen von Wissen wird durch Filterblasen, gezielt eingesetzte Täuschung mittels Fake News oder das privatwirtschaftliche Sammeln von personenbezogenen Daten unterlaufen; ein toleranter Austausch findet selten in den von Hasskommentaren geprägten Kommentarspalten statt; die Einflussnahme auf politische Meinungsbildungsprozesse durch die zuvor beschriebenen Phänomene steht konträr zur ursprünglich gewünschten moralischen Verantwortung auf Seiten der Entwickler:innen (vgl. Pöllmann & Herrmann, 2019, S. 7).
Und auch Felix Stalder konstatiert, dass nur eine gesellschaftliche Einmischung in den Diskurs um Datenhoheit noch einen Handlungsfreiraum ermöglicht:
„Unser Handeln bestimmt, ob wir in einer post-demokratischen Welt der Überwachung und der Wissensmonopole oder in einer Kultur der Commons und Partizipation leben werden“ (Stalder, 2016, S. 2).