Kursinhalt
Einstieg
Was heißt eigentlich Digitalität? Warum sind digitale/hybride Angebote in Kulturinstitutionen essenziell für eine zeitgemäße Kulturarbeit?
0/2
Digitalisierung und Digitalität
Welche historischen Entwicklungen haben zur post-digitalen Gesellschaft geführt? Welche Begriffe begegnen dir im Kontext Digitalisierung und wie werden sie in diesem Kurs verwendet?
0/6
Digitale Felder
Welche Anwendungsfelder für digitale/hybride Formate gibt es?
0/3
Digitale Perspektiven
Was kann die Digitalisierung für die Kulturarbeit leisten?
0/2
Digitales Mindset
Welches digitale Mindset brauchen Kultureinrichtungen?
0/3
Digital-analoges Gesamtsystem
Was ist ein digital-analoges Gesamtsystem? Warum brauchen wir eine digitale Strategie?
0/3
Digitalität & Diversität
Wie können wir die digitale Transformation von Kulturinstitutionen diskriminierungskritisch überprüfen?
0/2
Chancen der Digitalität für die Kulturarbeit im 21. Jahrhundert

Wo ist Kritik angebracht?

Das Bild zeigt eine Laternenpfahl bei Nacht, der mit verschiedenen Plakaten und Aufklebern beklebt ist. Im Fokus steht der Text "BIG DATA IS WATCHING YOU," der auf einem Aufkleber zu sehen ist. Das Bild ist in Schwarz-Weiß gehalten, was eine düstere und nachdenkliche Atmosphäre erzeugt.

Technologie ist menschengemacht und trägt daher neben positiven Innovationen und den Errungenschaften demokratischer Austauschprozesse auch die Einschreibungen menschlicher Vorurteile in sich, den sogenannten bias. So lernt die Künstliche Intelligenz (KI) mit Daten, die von Menschen generiert bzw. programmiert wurden und daher mit strukturellem Diskriminierungswissen durchzogen sind. 

Nicht ausreichend differenzierter Input für die lernenden Maschinen führte zunächst u.a. bei der Online Bildersuche auf mehreren Plattformen zur Zuordnung der Beschreibung „Gorilla“ zu Personen mit schwarzer Hautfarbe und reproduzierte damit ein historisch rassistisches Stereotyp (vgl. Kühl, 2015). 

Algorithmen sind keine objektiven mathematischen Konstrukte, sondern verbreiten Vorurteile, dominante Erzählungen und Machtstrukturen u.a. auch im Dienst wirtschaftlicher Interessen (vgl. Noble, 2018; Niederberger, 2019).

Das Geschäftsmodell von Google z.B. verknüpft seine Werbeeinnahmen mit der Generierung von Klickzahlen, nicht mit der Qualität der jeweiligen Medieninhalte. Auch die Vervollständigung der Suchanfragen basiert auf diesem Modell. Daraus entwickelt sich eine verstärkende Dynamik: Besonders reißerische, stark vereinfachende oder eben auch vorurteilsvolle, diskriminierende, sexistische und rassistische Schlagworte erlangen somit oftmals eine hohe mediale Sichtbarkeit (vgl. Noble, 2018).

Wer am digitalen Leben teilnehmen möchte, kann der Marktdominanz von Facebook und Google kaum entkommen: „Suchmaschinen stellen inzwischen so etwas wie quasi-öffentliche Infrastrukturen dar, die aber komplett in privater Hand liegen. Sie sind keiner demokratischen Kontrolle unterstellt“ (Niederberger, 2019).

Privatwirtschaftliche Anbieter:innen handeln bekanntermaßen mit Daten aller User:innen, die ihre Services nutzen. Diese Informationen werden dabei nicht nur wie vorgegeben zu personalisierten Werbeangeboten genutzt, sondern sie sind in der Lage, sehr intime Details in Profile zu verwandeln und Prognosen über individuelle Verhaltensweisen zu treffen (vgl. Al Ghussain, 2022; Kulturstiftung des Bundes, 2021).

Ohne Mitsprache der Nutzer:innen und ohne demokratische Kontrolle entsteht somit eine Asymmetrie von Transparenz: „Wissen über unser online und offline Leben wird […] auf einem riesigen Datenmarkt gehandelt, dessen Akteure und deren Methoden und Ziele uns weitgehend unbekannt sind. Wir wissen also nicht, wer genau was über uns weiss.“ (Niederberger, 2019)

Die originäre Vision des World-Wide-Web-Erfinders Tim Berners-Lee ist damit in weite Ferne gerückt: Das freie Teilen von Wissen wird durch Filterblasen, gezielt eingesetzte Täuschung mittels Fake News oder das privatwirtschaftliche Sammeln von personenbezogenen Daten unterlaufen; ein toleranter Austausch findet selten in den von Hasskommentaren geprägten Kommentarspalten statt; die Einflussnahme auf politische Meinungsbildungsprozesse durch die zuvor beschriebenen Phänomene steht konträr zur ursprünglich gewünschten moralischen Verantwortung auf Seiten der Entwickler:innen (vgl. Pöllmann & Herrmann, 2019, S. 7).

Und auch Felix Stalder konstatiert, dass nur eine gesellschaftliche Einmischung in den Diskurs um Datenhoheit noch einen Handlungsfreiraum ermöglicht:

„Unser Handeln bestimmt, ob wir in einer post-demokratischen Welt der Überwachung und der Wissensmonopole oder in einer Kultur der Commons und Partizipation leben werden“ (Stalder, 2016, S. 2).