2. TRANSFORMATIONEN IN DER POLITISCHEN BILDUNGSARBEIT: MIT KÜNSTLICHER INTELLIGENZ LERNEN
Künstliche Intelligenz (KI) gehört zum integralen Bestandteil unserer heutigen Lebensrealität, die vielseitige Entwicklungen nach sich zieht.
Immer häufiger werden Entscheidungsprozesse in algorithmische Systeme ausgelagert – durch die Polizei oder vor Gericht, in Schulen und in Bewerbungsverfahren, in Ämtern und an Grenzübergängen. Denn die Technologien scheinen nicht nur effizienter und somit profitabler, sondern auch objektiver als der Mensch. Aber sind sie das wirklich?
Mit diesem Workshop wollen wir die Strukturen hinter algorithmischen Entscheidungssystemen untersuchen. Wir wollen darüber diskutieren, warum deren Design nicht neutral sondern normativ ist, und wie KI-Systeme strukturelle Diskriminierung in unserer Gesellschaft reproduzieren und verstärken. Am Beispiel verschiedener Tools erkunden wir bestehende Machtverhältnisse und Formen der Diskriminierung, die sich in den Tools widerspiegeln.
Wie wollen wir heute (mit Technologie und ohne) gestalten, um eine gerechtere Welt für morgen zu schaffen? Welche Ansätze in der politischen Bildungsarbeit inspirieren uns? Welche Werte sind uns wichtig? Unsere Gedanken wollen wir gemeinsam diskutieren und teilen.
Zusammenfassung des interaktiven Impulses
Die Referentinnen diskutierten die Auswirkungen Künstlicher Intelligenzen auf die Gesellschaft beispielhaft an dem Anwendungsfeld des Personal Recruiting. Große Unternehmen nutzen KI-Software, um automatisiert die passende Besetzung für eine freie Stelle zu finden. KI-Systeme „verhalten“ sich dabei regelmäßig diskriminierend, indem sie bestimmte soziale Gruppen unabhängig von ihrer fachlichen Kompetenz aussortieren. Die Teilnehmenden erarbeiteten, dass Programmierfehler und damit individuelles diskriminierendes Verhalten allein dieses Phänomen nicht erklären. Algorithmen reproduzieren und verstärken vielmehr etablierte, diskriminierende Personalentscheidungen. Als weiteres Beispiel für durch Daten-Ungleichheit verursachte strukturelle Diskriminierung besprach die Gruppe Facial Recognition Tools, die die Gesichter schwarzer Menschen nicht erkennen können, wenn die Entwickler_innen mit weißen Menschen als Norm arbeiten.
Abschlussrunde: Welche Erkenntnisse ergeben sich in Hinblick auf die außerschulische Bildungspraxis?
Floria Moghimi appellierte, bildungspolitische Einrichtungen dürften keine Berührungsängste mit technischen Neuerungen haben. Der Wunsch nach mehr Schulungsangeboten für Multiplikator_innen zu den Themen Künstliche Intelligenz und Data Justice wurde dabei seitens der Teilnehmenden geäußert. Im Verlauf der Veranstaltung wurde deutlich, dass bei der Vermittlung technischer Themen besonders auf eine einfache Sprache geachtet werden muss. Auch die eingesetzten Methoden zur Vermittlung müssen zeitgemäß und attraktiv ausgestaltet werden.
Abschlussrunde: Was bedeutet das für eine diversitätssensible Bildung?
Individuell und in Organisationen müsse Anti-Rassismus als Haltung entwickelt werden. Künstliche Intelligenzen treffen keine Entscheidungen, die frei von Diskriminierung seien, deswegen müsse dieses Problem in der politischen Bildungsarbeit sichtbar(er) gemacht werden. Die Sensibilität für Diskriminierung müsse in der Gesellschaft so groß sein, dass sie auch von KI getroffene Entscheidungen in diesem Kontext kritisch hinterfragt. Das Einstellungsverhalten der eigenen Organisation müsse ebenfalls selbstkritisch reflektiert werden.
Personen
Interaktions- und Transformationsdesignerin, Künstlerin und KI Researcherin