Springe direkt zu Inhalt

BUA-Sprecher Prof. Günter M. Ziegler, Präsident der FU Berlin, betonte gleich zu Beginn, wie wichtig das Themenfeld im Berliner Exzellenzverbund ist: „Die Frage nach einer verantwortungsvollen und gerechten Gestaltung von KI ist eine der zentralen Herausforderungen unserer Zeit und betrifft uns alle.“ Damit verbunden seien nicht nur technische, sondern auch ethische, rechtliche und wissenschaftliche Dimensionen. Im Verbund, gemeinsam mit Wissenschaftler*innen unterschiedlicher Disziplinen und der Stadtgesellschaft, müssten all diese Aspekte diskutiert und in eine öffentliche Debatte eingebracht werden.

Rund 80 Besucher*innen nahmen an diesem Abend die Einladung dazu an. Auf dem Podium teilten Dr. Dafna Burema (TU Berlin) und Jonas Frenkel (Universität Potsdam) vom Exzellenzcluster Science of Intelligence ihre Expertise als Wissenschaftler*innen. Laura Möller, Leiterin des Künstliche Intelligenz Entrepreneurship Zentrums K.I.E.Z., brachte die Perspektive der praktischen Anwendung ein, die sie täglich in der Zusammenarbeit mit Startups erlebt, die KI-Produkte entwickeln. Moderator Mads Pankow leitete durch den Abend und baute geschickt Brücken ins Publikum hinein, für das ebenfalls ein Platz auf dem Podium reserviert war. Verschiedene Teilnehmer*innen nutzten abwechselnd die Gelegenheit, um ihre Fragen an die Expert*innen zu stellen und mitzudiskutieren.

Verantwortung, Transparenz und Missbrauch

Künstliche Intelligenz ist nicht frei von Fehlern. Wer aber trägt die Verantwortung dafür, wenn die KI etwa manipuliert statt zu unterstützen oder ungerecht bewertet, statt objektiv zu sein? Die Soziologin Dafna Burema untersucht genau solche Fragen und sagte: „Wenn KI versagt, kann das technische, manchmal aber auch soziale Ursachen haben.“ Wenn etwa eine Überwachungs-KI aufgrund von Hautfarbe oder anderen Merkmalen Menschen ungerecht bewertet oder verdächtigt, liegt die Ursache im sogenannten KI-Bias. Voreingenommene Bewertungen entstehen dabei durch menschliche Vorurteile, die über Trainingsdaten in den KI-Algorithmus hineinprogrammiert werden und so zu verzerrten Ergebnissen führen. „Ganz oft gibt es aber keine Transparenz, woher die Daten stammen. Und das ist ein Problem“, betonte die Forscherin.

Wie verletzend und manipulierend eine falsch programmierte KI sein kann, konnten die Besucher*innen selbst ausprobieren: Mit der interaktiven Installation „Observee In Situ“ schufen der Künstler Jun Suzuki und die Künstlerin Emilia Gentis eine gruselige KI-Variante, die die Gäste scannte und ein ernüchterndes Urteil zu Aussehen, Modegeschmack oder Verdächtigkeit fällte. Die der Programmierung innewohnenden Vorurteile ließen die Gäste zusammenschrecken, regten gleichzeitig aber zum Nachdenken über mögliche Motive, potenzielle Gefahren und Risiken von KI an.