ChatGPT ist ein Meilenstein und begeistert seine Nutzer. Doch die KI-Revolution bringt eine große gesellschaftliche Aufgabe mit sich.

Falls Sie auf der Suche nach einem neuen Gesprächspartner sind oder vielleicht keine Lust haben, selbst eine Information zu einem Thema zu recherchieren: Die Firma OpenAI aus den USA hat da was für Sie. Seit Tagen fasziniert und unterhält ChatGPT, ein Textgenerator, hinter dem ein selbstlernendes neuronales Netz liegt, die Öffentlichkeit. Die Anwendung beantwortet Fragen und erstellt Texte, in bemerkenswerter Qualität.

Einige offensichtliche Schwächen hat ChatGPT. So kann das dahinter liegende Modell nicht wirklich verstehen, welche Antworten es gibt. Je nach Anfrage klingen die Antworten zwar sinnvoll, sind aber inhaltlich falsch, was lustig ist, wenn die Künstliche Intelligenz (KI) zum Beispiel Elefanten als das Säugetier identifiziert, das die größten Eier legt, aber schon deutlich kritischer bei Informationen, die nicht auf den ersten Blick als Nonsens zu erkennen sind.

Theresa Martus, Politik-Korrespondentin
Theresa Martus, Politik-Korrespondentin © Reto Klar | Reto Klar

ChatGPT macht einer Masse von Nutzern klar, was KI inzwischen kann

Und während das Programm Anleitungen für potenziell gefährliche oder kriminelle Tätigkeiten verweigert, wenn es direkt danach gefragt wird, hatten findige Tester schon nach kurzer Zeit herausgefunden, wie man ChatGPT ansprechen muss, wenn man zum Beispiel wissen will, wie man Auto kurzschließen kann.

Trotzdem gilt: ChatGPT ist erstaunlich – und macht, vielleicht zum ersten Mal, einer Masse von Anwenderinnen und Anwendern verständlich, wie weit Künstliche Intelligenz bereits gediehen ist, und welche Möglichkeiten sie bietet. Nach weniger als einer Woche hatte das Angebot eine Million Anmeldungen.

Künstliche Intelligenz hat das Potenzial, die Hierarchie von Fähigkeiten in unserer Gesellschaft auf den Kopf zu stellen. Mit bloßem Reproduzieren und Zusammensetzen von Information wird absehbar niemand mehr weit kommen. Das wirft Fragen auf für die Zukunft vieler Branchen, nicht zuletzt von Medien, aber auch zum Beispiel für den Bildungsbereich: Was müssen Schulen in Zukunft leisten und wie können sie sich darauf einstellen?

Doch das ist nicht die größte Herausforderung, die diese Entwicklung mit sich bringt. Künstliche Intelligenzen sind nur so gut wie die Informationen, mit denen sie trainiert werden. Was auch immer an Ungerechtigkeiten und systemischen Diskriminierungen in der Welt existiert, fließt sehr wahrscheinlich über die zum Training ausgewählten Daten ein in die Modelle, die künstliche Intelligenzen sich von der Welt machen, und wird von diesen wiederum fortgeschrieben.

Rassismus und Sexismus können in den KI-Modellen fortgeschrieben werden

Beispiele dafür aus der jüngsten Vergangenheit gibt es genügend: Bilderkennungssoftware etwa, die Gesichter von weißen Männern zuverlässig auseinanderhalten kann, bei Fotos von schwarzen Frauen aber versagt. Oder Algorithmen im Gesundheitsbereich, die die Notwendigkeit einer Behandlung bei unterschiedlichen Bevölkerungsgruppen unterschiedlich beurteilen, weil die zugrundeliegenden Daten spiegeln, dass es auch beim Zugang zu medizinischer Behandlung systemische Barrieren gibt.

Bei der Vergabe von Krediten, im Gesundheitswesen, in der Polizei- und Ermittlungsarbeit: Größer als das Problem gezielten Missbrauchs ist der Schaden, der dadurch entstehen kann, dass KI die Welt, wie sie sie vorfindet, reproduziert – rassistisch, sexistisch, durchzogen von Ungleichheit, wie sie derzeit an vielen Stellen ist. Das eigentliche Risiko sitzt vor dem Computer.

Der Umgang damit ist deshalb keine Frage von Technologie, sondern von Politik. Künstliche Intelligenz braucht einen regulativen Rahmen – und wie der aussehen soll, muss Gegenstand einer gesellschaftlichen Debatte sein.