Berlin. Künstliche Intelligenz durchzieht immer mehr Bereiche des Alltags. Das hat viele Vorteile - aber auch Fallstricke, sagt der Ethikrat.

Die Macherinnen und Macher von ChatGPT, der künstlichen Intelligenz, die vor Weihnachten durch ein auffällig menschennahes Gesprächsverhalten Wellen machte, haben vor ein paar Tagen nachgelegt: GPT-4, wie das jüngste Projekt von OpenAI heißt, kann noch mehr: Ein Demonstrationsvideo zeigte kürzlich, wie das Programm basierend auf einer fotografierten handschriftlichen Skizze eine ganze Website entwarf und programmierte.

Doch auch jenseits spektakulärer Neuerungen ist künstliche Intelligenz längst angekommen. Inzwischen sind Anwendungen, die auf maschinelles Lernen und Algorithmen zurückgreifen, in weite Teile unseres Alltags verwoben – so großflächig, dass sich der Deutsche Ethikrat jetzt ausführlich mit dem Thema beschäftigt hat.

Künstliche Intelligenz erreiche inzwischen „nahezu alle, ob uns das nun klar ist oder nicht“, sagte die Ethikrat-Vorsitzende Alena Buyx am Montag in Berlin. Deshalb müsse man sich als Gesellschaft die Frage stellen, „wo wollen wir das und wo nicht, und warum“, so Buyx. Im Kern geht es darum, wie viel Macht die Maschinen haben sollen. Und wie viel Begrenzung ist nötig?

Empfohlener externer Inhalt
An dieser Stelle befindet sich ein externer Inhalt von X, der von unserer Redaktion empfohlen wird. Er ergänzt den Artikel und kann mit einem Klick angezeigt und wieder ausgeblendet werden.
Externer Inhalt
Ich bin damit einverstanden, dass mir dieser externe Inhalt angezeigt wird. Es können dabei personenbezogene Daten an den Anbieter des Inhalts und Drittdienste übermittelt werden. Mehr dazu in unserer Datenschutzerklärung

Für Künstliche Intelligenz müssen Grenzen gelten

Die Antwort kann nach Einschätzung des Ethikrats von Fall zu Fall stark variieren. Gelten müsse dabei aber immer: „Der Einsatz von KI, die Delegation an die Maschine, muss menschliche Entfaltung, Autorschaft, Handlungsmöglichkeiten erweitern und darf sie nicht vermindern“, sagt Buyx. „In diesem Sinne kann und darf KI den Menschen nicht ersetzen.“

Wie das konkret aussehen kann, haben sich die Ratsmitglieder in den Bereichen Medizin, Bildung, öffentliche Kommunikation und öffentliche Verwaltung angeschaut. Für unterschiedliche Anwendungen müssten dabei unterschiedliche Grenzen gelten, so der Rat.

Ethikrat-Vorsitzende Alena Buyx erklärt die Vor- und Nachteile künstlicher Intelligenz.
Ethikrat-Vorsitzende Alena Buyx erklärt die Vor- und Nachteile künstlicher Intelligenz. © epd | Christian Ditsch

Auch interessant: ChatGPT - dieser Mann steckt hinter dem Erfolg der KI

In der Medizin etwa haben Anwendungen von Künstlicher Intelligenz die Entdeckungsquote von Tumoren bei einigen Krebsarten deutlich verbessern können. Und wo KI-Verfahren sich als überlegen erwiesen haben, so der Ethikrat, müsse dann auch sichergestellt werden, dass diese allen einschlägigen Patientengruppen zur Verfügung stehen. Eine vollständige Ersetzung von Ärztinnen und Ärzten durch ein KI-System aber „gefährdet unserer Ansicht nach das Patientenwohl“, sagte Vorsitzende Buyx.

KI kann bestehende Ungerechtigkeiten weiterverbreiten

Doch es gibt auch Fragestellungen, die sich quer durch alle Anwendungsfelder künstlicher Intelligenz ziehen – etwa die nach negativen Folgen für Einzelne, die eine künstliche Intelligenz in eine bestimmte Gruppe einsortiert. Die Bildung von Kohorten innerhalb großer Datenmengen könne die Qualität und Effektivität einer Anwendung verbessern, heißt es im Text. „Sie kann aber auch Probleme für Individuen bedeuten, welche von solchen kollektiven Schlüssen betroffen sind – insbesondere dann, wenn die statistisch getroffene Diagnose oder Prognose in ihrem Fall nicht zutrifft“.

Problematisch wäre das zum Beispiel in der Polizeiarbeit, wo künstliche Intelligenz unter dem Schlagwort „Predictive Policing“ eingesetzt werden kann, um Prognosen zu möglichen künftigen Straftaten, straffälligen Personen und Tatorten zu erstellen. Falsche Klassifizierungen von Personen können hier tiefgreifende Auswirkungen haben, warnt der Ethikrat. „Wenn eine Software vorhersagt, dass eine Person zu 99 Prozent straffällig wird, so können wir eben niemals wissen, ob die Person vor uns nicht genau das eine Prozent ist“, sagt Judith Simon, Professorin für Ethik in der Informationstechnologie an der Universität Hamburg.

Lesen Sie auch: ChatGPT und Co.: Updates kommen – diese Neuerungen erwartet die Nutzer

Durch die verwendeten Daten würden oftmals existierende gesellschaftliche Ungleichheiten und Ungerechtigkeiten reproduziert und durch den Einbau in „scheinbar neutrale“ Entscheidungssysteme fortgeschrieben, sagt Simon. Gerade in staatlichen Kontexten und bei Entscheidungen, die eine hohe Tragweite haben, müssten deshalb Risiken der Diskriminierung minimiert und Nachvollziehbarkeit gewährleistet werden.

Viele Jobs werden durch KI einfacher werden – oder überflüssig

Regulierungsbedarf sehen auch die, die das Feld vorantreiben: „Die Geschichte lehrt uns, dass transformative Technologien wie KI neue Regeln erfordern“, sagt Marianne Janik, Vorsitzende der Geschäftsführung von Microsoft Deutschland, dieser Redaktion. „Wir müssen natürlich sicherstellen, dass jede Innovation im Bereich der KI verantwortungsvoll erfolgen muss. Dies wird bei leistungsstarken, neuen Technologien wie der generativen KI noch wichtiger.“

Und die kommenden Generationen, davon ist Janik überzeugt, werden bisherige Anwendungen in ihrer Leistungsfähigkeit noch in den Schatten stellen. Gerade erst hat ihr Unternehmen weitere Milliarden in die Hand genommen, um in OpenAI zu investieren. Janik ist sich sicher: „Künstliche Intelligenz wird die Art und Weise, wie wir mit Computern interagieren, grundlegend verändern.“ Auch die Art, wie Menschen arbeiten, werde sich durch die KI fundamental verändern – Janik spricht von einer „Produktivitätswelle“. Mitarbeiter müssten künftig etwa weniger Zeit mit dem Suchen von Informationen verbringen, sondern könnten direkt Antworten auf Fragen bekommen.

Wird KI uns also irgendwann unsere Jobs stehlen? Nein, sagt Merle Uhl, Bereichsleiterin für Künstliche Intelligenz beim Branchenverband Bitkom. „KI kann heute schon Tätigkeiten in der Arbeitswelt ersetzen, aber keine Menschen“, sagt sie und verweist ebenfalls auf den Fachkräftemangel. Und sie betont: „KI ist nicht dafür da, irgendjemanden etwas wegzunehmen, sondern um zu gestalten und das Leben zu erleichtern.“

Ihre Vision für die Zukunft macht sie an einem Beispiel fest: „Vielleicht werden Journalisten in Zukunft nicht mehr den ganzen Text schreiben, sondern die KI schreibt einen ersten Text vor und der Journalist schaut dann drüber und passt kritische Stellen an – das spart extrem viel Zeit. Aber es werden nicht nur einfache Hilfsarbeiten sein; die KI wird zum Kollegen und sicher auch ganz beeindruckende Dinge schaffen.“

Die Politik versucht einen Balance-Akt zwischen Potenzial und Regulierung

Ob und in welchem Umfang KI reguliert werden müsse, hänge von den Einsatzbereichen ab, sagt Uhl. „Wichtig dabei ist, dass wir schauen: In welchen Anwendungsbereichen gehen Risiken von KI aus – dort muss reguliert werden, aber nicht die Technologie als solche.“

Die Vorteile zu ermöglichen, ohne dabei die Risiken aus dem Blick zu verlieren -- es ist ein Balance-Akt, den die Politik versucht. Künstliche Intelligenz könne Märkte effizienter machen und so zum Beispiel zu besseren Angeboten führen, „zum Beispiel bei der Kreditwürdigkeitsprüfung, zur Festlegung von Versicherungsprämien oder auf Online-Marktplätzen“, sagt Christiane Rohleder, Staatssekretärin im Ministerium für Umwelt und Verbraucherschutz. Aber sie könne eben auch zur Verstärkung von Vorurteilen und Diskriminierung führen und Verbraucherinnen und Verbraucher von Teilhabe ausschließen. Erforderlich seien deshalb „klare Regelungen“, sagt sie. „KI-Systeme müssen vor dem Einsatz am Markt klug trainiert, konstant evaluiert und überprüfbar werden.“

Die Bundesregierung unterstütze deshalb die KI-Verordnung, an der derzeit auf EU-Ebene gearbeitet wird. Angefangen hat der Prozess dazu lange, bevor ChatGPT online ging.