Welche Fragen sich zum Einsatz von KI stellen
Künstliche Intelligenz erleichtert unseren Alltag und unser Arbeitsleben. Aber jede Medaille hat zwei Seiten – und so gibt es für den Einsatz von KI ein paar Dinge zu bedenken. Denn KI-Systeme unterscheiden sich von klassischer Software: Sie verarbeiten Unmengen von Daten, lernen selbstständig dazu und gelangen damit zu Ergebnissen, die sich nicht vorhersehen lassen. Das birgt ganz neue ethische, rechtliche und sicherheitstechnische Herausforderungen. Diese müssen wir in einer Gesellschaft gemeinsam klären, um Künstliche Intelligenz im Sinne der Menschen gestalten und nutzen zu können.
Nimmt uns KI die Jobs weg?
Bei allen Vorteilen und Erleichterungen, die KI-Systeme künftig versprechen: Ihr zunehmender Einsatz wird Arbeitsabläufe sowie die Arbeitswelt als Ganzes verändern. Sowohl in der Industrie als auch bei Dienstleistungsberufen ist zu erwarten, dass viele Routinetätigkeiten künftig durch KI erledigt werden. Zugleich entstehen neue Tätigkeiten – angefangen vom Trainieren der Algorithmen über die Interpretation und Bewertung der Vorschläge, die die KI liefert, bis hin zu Wartung, Kontrolle und Neuprogrammierung der Systeme.
Manche Fähigkeiten bleiben auch weiterhin dem Menschen vorbehalten. Dazu gehören situationsbedingtes Handeln und Kreativität. Tritt etwas nicht Einkalkuliertes ein, passen sich Menschen oft sehr schnell an, denken um und bewältigen die Situation anders als ursprünglich geplant. Maschinen stoßen hier an ihre Grenzen – auch weil ihnen Erfahrungswissen fehlt. Kreativität wiederum ist etwas, das KI nachahmen, jedoch nicht eigenständig entwickeln kann.
Kurz: KI wird den Menschen zunehmend unterstützen, aber nicht ersetzen. Ähnlich, wie bei der Einführung anderer neuer Technologien – sei es die Dampfmaschine oder das Internet.
Ist mein Job in Gefahr? Der Job Futuromat des Instituts für Arbeitsmarkt und Berufsforschung (IAB) weiß mehr.
Wie sicher sind unsere Daten?
KI lernt aus Daten. Sie sind Fundament und zugleich Achillesferse der Technologie, da sie ein Einfallstor für Missbrauch und Hackerangriffe bieten. Insbesondere wenn KI-Systeme personenbezogene oder nicht ausreichend anonymisierte Daten verarbeiten, muss sichergestellt sein, dass diese nicht für unerwünschte Zwecke verwendet, manipuliert oder gestohlen werden. Hier ein paar Beispiele:
- Ein intelligentes Roboterwerkzeug kann in naher Zukunft via Kamera beobachten, was und wie die Fabrikangestellten gerade arbeiten, um sie bestmöglich dabei zu unterstützen. Dabei muss aber ausgeschlossen sein, dass der Arbeitgeber diese Daten für eine ungerechtfertigte Leistungskontrolle nutzt.
- Für viele KI-Anwendungen ist es notwendig, dass mehrere Unternehmen ihre Daten miteinander teilen. Eine intelligente Reise-App zur Routenplanung verknüpft zum Beispiel die Informationen von diversen Verkehrsbetrieben und Carsharing-Anbietern. Dabei müssen die Eigentums- und Nutzungsrechte an den Daten unbedingt gewahrt bleiben.
Alle digitalen Technologien beruhen auf Daten, die vor Missbrauch zu schützen sind. Bei KI kommt eine weitere Bedrohung hinzu: KI-Systeme lernen selbstständig aus neuen Daten dazu. Die Ergebnisse sind für die Programmierenden kaum nachvollziehbar, der Schutz des Lernprozesses ist deshalb besonders schwierig. Verschaffen sich Hacker Zugriff zu einem KI-System und verfälschen die Daten, kann dies dazu führen, dass die KI im Einsatz Fehlentscheidungen oder falsche Vorhersagen trifft.
Verbessern lässt sich die Datensicherheit bei KI-Systemen, indem persönliche Daten pseudonymisiert oder anonymisiert werden. Auch neue Lernverfahren, die mit wenigen Trainingsdaten auskommen, erhöhen den Schutz.
KI-Systeme können nicht nur Ziel, sondern auch Werkzeug gegen Cyberangriffe sein. So kommen KI-Verfahren bereits in vielen IT-Sicherheitslösungen zum Einsatz und erhöhen die Sicherheit von Computern. Andererseits ermöglicht KI aber auch neue und effektivere Angriffsmöglichkeiten für Cyberkriminelle.
Wer haftet, wenn die KI einen Schaden verursacht?
Künstliche Intelligenz übernimmt künftig zwar viele Tätigkeiten. Inwiefern die Technologie für ihre Handlungen haftbar gemacht werden kann, ist aber noch zu klären. Menschen müssen für verursachte Schäden, etwa einen Verkehrsunfall, die rechtlichen Konsequenzen tragen – zum Beispiel in Form von Bußgeldern oder Haftstrafen. Doch wie kann man ein selbstfahrendes Auto oder ein medizinisches Assistenzsystem zur Verantwortung ziehen? Wer haftet bei einem Verkehrsunfall oder einer falschen Krankheitsdiagnose? Aktuell ist KI im rechtlichen Sinn weder eine natürliche noch eine juristische Person. Ihr fehlt damit – wie jeder Maschine oder Software – die Rechtspersönlichkeit.
Fehlfunktionen können nach deutschem Recht aktuell nur einem Menschen zugeordnet werden, der die Maschine entwickelt oder bedient. Im Sinne der Produkthaftung gilt: Der Hersteller haftet, wenn der Fehler in der Programmierung oder Produktion liegt. Hat der Nutzer das Produkt falsch oder fahrlässig verwendet, ist dieser haftbar. Neu bei KI-Systemen ist, dass sich Fehlfunktionen häufig nicht mehr auf menschliches Handeln zurückführen lassen. Denn KI kommt selbstständig zu Ergebnissen und der Weg dorthin ist von außen meist nicht mehr nachvollziehbar. Haftungsfragen sind aktuell noch nicht eindeutig geklärt – und bremsen den Einsatz von manch technologisch bereits ausgereifter Lösung aus.
Wie fair entscheiden KI-Systeme?
Entscheidungen von Computerprogrammen erscheinen faktenbasiert, objektiv und neutral. Tatsächlich aber treffen KI-basierte Systeme immer wieder problematische oder diskriminierende Entscheidungen. So etwa in den USA, wo KI-Systeme zur Bewertung der Rückfallwahrscheinlichkeit von Straftätern herangezogen wurden. Schwarze Menschen erhielten dabei durchwegs schlechtere Prognosen als weiße Menschen.
KI-Systeme sind von sich aus nicht in der Lage, moralische Entscheidungen zu treffen. Grundlage für ihre Empfehlungen sind Algorithmen und Daten, mit denen sie trainiert wurden. Letztere stammen aus der Vergangenheit und werden genutzt, um Prognosen für die Zukunft zu treffen. Diskriminierung kann dabei unter anderem wie folgt entstehen:
- Entwicklung der KI: Wählen die Programmierenden – bewusst oder unbewusst – unvollständige, verzerrte oder vorurteilsbehaftete Trainingsdaten aus, übertragen sie die in der Gesellschaft etablierten Vorurteile in die Software.
Zum Beispiel: Ein KI-System wird zum Vorsortieren von Jobbewerbungen mit den Daten der in der Vergangenheit erfolgreich eingestellten Beschäftigten trainiert. Waren diese überwiegend männlich, lernt der Algorithmus, Bewerbungen von Männern besser zu bewerten als diejenigen von Frauen. Auf technischem Wege greift das KI-System bestehende Diskriminierungen auf und verschärft diese gegebenenfalls noch. - Anwendung der KI: Dies ist der Fall, wenn die Daten, aus denen das System laufend dazu lernt, systematisch manipuliert wurden oder unbeabsichtigt verzerrt sind.
Zum Beispiel: Ein Chatbot wurde während seines Einsatzes mit fremdenfeindlichen und frauenverachtenden Konversationen gefüttert. So lange, bis er schließlich selbst diskriminierende Antworten gab.
Damit eine KI faire Ergebnisse liefert, müssen für die Programmierung der Systeme die richtigen Daten ausgewählt werden. Dazu müssen sich KI-Entwicklerinnen und -Entwickler über bestehende Diskriminierungen in unserer Gesellschaft bewusstwerden, die in Daten abgebildet sind.
Weitere Beispiele für diskriminierende KI-Systeme:
- Werbung auf Online-Suchmaschinen
- Preis- und Suchdiskriminierung im Internet
- Planung von Polizeieinsätzen / Predictive Policing
- Profiling
Wie können wir Ergebnisse von KI-Systemen nachvollziehen?
Selbstlernende Maschinen und Computerprogramme können in kürzester Zeit große Datenmengen analysieren und daraus Schlüsse ziehen – sehr viel schneller als Menschen. Am Ende dieses Prozesses steht eine Empfehlung oder Entscheidung des KI-Systems – etwa das automatisierte Fahrzeug selbstständig zu bremsen, wenn ein Kind plötzlich auf die Straße tritt. Dieser Entscheidungsweg ist für Menschen oft nicht mehr nachvollziehbar.
Transparenz ist aber wichtig, damit wir den KI-Systemen vertrauen können. Dies gilt umso mehr, je schwerer die Folgen im Falle einer falschen Entscheidung wären – etwa bei einem Unfall eines selbstfahrenden Autos oder der Fehldiagnose eines medizinischen Assistenzsystems. Um Licht in die so genannten Blackbox-Systeme im Inneren einer KI zu bringen, wird an Methoden der erklärbaren KI (engl. Explainable AI, kurz XAI) gearbeitet. Sie sucht nach Möglichkeiten, die versteckte Logik oder einzelne Entscheidungen und Empfehlungen der KI für den Menschen besser nachvollziehbar oder erklärbar zu machen. Vollständige Transparenz maschineller Entscheidungen ist aber kaum möglich.
Empfohlener redaktioneller Inhalt
An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.
Expertin zum Thema: Wie kommt Ethik in die KI?
Jessica Heesen leitet den Forschungsschwerpunkt Medienethik und Informationstechnik am Internationalen Zentrum für Ethik in den Wissenschaften der Universität Tübingen. In verschiedenen Forschungsprojekten und in der Plattform Lernende Systeme befasst sie sich mit Fragen einer wertorientierten Entwicklung von Künstlicher Intelligenz.
Im Video-Interview erläutert sie, warum ethische Werte bei der Entwicklung von KI eine Rolle spielen sollten, wo KI diskriminierende oder ungerechte Ergebnisse erzielt und was sich dagegen tun lässt.
Mehr zum Thema KI und Ethik können Sie auch im Podcast ThinkReactor erfahren.
Globale Standards für KI
Künstliche Intelligenz kann vieles. Doch nicht alles, was technologisch möglich ist, sollte auch umgesetzt werden. So können KI-Systeme in den falschen Händen beispielsweise zur Überwachung politischer Minderheiten genutzt werden. Und in jedem Anwendungsfall geben wir ein Stück menschlicher Kontrolle an die intelligenten Maschinen ab. Wo ziehen wir also die Grenze?
Wann und wie wir Künstliche Intelligenz nutzen wollen, bestimmen wir – in Form von gesetzlichen Vorschriften, freiwilligen technischen Branchen-Standards und Normen oder Selbstverpflichtungen von Unternehmen.
Die Regulierung von Künstlicher Intelligenz steht in der Europäischen Union (EU) und in Deutschland noch am Anfang. Die EU und speziell Deutschland nehmen besonders die Wahrung der Persönlichkeitsrechte und den Datenschutz bei der Entwicklung und dem Einsatz von KI in den Blick.
Ein Instrument zur Regulierung von KI ist die Zertifizierung von KI-Anwendungen, eine Art freiwilliger TÜV für Künstliche Intelligenz. Dabei prüfen unabhängige Dritte nach vorher festgelegten Kriterien, ob ein KI-System sicher und zuverlässig ist. Insbesondere die Qualität von kritischen Anwendungen, die Menschen gefährden, diskriminieren oder ihre Freiheit einschränken könnten, kann mit einem Zertifikat besiegelt werden. Eine Zertifizierung von KI wird derzeit vom Deutschen Institut für Normung e. V. (DIN) mit Beteiligung von vielen Partnern vorangetrieben.
Mythen-Check
In der Öffentlichkeit wird Künstliche Intelligenz sehr unterschiedlich wahrgenommen. Für die einen verspricht die Technologie eine Zukunft, in der uns lernende Computer die Arbeit und das Leben erleichtern und uns helfen, Ressourcen effizienter zu nutzen. Andere sehen in KI eine große Bedrohung und die menschliche Selbstbestimmung in Gefahr. Was ist dran an den widersprüchlichen Erwartungen an KI? Expertinnen und Experten der Plattform Lernende Systeme räumen an dieser Stelle mit weit verbreiteten KI-Mythen auf.