Skip to main content

Künstliche Intelligenz und Ethik

Der Gedanke, dass Technologien und künstliche Intelligenzen über unser Leben bestimmen, werfen ethische Fragen auf. Doch wie lässt sich ein verantwortungsvoller Umgang mit diesen selbstlernenden Systemen regeln? Im Folgenden stellen wir Ihnen aktuelle ethische Überlegungen zu KI vor und gehen dabei auf einzelne Gesellschaftsbereiche ein. Wir beleuchten aktuelle Antworten sowie zukünftige Entwicklungen und Herausforderungen.

In den vergangenen Jahren hat die Künstliche Intelligenz (KI) signifikante Fortschritte erzielt und ist zu einem integralen Bestandteil unseres täglichen Lebens geworden. Die Anwendungsbereiche künstlicher Intelligenz sind vielfältig. Sie erstrecken sich von Sprachassistenten über personalisierte Werbung bis hin zu komplexen medizinischen Diagnosen. Mit der fortschreitenden Entwicklung dieser Technologien werden jedoch auch ethische Fragen aufgeworfen: In welchem Umfang sollten wir KI einsetzen? Wer trägt die Verantwortung, wenn etwas schiefläuft? Und wie können wir sicherstellen, dass KI-Systeme fair und gerecht handeln? Wie können wir die Technologie nutzen, ohne die Kontrolle zu verlieren, und sicherstellen, dass sie dem Wohl der Menschheit dient?

Allgemeine ethische Fragen zu Künstlicher Intelligenz

Die tiefgreifenden Veränderungen, die diese Technologie in unserer Gesellschaft bewirkt, werfen ethische Fragen auf, die sich in mehrere Themenbereiche unterteilen lassen:

Verantwortung

KI-Systeme besitzen die Fähigkeit, autonome Entscheidungen zu treffen, was die Frage aufwirft, wer die Verantwortung trägt, wenn diese Entscheidungen zu Fehlern oder Schäden führen. Die eindeutige Zuteilung von Verantwortung erweist sich insbesondere bei komplexen und intransparenten Entscheidungsprozessen als anspruchsvoll. Dies bedingt die Entwicklung neuer Ansätze hinsichtlich der Haftung und Verantwortung von Entwicklern, Nutzern und Betreibern von KI-Systemen.

Datenschutz und geistiges Eigentum

Für ihre Funktionalität benötigen KI-Systeme große Mengen an Daten, oft einschließlich persönlicher und sensibler Informationen, was die Frage aufwirft, wie mit diesen Daten adäquat umgegangen werden kann. Dies wirft erhebliche Fragen des Datenschutzes auf, da sichergestellt werden muss, dass die Daten ethisch korrekt gesammelt, gespeichert und genutzt werden. Es besteht das Risiko eines Missbrauchs persönlicher Daten oder einer unbefugten Zugänglichkeit derselben. Des Weiteren ist zu eruieren, ob ein neues Urheberrecht erforderlich ist, sowohl hinsichtlich der Quelle von Daten als auch bezüglich neu geschaffener Werke.

Zuverlässigkeit

Entwickler sind dazu verpflichtet, die Verlässlichkeit und Vorhersagbarkeit von KI-Anwendungen sicherzustellen, um konsistente und präzise Ergebnisse zu gewährleisten. Ein weiteres Problem, mit dem große Sprachmodelle derzeit noch häufig konfrontiert sind, sind sogenannte Halluzinationen. Hierbei generieren die Systeme falsche oder erfundene Informationen, was die Zuverlässigkeit der Ergebnisse beeinträchtigt. Diesbezüglich ist insbesondere die zeitliche Dimension von Transparenz und Nachvollziehbarkeit von Relevanz. Dies kann zu gravierenden Fehlern führen, was wiederum das Vertrauen in die Technologie untergräbt.

Transparenz und Nachvollziehbarkeit

Die Nachvollziehbarkeit von Entscheidungsprozessen ist ein wesentlicher Aspekt der Transparenz. In vielen Fällen sind die zugrundeliegenden KI-Algorithmen jedoch als „Black Boxes“ konzipiert, was die Nachvollziehbarkeit für Außenstehende erheblich erschwert. Die Intransparenz der Entscheidungsprozesse kann dazu führen, dass Anwender die Gründe für getroffene Entscheidungen nicht nachvollziehen können. In der Konsequenz besteht das Risiko, dass Fehlentscheidungen nicht erkannt und korrigiert werden können. Des Weiteren kann dies das Vertrauen der Benutzer in die Technologie erheblich beeinträchtigen.

Bias, Diskriminierung und Fairness

KI-Systeme neigen dazu, bestehende Vorurteile in den Daten, mit denen sie trainiert wurden, zu reproduzieren und dadurch diskriminierende Entscheidungen zu treffen. Dies betrifft insbesondere sensible Bereiche wie beispielsweise Bewerbungsverfahren, die Vergabe von Krediten oder Entscheidungen im Kontext der Strafjustiz. Es ist von entscheidender Bedeutung, Mechanismen zu entwickeln, die es ermöglichen, Bias zu erkennen, zu minimieren und sicherzustellen, dass KI fair und gerecht handelt.

Gesellschaftliche und wirtschaftliche Auswirkungen

Der Einsatz von KI wird tiefgreifende Auswirkungen auf den Arbeitsmarkt und die Wirtschaft haben. Einerseits besteht die Möglichkeit, dass Arbeitsplätze durch Automatisierung verloren gehen, andererseits können neue Tätigkeitsfelder und wirtschaftliche Chancen entstehen. Es ist erforderlich, diese Entwicklungen sorgfältig zu evaluieren und Strategien zu konzipieren, um soziale Disparitäten zu vermeiden und die Vorteile der KI für die Gesellschaft zu optimieren.

Beispiele ethischer Fragen in Branchenbereichen

Anhand von Beispielen wollen wir nun die oben genannten ethischen Fragen einmal exemplarisch anwenden. Dabei betrachten wir die Bereiche medizinische Versorgung, öffentliche Verwaltung sowie Banken und Versicherungen. Diese Beispiele sollen dabei exemplarisch für eine Vielzahl von Anwendungsfällen stehen, die uns im Agenturalltag begegnen.

Medizinische Versorgung: KI-gestützte Diagnoseplattform

Eine Klinik setzt eine neue KI-gestützte Plattform ein, um Hautkrebs zu diagnostizieren. Diese Plattform verwendet KI zur Analyse von Hautläsionen und zur Bestimmung, ob diese bösartig sind oder nicht.

Datenschutz und Vertraulichkeit: Um ihre Algorithmen zu trainieren und weiterzuentwickeln, benötigt die Plattform umfangreiche Bilddaten und Patientenhistorien. Dies wirft die Frage auf, wie diese sensiblen Daten sicher gespeichert werden und wer darauf zugreifen kann. Datenschutzverletzungen könnten dazu führen, dass vertrauliche Patientendaten in unbefugte Hände gelangen.

Bias und Diskriminierung: Die Verwendung von Trainingsdaten, die hauptsächlich von Personen einer bestimmten Bevölkerungsgruppe stammen, beispielsweise von hellhäutigen Personen, kann zu Schwierigkeiten bei der korrekten Diagnose von Hautkrebs bei Menschen mit anderen Hauttypen durch künstliche Intelligenz führen. Dies kann zu einer ungleichen Behandlung sowie suboptimalen Resultaten für die betreffende Bevölkerungsgruppe führen.

Transparenz und Nachvollziehbarkeit: Die Entscheidungsprozesse der KI sind für Außenstehende oft nur schwer nachzuvollziehen. Die Nachvollziehbarkeit der Entscheidungsprozesse der KI könnte für Ärzte und Patienten erschwert sein, was das Vertrauen in die Technologie beeinträchtigen könnte. Dies kann insbesondere dann problematisch sein, wenn die KI eine Fehlentscheidung trifft.

Verantwortlichkeit und Haftung: Die Frage der Verantwortlichkeit und Haftung ist ebenfalls von Relevanz. So ist bislang unklar, wer die Verantwortung übernimmt, sollte die KI eine falsche Diagnose stellen und ein Patient dadurch einen Schaden erleiden. Es stellt sich die Frage, ob die Verantwortung beim Entwickler der Plattform, beim Krankenhaus, das die Technologie einsetzt, oder beim Arzt, der sich auf die KI verlässt, liegt.

Zugang und Ungleichheit: Die Einführung dieser fortschrittlichen Technologie könnte in wohlhabenden Ländern schneller erfolgen als in weniger wohlhabenden Regionen, was bestehende Ungleichheiten im Gesundheitswesen weiter verschärfen könnte. Diese Problematik ist ebenfalls im Kontext des Zugangs zum Gesundheitssystem innerhalb der Staaten von Relevanz.

Arbeitsplatzsicherheit: Es besteht die Möglichkeit, dass Ärzte und Dermatologen besorgt sind, dass ihre Position durch die KI gefährdet wird, was potenziell zu Widerstand gegen die Einführung der Technologie führt. Zusätzlich könnten neue Schulungen und Weiterbildungen erforderlich sein, um das medizinische Personal im Umgang mit der neuen Technologie zu befähigen.

 

Öffentliche Verwaltung: KI-gestützte Plattform zur Bearbeitung von Bürgeranfragen

Im Rahmen der Digitalisierung von Verwaltungsprozessen implementiert eine Stadtverwaltung eine neue KI-gestützte Plattform, welche die effiziente Bearbeitung von Bürgeranfragen zum Ziel hat. Die Plattform basiert auf maschinellem Lernen, wodurch Anfragen automatisch kategorisiert und den zuständigen Abteilungen zur Bearbeitung zugewiesen werden.

Bias und Diskriminierung: Die Effizienz und Genauigkeit der Bearbeitung von Anfragen durch die KI-Modelle könnte beeinträchtigt werden, wenn die Trainingsdaten für die Plattform überwiegend aus bestimmten Stadtteilen oder von spezifischen Bevölkerungsgruppen stammen. Dies könnte eine Ungleichbehandlung der Bürger zur Folge haben.

Verantwortlichkeit und Haftung: Sollte die KI eine falsche Entscheidung treffen, etwa eine dringende Anfrage als unwichtig einstufen, was zu Verzögerungen bei der Bearbeitung führt, ist unklar, wer zur Rechenschaft gezogen wird. Diesbezüglich sind verschiedene Akteure betroffen, darunter die Entwickler der Plattform, die Stadtverwaltung sowie die jeweiligen Mitarbeitenden.

Einwilligung und Aufklärung: Die Bürger müssen darüber in Kenntnis gesetzt werden, dass ihre Anfragen teilweise oder vollständig von einer KI bearbeitet werden. Zudem ist es erforderlich, dass sie die Funktionsweise der Technologie sowie die damit verbundenen Risiken und Vorteile verstehen. Dies bedingt eine transparente und nachvollziehbare Kommunikation seitens der Verwaltung.

Banken: KI-gestützte Plattform zur Kreditvergabe

Im Rahmen der kontinuierlichen Verbesserung ihrer Prozesse entwickelt eine Bank eine Lösung, um den Prozess der Kreditvergabe zu optimieren. Die Bewertung der Kreditwürdigkeit von Antragstellern erfolgt unter Zuhilfenahme künstlicher Intelligenz, woraufhin die Entscheidung über die Genehmigung von Krediten automatisiert getroffen wird.

Datenschutz und Vertraulichkeit: Die Verwendung von Trainingsdaten, welche überwiegend von bestimmten demografischen Gruppen stammen, könnte zu ungenauen oder ungerechten Entscheidungen bei der Bewertung von Kreditanträgen anderer Gruppen führen. Dies könnte zu einer diskriminierenden Kreditvergabe führen, wodurch bestimmten Bevölkerungsgruppen der Zugang zu Krediten erschwert würde.

Bias und Diskriminierung: Wenn die Trainingsdaten der KI überwiegend von bestimmten demografischen Gruppen stammen, könnte die Plattform bei der Bewertung von Kreditanträgen anderer Gruppen ungenaue oder ungerechte Entscheidungen treffen. Dies könnte zu einer diskriminierenden Kreditvergabe führen und bestimmten Bevölkerungsgruppen den Zugang zu Krediten erschweren.

Zuverlässigkeit: Banken und das Finanzsystem im Allgemeinen basieren auf dem Prinzip des Vertrauens. Potenzielle Elemente, die das Vertrauen, welches eine essentielle Grundlage für das Funktionieren des Finanzsystems darstellt, nachhaltig erschüttern oder gar gänzlich zerstören, stellen eine signifikante Gefahr für das gesamte System dar. Die Entscheidung einer KI, die in Form einer „Back-box” weitreichende Entscheidungen trifft, kann zu einer Beeinträchtigung der Transparenz und zu einem Vertrauensverlust führen. KI-Systeme analysieren hauptsächlich quantitative Daten wie Einkommen, Kreditgeschichte und Schuldenstand. Qualitative Faktoren können jedoch nicht berücksichtigt werden, was zu einer verminderten Kontextsensitivität führt.

Welche Antworten gibt es aktuell auf ethische Fragen in Bezug auf KI?

Die genannten ethischen Fragen werden bereits seit geraumer Zeit von verschiedenen gesellschaftlichen Akteuren diskutiert. Dabei wurden bereits Antworten auf einige dieser Fragen entwickelt. Diese Antworten reichen von klaren rechtlichen Vorgaben über lose Richtlinien bis hin zu freiwilligen Selbstverpflichtungen von privaten Unternehmen und Organisationen. 

Richtlinien und Gesetze

Viele Organisationen und Regierungen haben ethische Richtlinien für die Entwicklung und Nutzung von KI erstellt. Bereits seit 2019 gibt es die "Ethical Guidelines for Trustworthy AI" der Europäischen Kommission und die Prinzipien des IEEE (Institute of Electrical and Electronics Engineers) für ethisches Design. Der AI-Act der Europäischen Union aus dem Jahr 2024 ergänzt diese, indem er klare Anforderungen und Verpflichtungen festlegt, um sichere und vertrauenswürdige KI-Systeme in der EU zu gewährleisten. Mehr Informationen zum AI-Act finden Sie auch in unserem Blog.

Transparenz und Erklärbarkeit

Transparenz in den Algorithmen und Entscheidungsprozessen von KI-Systemen ist entscheidend. Werkzeuge wie "Explainable AI" (XAI) ermöglichen es, die Entscheidungen von KI-Systemen nachvollziehbar zu machen. Diese Werkzeuge helfen, komplexe Modelle wie neuronale Netze verständlicher zu gestalten, indem sie Entscheidungswege und Gewichtungen der Modelle offenlegen. Weitere Beispiele dafür sind "LIME" (Local Interpretable Model-agnostic Explanations), das die Einflüsse einzelner Variablen auf die Modellentscheidungen visualisiert, und "SHAP" (SHapley Additive exPlanations), das die Beitragswerte der einzelnen Merkmale zu den Vorhersagen zeigen kann. 

Datenethik, Datenschutz und Urheberrecht

Datenschutzgesetze wie die DSGVO (Datenschutz-Grundverordnung) in Europa setzen Standards für den Umgang mit Daten, die auch bei KI-basierten Lösungen Anwendung finden. Insbesondere bei Cloud-Lösungen mit Servern außerhalb der EU kann das jedoch unzureichend sein. Einen globalen gesetzlichen Rahmen gibt es hier bisher nicht. Ein globaler Ansatz im Bereich des Urheberrechts ist hingegen die Nutzung von Creative Commons (CC) Lizenzen. Damit können klare Nutzungsbedingungen für digitale Inhalte festgelegt werden, die von KI-Modellen genutzt werden können. Creative Commons ermöglicht es Urhebern, genau anzugeben, wie ihre Werke verwendet, verändert und weiterverbreitet werden dürfen. Allerdings bietet CC zunächst nur einen möglichen Rahmen. Darüber hinaus bedarf es spezifischer Regelungen und Technologien zur Lizenzierung, Nachverfolgung und gerechten Vergütung für die Nutzung digitaler Inhalte in KI-Modellen.

Bias-Detektion und -Minderung

Werkzeuge zur Erkennung und Minderung von Verzerrungen (Bias) in den Datensätzen und Algorithmen sind wichtig, um faire und unvoreingenommene KI-Systeme zu gewährleisten. IBM’s AI Fairness 360  und Google’s What-If Tool sind zwei Open Source Beispiele solcher Werkzeuge. AI Fairness 360 bietet Metriken und Algorithmen zur Korrektur von Bias, während das What-If Tool hypothetische Szenarien testet und die Auswirkungen auf Modelle visualisiert. Eine ganzheitliche Strategie zur Bias-Minderung umfasst repräsentative Datensammlung, algorithmische Fairness, Transparenz und kontinuierliche Überprüfung.

Ethikkommissionen und Audits

Die Einrichtung von Ethikkommissionen und regelmäßige ethische Audits sind ein weiteres Instrument, um die Einhaltung ethischer Standards in der Entwicklung und Anwendung von KI zu gewährleisten. Der Ethikrat der Bundesrepublik Deutschland beschäftigt sich spätestens seit 2020 intensiv mit dem Thema. Aber auch Unternehmen wie Microsoft und Google setzen sich intensiv mit den ethischen Fragen in der Anwendung von KI auseinander, haben entsprechende Maßnahmen implementiert und veröffentlichen regelmäßig Berichte darüber. Zudem wissen wir aus unserer Arbeit mit Kunden, dass auch kleinere und mittlere Unternehmen sowie Behörden und andere Institutionen sich im Rahmen von Kommissionen und Arbeitsgruppen intensiv mit dem Thema beschäftigen.

Zusammenfassung und Ausblick

Die konkrete Anwendung Künstlicher Intelligenz (KI) hat in den vergangenen Jahren signifikante Fortschritte erzielt, wobei sich zugleich eine Vielzahl neuer Fragestellungen ergeben hat. Die Frage nach der Verantwortung für die getroffenen Entscheidungen ist von zentraler Bedeutung. In diesem Kontext stellt sich die Frage, auf welche Weise ein adäquater Schutz der Daten sowie des geistigen Eigentums gewährleistet werden kann. Es stellt sich die Frage, wie sichergestellt werden kann, dass die Systeme nicht intransparent arbeiten und voreingenommen urteilen. 

Die Beantwortung der aufgeworfenen Fragen ist jedoch nicht allein eine technische und regulatorische Herausforderung. Vielmehr gilt es, auch die tiefgreifenden gesellschaftlichen und wirtschaftlichen Auswirkungen zu berücksichtigen, die sich derzeit noch nicht vollumfänglich abschätzen lassen. Diesbezüglich werden neue politische Antworten erforderlich sein. 

Mit der zunehmenden Leistungsfähigkeit der Systeme gewinnen ethische Fragen rund um den Einsatz von KI zunehmend an Bedeutung. Derzeit sind wir hauptsächlich mit teilautomatisierten Systemen konfrontiert, bei denen zwar einzelne Schritte durch KI-Lösungen übernommen oder unterstützt werden, die meisten relevanten Entscheidungen jedoch nach wie vor von qualifizierten und berechtigten Menschen getroffen werden.

Mit der fortschreitenden Entwicklung hin zu vollautomatisierten Systemen wird die Notwendigkeit für klare ethische Richtlinien und Regularien weiter zunehmen. Es ist von entscheidender Bedeutung, effektive Mechanismen zur Verantwortung und Haftung zu etablieren, um potenzielle Missbrauchsfälle und Fehlentscheidungen zu vermeiden. In Zukunft muss sichergestellt werden, dass KI-Systeme transparent und nachvollziehbar sind, um das Vertrauen und die Akzeptanz in der Gesellschaft zu stärken. Zudem ist eine Zusammenarbeit zwischen Regierungen, Industrie und Forschungseinrichtungen erforderlich, um die Entwicklung und Implementierung fairer, sicherer und ethisch vertretbarer KI-Systeme zu fördern.

 

Datum: 25.07.2024

Bild generiert über KI via Canva Pro

Autor

Andreas Nehls

Andreas unterstützt die Neofonie Gruppe seit März 2024 als Account Manager. Aus den Gesprächen mit aktuellen und potenziellen Kunden sowie Veranstaltungen rund um die Themen KI, Digitalisierung, Projektmanagement und Innovation ergeben sich immer wieder spannende Themen, über die er hier schreibt. Dabei liegt der Fokus weniger auf technischen Details, sondern vielmehr auf den geschäftlichen, rechtlichen und regulatorischen Aspekten.