KI und digitale Ethik: Der verantwortungsvolle Umgang mit dem Gamechanger

Von der unbewussten Nutzung im Alltag bis zur Automatisierung von Arbeit: KI wird weitreichend genutzt. Welche Chancen, Veränderungen und Risiken sich hinter der Technologie verbergen und wieso eine gesetzliche Regelung wie der AI Act notwendig ist, das verrät uns Herr Prof. Dr. René Peinl, Leiter der Forschungsgruppe Systemintegration am angegliederten Institut für Informationssysteme der Hochschule Hof, in einem Experteninterview.

Mittlerweile ist KI viel mehr als nur ein technologischer Trend, sie wurde zum Gamechanger in vielen Bereichen. Als Hilfestellung zum Verfassen von Texten, der Erstellung von Bildmaterial oder der generellen Sammlung von Wissen: Firmen, Studierende, Privatpersonen oder Selbständige nutzen KI zunehmend. Auch in vielen Alltagsanwendungen ist KI bereits integriert, von Navigationssystemen bis hin zu Einkaufsempfehlungen. Algorithmische Entscheidungsfindung (ADM) ist mittlerweile eine feste Größe in unserer Wirklichkeitswelt. KI bietet viel Potenzial für Verbesserungen und Erleichterungen, aber auch für Missbrauch. Daher gewinnt eine wertorientierte und verantwortungsvolle Nutzung von KI, die digitale Ethik, in diesem Kontext immer mehr an Notwendigkeit.

Dazu soll der sogenannte AI Act dienen, mit dem die EU die gesetzlichen Rahmenbedingungen für die Nutzung von Künstlicher Intelligenz schaffen will. Der AI Act teilt KI-Systeme nach ihrem potenziellen Risiko in Kategorien ein:
  • Inakzeptables Risiko: KI-Systeme, die ein erhebliches Risiko haben, Menschenrechte und Grundprinzipien zu verletzen, sollten verboten werden.
  • Hohes Risiko: KI-Systeme, die ein hohes Risiko für die Verletzung von Gesundheit, Sicherheit und Grundprinzipien haben, sollen reguliert werden.
  • Begrenztes Risiko: Betrifft KI-Systeme, die mit Menschen interagieren. Nutzer:innen müssen über die Anwendung von KI informiert werden.
  • Niedriges Risiko: KI-Systeme, die nicht beschränkt werden müssen, bei denen aber eine Dokumentation notwendig ist, wie beispielsweise Spamfilter.
Derzeit werden im EU-Parlament weitere Punkte zum AI Act aufgenommen. Eventuell kann eine Verabschiedung schon 2024 erfolgen. Eine Einordnung der Themen wertorientierter Umgang und digitale Ethik gibt uns Herr Prof. Dr. René Peinl der Hochschule Hof in einem Experteninterview, welches im Rahmen des Praxisprojekts mit der Hochschule Hof entstanden ist.
Experten-Interview mit Prof. Dr. René Peinl
Head of Institute for Information Systems,
Hochschule Hof
Projektteam: Hallo, Herr Prof. Dr. Peinl. Beginnen wir einmal damit, welche Herausforderungen und Bedenken sich grundsätzlich beim Einsatz von KI in Verbindung mit Datenschutz, Qualität und Ethik ergeben. Was können Sie uns dazu sagen?
Prof. Dr. Peinl: Die Gesetzgebung vernachlässigt oft die Bedeutung von Daten bei der Entwicklung von KI. Dabei ist es wichtig, die Auswirkungen der verwendeten Daten auf die Betroffenen zu verstehen, zum Beispiel: der Einsatz professioneller Sprecher für KI-Daten kann bei der Spracherkennung neue Chancen für Spracherkenner bieten und bei Sprachsynthese Arbeitslosigkeit für die Sprecher bedeuten. Die gesetzlichen Regelungen behandeln Szenarien und Anwendungsfälle nicht differenziert, insbesondere die DSGVO betrachtet Sprachdaten als personenbezogene Daten und verbietet deren Nutzung. Das führt zu einer verpassten Chance für KI-Unternehmen in Deutschland im Vergleich zu anderen Ländern, in denen die Regulierung weniger streng ist. Ebenso ergeben sich Schwierigkeiten beim Einsatz von generativer KI, die Künstler arbeitslos machen oder zu gefälschten Bildern oder Fake News führen können. Es wäre also notwendig, generative KI anders zu behandeln als erkennende KI (außer zur Überwachung), insbesondere im Hinblick auf ethische Fragen.
Um die Nutzung von KI zu regulieren, hat die EU 2022-23 den „AI Act“, das global erst umfassende AI-Gesetz, entwickelt. Wie anspruchsvoll ist dessen Umsetzung und Einhaltung?

Prof. Dr. Peinl: Die darin integrierte Risikoabschätzung wird als positiver Schritt angesehen, da sie sich auf die Auswirkungen konzentriert und nicht nur auf die Datenerhebung. Es gibt Beispiele und Diskussionen in Gesetzestexten über die Einstufung von generativer KI in Risikoklassen, aber keine eindeutige Einigung. Nun stehen Unternehmen vor der Herausforderung, ihre Produkte und Projekte angemessen in Risikoklassen einzustufen und dies im Zweifelsfall vor Gericht verteidigen zu müssen. Die größte Herausforderung besteht am Ende darin, eine verlässliche Einschätzung zu erhalten und sich entsprechend abzusichern.

Und wie können wir uns absichern bzw. sicherstellen, dass persönliche Daten bei der Anwendung von KI-Algorithmen ausreichend geschützt sind?
Prof. Dr. Peinl: Es gibt hierzu verschiedene Vorschläge zum Umgang mit dem Datenschutz, wie „Privacy by Default“ und „Privacy by Design“, die bei der Softwareentwicklung berücksichtigt werden sollten. Dies beinhaltet die Anonymisierung von Daten durch Entfernung nicht unbedingt erforderlicher, personenbezogener Informationen. Beschreibende Attribute über die betroffene Person können ausreichend sein. Beispielsweise kann die genaue Adresse durch eine Postleitzahl oder ein Gebietscluster ersetzt werden. Außerdem muss sichergestellt werden, dass die Daten nicht mehr personenbezogen oder personenbeziehbar sind. Es wurden sogar Algorithmen entwickelt, um die Anzahl der Individuen in einem bestimmten Gebiet zu überprüfen und gegebenenfalls die Daten zu verfälschen, um eine Zuordnung zu Personen zu verhindern. Solche Mechanismen können zum Schutz personenbezogener Daten beitragen. Es wird betont, dass Datenschutzprinzipien wie Datensparsamkeit eingehalten werden sollten, insbesondere bei Anwendungen, die während der Nutzung Daten sammeln. In der Online-Medienindustrie, insbesondere in den USA, ist es allerdings eher die Regel, dass Daten grundsätzlich erhoben werden, es sei denn, der Nutzer widerspricht ausdrücklich. Andernfalls kann der Zugang zum Dienst eingeschränkt werden. Dies wird oft damit begründet, dass es technisch nicht anders möglich sei, was aber in der Regel nicht zutrifft.
Das stellt sich schnell die Frage, was richtig und was falsch ist. Inwieweit sind also ethische Überlegungen bei der Entwicklung von KI-Systemen wichtig?
Prof. Dr. Peinl: In unserer Gesellschaft sind ethische Fragen oft mit Herausforderungen verbunden, da rechtliche Normen und ethische Maßstäbe nicht immer übereinstimmen. Die Definition ethischer Prinzipien ist komplizierter und wird durch gesellschaftliche Meinungsverschiedenheiten erschwert. Ethisches Handeln orientiert sich häufig an rechtlichen Grenzen, indem Grauzonen und Gesetzeslücken ausgenutzt werden. So kann Gewinnstreben zu Geschäftsmodellen führen, die auf ethischen Grenzüberschreitungen beruhen. Die Verbindung von Ethik und Kapitalismus ist schwierig, und in einigen Fällen wird Ethik eher als Deckmantel benutzt, wenn sie wirtschaftlichen Interessen dient. Zum Beispiel betonen Unternehmen manchmal ihre datensparsamen Praktiken, dies kann aber auch durch wirtschaftliche Vorteile motiviert sein.
Das ist eine recht düstere Perspektive. Gibt es denn spezifische ethische Richtlinien, die Ihrer Meinung nach bei der Integration von KI in verschiedenen Anwendungsgebieten berücksichtigt werden sollten?
Prof. Dr. Peinl: Es ist schwierig, ethische Richtlinien zu definieren, da sie oft im Zusammenhang mit Gesetzen oder dem Fehlen von Gesetzen stehen. Obwohl die Menschenrechtskonvention bestimmte ethische Richtlinien vorgibt, entscheiden sich die Unterzeichnerstaaten häufig für eine unterschiedliche Auslegung oder eine selektive Einhaltung. Über die Menschenrechtskonvention hinaus gibt es kein allgemein anerkanntes ethisches Regelwerk. Die Vielfalt der philosophischen Ansätze erschwert die Schaffung eines einheitlichen Ethikkodex zusätzlich. Gesellschaftliche Debatten, wie die aktuellen Diskussionen um Finanzentscheidungen und soziale Gerechtigkeit, zeigen, dass ethische Überlegungen oft hinter wirtschaftlichen und politischen Interessen zurückstehen. Die Herausforderung besteht darin, ethische Prinzipien wieder stärker in den Vordergrund zu rücken und einen breiteren gesellschaftlichen Konsens über ethische Grundwerte zu erreichen. Die Chance ethischer Richtlinien wiederum besteht darin, dass eine kooperative Zusammenarbeit zu einer besseren Welt führt, in der nicht nur die Reichsten profitieren, sondern die breite Bevölkerung in den Genuss des technologischen und wirtschaftlichen Fortschritts kommt und sich die Gesellschaft positiv entwickelt.
Das klingt schon hoffnungsvoller. Zum Fortschritt gehört dann auch die Sicherstellung der Qualität von KI-generierten Antworten und Daten, insbesondere in sensiblen oder kritischen Anwendungsfeldern, richtig?
Prof. Dr. Peinl: Ja, die Frage der ethischen Bewertung von KI-Antworten ist allerdings komplex und individuell. Die Bewertung einer Antwort hängt oft von der individuellen Sensibilität ab, und manche Menschen können sehr emotional reagieren. In einem Beispiel zur Bilderzeugung könnte die Antwort als problematisch angesehen werden, wenn sie nicht vielfältig genug ist. Ein heterosexuelles Paar mit einem kaukasischen Phänotyp könnte von einigen als statistisch angemessen angesehen werden, während andere dies als negativ interpretieren könnten. Das Dilemma besteht darin, wie viele Variationen berücksichtigt werden sollten, um die Vielfalt zu gewährleisten, und ob dies überhaupt praktisch durchführbar ist. Es sind genaue Beschreibungen erforderlich, um die Qualität der KI-generierten Antworten zu gewährleisten. Dies stellt Unternehmen vor die Herausforderung, eine Balance zwischen ethischen Anforderungen und Benutzerfreundlichkeit zu finden. Nützlichkeit und Benutzerfreundlichkeit können mit ethischen und sozialen Anforderungen kollidieren. Die Entwicklung von Optionen, die unterschiedliche ethische Ansätze berücksichtigen, könnte eine Lösung sein, erfordert jedoch Aufwand und stellt die Frage, ob die Nutzer diese Unterscheidung schätzen und unterstützen. Leider tendiert der Markt oft zu weniger aufwändigen und schnelleren Lösungen, auch wenn diese ethisch bedenklich sein können.
Zum Abschluss noch eine typische Frage, wie sie sich auch eine Unternehmensberatung stellen würde: Welche Maßnahmen sollten Unternehmen und Organisationen ergreifen, um einen sicheren Einsatz von KI-Technologien zu gewährleisten?
Prof. Dr. Peinl: Die Frage der Sicherheit im Zusammenhang mit KI kann je nach den Aspekten, auf die sie sich bezieht, sehr vielschichtig sein. Sicherheit kann sich auf den Datenschutz beziehen, um sicherzustellen, dass Daten nicht in die falschen Hände geraten. Es kann auch darum gehen, sicherzustellen, dass KI nicht für schädliche Zwecke wie die Entwicklung von Waffen oder terroristische Aktivitäten missbraucht wird.
Es ist schwierig, alle möglichen Missbrauchsszenarien vorherzusehen, da die Benutzer oft kreative und unerwartete Anwendungen für Software finden. Eine Strategie besteht darin, bekannte Risiken zu antizipieren und durch Sicherheitsmechanismen zu minimieren, um eine unerwünschte oder schädliche Nutzung zu verhindern. Ein kontinuierliches Monitoring der Anwendungen kann helfen, unerwartete Entwicklungen zu erkennen und angemessen darauf zu reagieren. Die Datenschutzgesetze müssen ebenfalls eingehalten werden, um sicherzustellen, dass die Anwendung den gesetzlichen Anforderungen entspricht und die Privatsphäre der Nutzer geschützt wird.
Vielen Dank, Herr Prof. Dr. Peinl, für diesen Ausflug zum Thema "AI im Rahmen der Digitalen Ethik" und herzlichen Dank für das führen des interviews an das Studierendenteam der Hochschule hof, zu deren projekt demnächst ein bericht folgt.

weitere Beiträge