Prof. Dr. Laura Bechthold ist Professorin an der Technischen Hochschule Ingolstadt mit dem Lehrgebiet Technology Assessment and Cultural Management. Einer ihrer Forschungsschwerpunkte ist Corporate Digital Responsibility (CDR) und auch im Allgemeinen beschäftigt sie sich mit technologischen Entwicklungen und der Verantwortung, die Innovationen mit sich bringen. Daher haben wir uns an Laura gewandt für einen Einblick in das Thema CDR, die „digitale Verantwortung“, die KI bereits in ihrer Entwicklung sowie der Datenbereitstellung und -auswertung mit sich bringt. Auch die Auswirkungen auf Arbeitnehmer:innen und Unternehmen haben wir mit Laura besprochen. Risiken, Chancen und vor allem die Verantwortung, die mit dem Einsatz von KI jetzt und in Zukunft einhergehen, sind die Themen des Interviews von Michael Urban (Head of Knowledge & Learning) mit Prof. Dr. Laura Bechthold.
Michael Urban: Laura, wir freuen uns, heute eine Foresight-Spezialistin hier zu haben! Es geht um Künstliche Intelligenz (KI) im Großen, darum fangen wir damit an: Wie würdest du „KI“ definieren?
Prof. Dr. Laura Bechthold: Grundsätzlich orientiere ich mich an den gängigen Definitionen. Eine erste Herangehensweise ist, dass man bei KI davon ausgeht, dass es sich um maschinelle Systeme handelt, die Aufgaben übernehmen, die normalerweise eine menschliche Intelligenz erfordern würde, und wir übertragen diese in den künstlichen, bzw. digitalen Raum. Beispiele hierfür könnten visuelle Wahrnehmung, Spracherkennung, Entscheidungsfindung oder die Übersetzung zwischen Sprachen sein. KI ist ein sehr allgemeiner Begriff, der noch in Teilbereiche wie „Machine Learning“ oder „Deep Learning“ untergliedert werden kann. Diese beziehen sich eher auf die zugrundeliegenden technologischen Lösungen als auf die Anwendungsfelder.
Sprachmodelle, autonomes Fahren, Bilderkennung in der Medizin, das sind alles bekannte Einsatzfelder. Gibt es auch unerwartete Gewinner in dem Feld? Also KI-Anwendungen, mit denen niemand gerechnet hatte?
Prof. Dr. Laura Bechthold: Da gibt es tatsächlich einige bemerkenswerte Entwicklungen. KI ist eine „General-Purpose“-Technologie, die breit gefächerte Auswirkungen hat und fast alle Sektoren der Wirtschaft durch ihre vielseitigen Anwendungen und transformative Kraft beeinflussen wird. Was aus meiner Sicht spannend ist, ist nicht nur KI als eigene Technologie selbst zu sehen, sondern diese in der Kombination und Wechselwirkung mit anderen aufkeimenden Technologien zu betrachten. Es gibt zum Beispiel viele Fortschritte in der Kombination mit (Nano-)Robotik oder mit Videotechnologie. Auch in der Medizin gibt es unglaubliche Entwicklungen, zum Beispiel auf Basis synthetischer Biologie, der Zellerkennung oder hinsichtlich personalisierter (Krebs)Therapien. Diese verschiedenen Kombinationen können Neues entstehen lassen und eröffnen große, spannende Forschungsfelder. Auch die Sprachmodelle stehen aus meiner Sicht erst am Anfang, da wird noch viel passieren.
Neben den Chancen und Möglichkeiten stellt sich mir die Frage, wie es mit der anderen Seite aussieht. Welche Risiken siehst du im Sinne von KI-Missbrauch oder im Sinne dystopischer Anwendungen?
Prof. Dr. Laura Bechthold:
Da gibt es natürlich ebenfalls verschiedene Anwendungsfälle und mögliche Szenarien. Alles, was man mit Künstlicher Intelligenz im positiven Sinne machen kann, geht auch im Negativen. Denken wir zum Beispiel an aktuelle weltpolitische Entwicklung und den Einsatz von autonomen Waffensystemen. Meine persönlichen Schreckensszenarien sind allerdings viel subtiler und weniger offensichtlich, beispielsweise wenn es nämlich in Richtung Manipulation und Beeinflussung von Entscheidungen geht. Es gibt verschiedene Techniken, wie man Leute im digitalen Raum manipulieren kann. Das geht los bei der Beeinflussung von Nutzerverhalten durch sogenannte „Dark Patterns“, also Designpraktiken, die darauf abzielen, Nutzer dazu zu verleiten, Entscheidungen zu treffen, die nicht in ihrem besten Interesse liege. Im schlimmsten Falle kann es aber bis hin zur gezielten Manipulation von Demokratieprozessen gehen. Das hat uns beispielsweise vor einigen Jahren der Skandal rund um Facebook und Cambridge Analytica gezeigt, bei dem durch gezieltes Mikrotargeting der US-Wahlkampf erheblich durch umfangreiche Desinformationskampagnen beeinflusst wurde.
Diese Mechanismen wirken viel unterschwelliger als physische Anwendungen und treten unbemerkt in unseren Alltag. Hier besteht auch die Gefahr, dass sich bereits bestehende soziale Ungleichheiten verstärken.
Dementsprechend gibt es auch einige ethische Herausforderungen…
Prof. Dr. Laura Bechthold: Ja, da gibt es viele ethische Fragestellungen! Da kommt es darauf an, welchem Zweck eine KI dienen soll. Wenn ein Algorithmus programmiert wird, der anders ist als ein klassisches mathematisches Orientierungsproblem, kommen oft ethische Abwägungen ins Spiel. Je nach Zusammenhang sind manche Fragen wichtiger als andere. Eine ganz wichtige ethische Frage ist beispielsweise, woher die Trainingsdaten für einen Algorithmus kommen.
Warum ist das so? Die meisten Algorithmen werden auf Basis bestehender Datensätze trainiert. Das sind also aktuell vorliegende Daten, die unsere Gesellschaft repräsentieren, wie sie heute ist und wie sie bisher digital abgebildet wurde. Das heißt: mit allen Verschiebungen, Verzerrungen und möglichen Ungerechtigkeiten. Durch eine solche Datenbasis kann es dann passieren, dass der Algorithmus beispielsweise eine rassistische oder geschlechtsspezifische Voreingenommenheit antrainiert bekommt, weil gesellschaftliche Verzerrungen und Ungerechtigkeiten in den Trainingsdaten bereits vorhanden sind und somit unbewusst in das maschinelle Lernen übertragen werden. Ein Beispiel, welche individuellen und gesellschaftlichen Konsequenzen das haben kann, hat beispielsweise die Kindergeldaffäre in den Niederlanden 2019 gezeigt. Hierbei wurden Tausende von Familien fälschlicherweise der Betrugsbekämpfung beschuldigt und zum Rückzahlen von Kindergeld aufgefordert wurden. Das zugrunde liegende Problem mit den Algorithmen bestand darin, dass sie diskriminierend wirkten, indem sie Personen auf Basis ihrer Nationalität oder doppelten Staatsbürgerschaft automatisch als Betrugsrisiken einstuften. Dies führte zu unrechtmäßigen Anschuldigungen und schwerwiegenden finanziellen sowie sozialen Konsequenzen für die betroffenen Familien.
Als Entwickler einer KI muss ich mir also zum einen die Frage stellen, welche Daten ich verwende, wie ich den Algorithmus trainiere und ob ich ethische Aspekte, wie Fairness, sicherstellen kann.
Neben dem Datensatz gilt es dann den Algorithmus selbst zu hinterfragen, auf welcher Basis dieser Entscheidungen treffen soll: Welche Faktoren sollen beispielsweise berücksichtigt oder besonders gewichtet werden oder nicht? Allein das beinhaltet schon eine Wertung. Nehmen wir zum Beispiel mal folgendes Gedankenspiel: Wie akkurat soll ein Algorithmus Krebszellen auf MRTs erkennen?
Ein streng wissenschaftlich optimierter Algorithmus identifiziert nur eindeutig kranke Zellen und nimmt in Kauf, dass manche kranken Zellen durch das Raster fallen. Es kann also dazu kommen, dass der Algorithmus tatsächlich vorhandene Krebszellen nicht erkennt. Dies bedeutet, dass ein tatsächlich kranker Patient fälschlicherweise als gesund eingestuft wird. Umgekehrt würde man als Medizienr:in intuitiv wahrscheinlich eher geneigt sein, sogenannte „falsch positive“ Ergebnisse in Kauf zu nehmen, also dass der Algorithmus lieber einmal zu viel als einmal zu wenig anschlägt. Wenn man allerdings Patienten irrtümlich als krebskrank diagnostiziert, kann das natürlich auch zu unnötiger Angst, weiteren Untersuchungen und möglicherweise unnötigen Behandlungen führen. Ich bin zuversichtlich, dass solche Probleme mit Voranschreiten der technologischen Entwicklung zwar immer weniger werden, bislang müssen wir uns darüber aber immer noch und in unterschiedlichen Kontexten Gedanken machen.
Der letzte Punkt, der mich umtreibt, ist die Anwendung von KI im Alltag. Was passiert, wenn Leute damit ungeschult umgehen? Ein gutes Beispiel ist ChatGPT. Wenn die Ergebnisse des algorithmischen Modells nicht hinterfragt werden, werden evtl. falsche Aussagen als Wahrheiten publiziert, da man weiterhin nicht davor geschützt ist, auch Falschinformationen als Output zu erhalten.
Warum ist das so? Die meisten Algorithmen werden auf Basis bestehender Datensätze trainiert. Das sind also aktuell vorliegende Daten, die unsere Gesellschaft repräsentieren, wie sie heute ist und wie sie bisher digital abgebildet wurde. Das heißt: mit allen Verschiebungen, Verzerrungen und möglichen Ungerechtigkeiten. Durch eine solche Datenbasis kann es dann passieren, dass der Algorithmus beispielsweise eine rassistische oder geschlechtsspezifische Voreingenommenheit antrainiert bekommt, weil gesellschaftliche Verzerrungen und Ungerechtigkeiten in den Trainingsdaten bereits vorhanden sind und somit unbewusst in das maschinelle Lernen übertragen werden. Ein Beispiel, welche individuellen und gesellschaftlichen Konsequenzen das haben kann, hat beispielsweise die Kindergeldaffäre in den Niederlanden 2019 gezeigt. Hierbei wurden Tausende von Familien fälschlicherweise der Betrugsbekämpfung beschuldigt und zum Rückzahlen von Kindergeld aufgefordert wurden. Das zugrunde liegende Problem mit den Algorithmen bestand darin, dass sie diskriminierend wirkten, indem sie Personen auf Basis ihrer Nationalität oder doppelten Staatsbürgerschaft automatisch als Betrugsrisiken einstuften. Dies führte zu unrechtmäßigen Anschuldigungen und schwerwiegenden finanziellen sowie sozialen Konsequenzen für die betroffenen Familien.
Als Entwickler einer KI muss ich mir also zum einen die Frage stellen, welche Daten ich verwende, wie ich den Algorithmus trainiere und ob ich ethische Aspekte, wie Fairness, sicherstellen kann.
Neben dem Datensatz gilt es dann den Algorithmus selbst zu hinterfragen, auf welcher Basis dieser Entscheidungen treffen soll: Welche Faktoren sollen beispielsweise berücksichtigt oder besonders gewichtet werden oder nicht? Allein das beinhaltet schon eine Wertung. Nehmen wir zum Beispiel mal folgendes Gedankenspiel: Wie akkurat soll ein Algorithmus Krebszellen auf MRTs erkennen?
Ein streng wissenschaftlich optimierter Algorithmus identifiziert nur eindeutig kranke Zellen und nimmt in Kauf, dass manche kranken Zellen durch das Raster fallen. Es kann also dazu kommen, dass der Algorithmus tatsächlich vorhandene Krebszellen nicht erkennt. Dies bedeutet, dass ein tatsächlich kranker Patient fälschlicherweise als gesund eingestuft wird. Umgekehrt würde man als Medizienr:in intuitiv wahrscheinlich eher geneigt sein, sogenannte „falsch positive“ Ergebnisse in Kauf zu nehmen, also dass der Algorithmus lieber einmal zu viel als einmal zu wenig anschlägt. Wenn man allerdings Patienten irrtümlich als krebskrank diagnostiziert, kann das natürlich auch zu unnötiger Angst, weiteren Untersuchungen und möglicherweise unnötigen Behandlungen führen. Ich bin zuversichtlich, dass solche Probleme mit Voranschreiten der technologischen Entwicklung zwar immer weniger werden, bislang müssen wir uns darüber aber immer noch und in unterschiedlichen Kontexten Gedanken machen.
Der letzte Punkt, der mich umtreibt, ist die Anwendung von KI im Alltag. Was passiert, wenn Leute damit ungeschult umgehen? Ein gutes Beispiel ist ChatGPT. Wenn die Ergebnisse des algorithmischen Modells nicht hinterfragt werden, werden evtl. falsche Aussagen als Wahrheiten publiziert, da man weiterhin nicht davor geschützt ist, auch Falschinformationen als Output zu erhalten.
Es gibt also einige Dimensionen ethisch zu bedenken. Wie sieht es denn mit der Entscheidungsmacht einer KI aus, wo sollten Grenzen sein?
Prof. Dr. Laura Bechthold: Ich denke, es gibt da nicht die eine fixe Grenze. Ich sehe es eher als Spektrum. Stellen wir uns zum Beispiel eine Matrix mit zwei Achsen vor. Eine davon ist, wie viel Entscheidungsmacht der Algorithmus hat (Gibt er Informationen, macht er einen Vorschlag oder trifft er wirklich eine Entscheidung?) und die andere ist, wie hoch der Einfluss der Entscheidung auf die Gesellschaft bzw. den Menschen? Es gibt auf der einen Seite z.B. Systeme für technische Optimierungen, von denen kein menschliches Schicksal abhängt und die allein dafür gemacht sind, etablierte Prozesse schneller und effizienter machen, wie zum Beispiel Wartungsarbeiten. Hier brauche ich nicht die ganze Zeit mit einer ethischen Perspektive hantieren, das ist unnötige Zeitverschwendung und damit würde man alle Vorteile der KI direkt verschenken.
Die andere Achse bildet die Frage des möglichen Einflusses eines KI-Ergebnisses auf die Gesellschaft. Da gibt es beispielsweise den Algorithmus in den USA, der Wahrscheinlichkeit einer Rückfallquote für potenzielle Straftäter berechnet. Richter:innen nehmen diese Information zur Hand, um über das weitere Verfahren mit der Person zu bestimmen. Das Gleiche gilt für Szenarien, in denen KI eine Rolle bei der Bestimmung von Kreditwürdigkeiten, Einstellungen, oder eventuell sogar der Wahl von Bildungswegen spielt. Hier kann eine KI meiner Ansicht nach als zusätzliche Informationsquelle dienen, sollte aber nicht als alleinige Entscheidungsgrundlage herangezogen werden.
Die andere Achse bildet die Frage des möglichen Einflusses eines KI-Ergebnisses auf die Gesellschaft. Da gibt es beispielsweise den Algorithmus in den USA, der Wahrscheinlichkeit einer Rückfallquote für potenzielle Straftäter berechnet. Richter:innen nehmen diese Information zur Hand, um über das weitere Verfahren mit der Person zu bestimmen. Das Gleiche gilt für Szenarien, in denen KI eine Rolle bei der Bestimmung von Kreditwürdigkeiten, Einstellungen, oder eventuell sogar der Wahl von Bildungswegen spielt. Hier kann eine KI meiner Ansicht nach als zusätzliche Informationsquelle dienen, sollte aber nicht als alleinige Entscheidungsgrundlage herangezogen werden.
Die ethischen Komplikationen werden demnach auch die Wirtschaftswelt enorm beeinflussen. Was kommt in den nächsten fünf bis zehn Jahren auf unsere Unternehmen zu?
Prof. Dr. Laura Bechthold: Da sind wir aus meiner Sicht bereits in einer großen Umwälzung, der typische, Schumpeter‘sche Prozess der kreativen Zerstörung wird aktuell wieder durchlaufen. Mit anderen Worten: Wir befinden uns in einer Zeit, in der etablierte Strukturen und alte Technologien durch innovative Unternehmungen und neue Technologien obsolet sukzessive gemacht und ersetzt werden, was zu einem großen wirtschaftlichem Wandel führt. Daraus ergibt sich ein großer Möglichkeitsraum für Unternehmen, in dem sie rausfinden müssen, wo KI-Datenverarbeitung und andere Technologien in ihrem Geschäftsmodell und bei ihren Arbeitsprozessen eine Rolle spielen kann, sollte und wird. Wenn man diese Chance nutzt, kann das nicht nur entscheidende Wettbewerbsvorteile in der Zukunft bieten, sondern auch wahrscheinlich für die Zukunftsfähigkeit des Unternehmens insgesamt bestimmen. Darum ist es wichtig, sich nicht zu verschließen und das Thema KI frühzeitig zu durchdenken.
Wie ist denn der Status quo? Sind Unternehmen im Moment gut auf den Faktor KI vorbereitet?
Prof. Dr. Laura Bechthold: Das ist sehr unterschiedlich. Da gibt es zwei Ebenen: einmal wirklich die Technologie- und KI-Ebene und dann die Ebene der digitalen Verantwortung. Wenn es rein um die Technologie geht, sind viele große High-Tech-Unternehmen oder Start-ups schon vorne dabei, da gibt es viele tolle Beispiele wie die Siemens AI Labs. Die Ausbildung und Forschung zu dem Thema ergänzt das, da haben wir hier – insbesondere in Bayern – schon ein gutes Ökosystem. Aber es gibt auch einige Unternehmen, besonders im Bereich der KMU, die bei dem Thema noch nicht so weit sind. Viele Firmen sitzen quasi schon heute auf großen Datensätzen, die aber oft noch unstrukturiert vorliegen und haben noch keine Idee, wie diese zum eigenen Vorteil genutzt werden können. Es gibt also noch große Diskrepanzen und da kommt es vor allem auf das digitale Mindset des Unternehmens an.
Auch am Thema „Corporate Digital Responsibility“ führt kein Weg vorbei. Welchen konkreten Vorteil haben Unternehmen, die sich ihrer digitalen Verantwortung bewusst sind?
Prof. Dr. Laura Bechthold: Corporate Digital Responsibility ist ein aufkeimender Sammelbegriff für das Thema der Verantwortung und freiwilligen Selbstverpflichtung von Unternehmen im digitalen Raum. Dieser umfasst viele Teilbereiche, von Datenschutz und Cybersecurity bis hin zur Sicherstellung digitaler Teilhabe, einer inklusiven Gestaltung oder die Umwelteinflüsse meiner digitalen Systeme. Hier wage ich tatsächlich die Prognose, dass CDR der nächste Pfeiler zu ESG sein wird. Aus meiner Sicht sehen wir im Bereich CDR gerade eine ähnliche Entwicklung wie bei der CSR oder Corporate Sustainability Bewegung in den letzten 10-15 Jahren.
Hier hat sich gezeigt, dass Unternehmen, die sich darauf früher eingestellt und Nachhaltigkeitsfaktoren ernst genommen haben, langfristig wirtschaftlich resilienter sind und sich auch in der Anpassung an darauffolgende verpflichtende Regulierungen leichter tun. So wie im Nachhaltigkeitsbereich zum Beispiel das CSRD-Reporting als formalisierendes Element kam, sehen wir mit dem European AI Act nun eine ähnliche Entwicklung im KI-Bereich, die weitreichende Konsequenzen für Unternehmen aller Größen bringen wird, die in irgendeiner Weise KI einsetzen. Eine frühzeitige Vorbereitung schafft hier einen Kostenvorteil, weil alles gleich passend eingerichtet werden kann und im Nachhinein keine Anpassungen nötig werden. Auch das Bewusstsein der Leute geht immer mehr dahin, dass verantwortungsvolle Unternehmen bevorzugt werden, wodurch auch ein Markenwert entsteht. Digitale Verantwortung ist ein entscheidender Wettbewerbsvorteil, den man jetzt schon angehen kann – und sollte.
Hier hat sich gezeigt, dass Unternehmen, die sich darauf früher eingestellt und Nachhaltigkeitsfaktoren ernst genommen haben, langfristig wirtschaftlich resilienter sind und sich auch in der Anpassung an darauffolgende verpflichtende Regulierungen leichter tun. So wie im Nachhaltigkeitsbereich zum Beispiel das CSRD-Reporting als formalisierendes Element kam, sehen wir mit dem European AI Act nun eine ähnliche Entwicklung im KI-Bereich, die weitreichende Konsequenzen für Unternehmen aller Größen bringen wird, die in irgendeiner Weise KI einsetzen. Eine frühzeitige Vorbereitung schafft hier einen Kostenvorteil, weil alles gleich passend eingerichtet werden kann und im Nachhinein keine Anpassungen nötig werden. Auch das Bewusstsein der Leute geht immer mehr dahin, dass verantwortungsvolle Unternehmen bevorzugt werden, wodurch auch ein Markenwert entsteht. Digitale Verantwortung ist ein entscheidender Wettbewerbsvorteil, den man jetzt schon angehen kann – und sollte.
Na, dann hoffen wir doch, dass die Unternehmen gut zugehört haben und ihre Zukunft nicht verschlafen. Wir bedanken uns auf jeden Fall herzlich für den intensiven Einblick und das Aufzeigen vieler spannender Zusammenhänge, liebe Laura!
Unser Angebot für dich
Wer sich den Wettbewerbsvorteil der Digitalisierung und Künstlichen Intelligenz nicht entgehen lassen will – und nebenbei auch noch der damit einhergehenden Verantwortung gerecht werden will, kann gerne für ein persönliches Gespräch auf uns zukommen zu folgenden Themen:
Du möchtest mehr über Laura erfahren?
Prof. Dr. Laura Bechthold arbeitet im Bayerischen Foresight-Institut der Technischen Hochschule Ingolstadt, das sich auf technologieorientierte Zukunftsforschung sowie die damit verbundenen wirtschaftlichen und gesellschaftlichen Interdependenzen fokussiert. Hier findest du mehr Infos zu Ihren Arbeitsbereichen und Projekten.
Du interessierst dich für ihre persönliche Positionierung zu ihren Forschungsthemen? Wirf gern einen Blick auf ihr LinkedIn Profil.