Der AI Act 2025: Neue Regelungen seit Februar 2025

Künstliche Intelligenz (AI) verändert die Geschäftswelt grundlegend. Unternehmen setzen zunehmend auf KI, um Prozesse zu automatisieren, personalisierte Kundenerlebnisse zu schaffen und datengetriebene Entscheidungen zu optimieren. Doch während die Potenziale von AI enorm sind, scheitern viele Projekte nicht an der Technologie selbst, sondern an der zugrundeliegenden IT-Architektur. Ohne eine skalierbare und flexible Infrastruktur bleibt AI oft eine isolierte Insellösung, die nicht über den Pilotstatus hinauskommt. Darum wollen wir in diesem Beitrag klären, wie Unternehmen, die AI erfolgreich einsetzen wollen, eine IT-Architektur schaffen können, die leistungsfähig, anpassungsfähig und zukunftssicher ist.

Was ist der AI Act?

Der AI Act folgt einem risikobasierten Ansatz, der KI-Anwendungen in verschiedene Kategorien einteilt. Dieser gestaffelte Ansatz ermöglicht es, spezifische Anforderungen je nach Risikokategorie zu definieren und so einen ausgewogenen Rahmen für die Nutzung von KI zu schaffen. Genauere Informationen dazu und zum verantwortungsvollen Umgang mit dieser Technologie, findest du bereits in unserem Interview mit Prof. Peinl von der THI.

Neuerungen zum Februar 2025

Seit dem 2. Februar 2025 sind bereits erste wichtige Bestimmungen des AI Act in Kraft getreten. Dazu gehört, dass bestimmte KI-Praktiken ausdrücklich verboten sind. Dazu gehören Systeme, die Menschen unterschwellig beeinflussen oder täuschen, etwa durch manipulative Algorithmen oder irreführende Inhalte. Ebenso untersagt sind Anwendungen, die gezielt die Schutzbedürftigkeit bestimmter Gruppen ausnutzen, insbesondere von Kindern oder älteren Menschen. 
Auch das sogenannte Social Scoring, bei dem das Verhalten von Individuen bewertet und daraus Konsequenzen abgeleitet werden, ist künftig nicht mehr erlaubt. Darüber hinaus wird die Erstellung von Gesichtserkennungsdatenbanken durch das wahllose Sammeln und Auslesen von Bildern aus dem Internet verboten. Diese Regelungen sollen sicherstellen, dass KI-Systeme ethisch vertretbar und im Einklang mit europäischen Werten eingesetzt werden. 
Außerdem sind Unternehmen jetzt verpflichtet, sicherzustellen, dass ihre Mitarbeiter:innen über ausreichende Kenntnisse im Umgang mit KI verfügen. Dies umfasst das Verständnis von Risiken, rechtlichen Anforderungen und technischen Aspekten der eingesetzten KI-Systeme.

Info und Zeitplan zum weiteren Verlauf

Der AI Act sieht ein stufenweises Inkrafttreten weiterer Bestimmungen vor: 

August 2025

Regelungen für General-Purpose-KI, wie große Sprachmodelle (z.B. ChatGPT), treten in Kraft.

August 2026

Anforderungen für Hochrisiko-KI-Systeme werden verbindlich. Dies betrifft Anwendungen in Bereichen wie Personalmanagement und Bildung, die einer Konformitätsbewertung unterzogen werden müssen. 

August 2027

Weitere Bestimmungen für spezifische Hochrisiko-Anwendungen treten in Kraft.
Zudem müssen bis August 2026 in allen EU-Mitgliedsstaaten sogenannte „regulatory sandboxes“ eingerichtet werden. Diese Reallabore ermöglichen es Unternehmen, neue Technologien unter realen Bedingungen und behördlicher Begleitung zu testen, wobei kleine und mittelständische Unternehmen priorisierten und kostenlosen Zugang erhalten sollen. 

Weitere Informationen zum Thema Künstliche Intelligenz (KI)

Das Jahr 2024 war geprägt von intensiven Diskussionen und Entwicklungen zum Thema KI. Wir haben die wichtigsten Fragestellungen und Informationen in einem Booklet gesammelt zusammengefasst. Dabei geht es nicht nur um soziale Verantwortung, sondern auch um den Einsatz von KI in verschiedenen Bereichen der Arbeitswelt. 

Wenn du Interesse hast an diesem spannenden Booklet, leiten wir dich gerne weiter!

Deine Daten werden nicht an Dritte weitergegeben und es erfolgt ein verantwortungsvoller Umgang damit.
Wenn du die Nachricht absendest, bestätigst du, dass du unsere Datenschutzerklärung gelesen hast.