Der Artificial Intelligence Act: Die Zukunft der KI-Regulierung in Europa und der Schweiz

Diese Seite teilen

Die Europäische Union hat mit dem Artificial Intelligence Act (AI-Act) eine bahnbrechende Regulierung für Künstliche Intelligenz (KI) geschaffen. Diese weltweit erste umfassende Gesetzgebung zu KI soll die Balance zwischen Innovation, Sicherheit und ethischen Standards sicherstellen. Doch was bedeutet das konkret für Unternehmen, Entwickler und Nutzer?

Was ist der AI-Act?

Der AI-Act wurde im März 2024 verabschiedet und wird schrittweise ab 2025 in Kraft treten. Ziel ist es, KI-Systeme sicher und vertrauenswürdig zu machen, Grundrechte zu schützen und klare Regeln für den Einsatz von KI in Europa zu schaffen.

Der AI-Act orientiert sich an einem risikobasierten Ansatz, bei dem die Schwere der Regulierung von der potenziellen Gefährdung durch das jeweilige KI-System abhängt. Er definiert nicht nur spezifische Anforderungen für Hochrisiko-KI, sondern legt auch Transparenz- und Sicherheitsvorgaben für generative KI sowie Verpflichtungen für Anbieter und Nutzer fest. Darüber hinaus enthält der AI-Act Regelungen zur Marktüberwachung und zur Durchsetzung der Vorschriften durch nationale Behörden.

Mit dieser Verordnung möchte die EU die Nutzung von KI ethisch und menschenzentriert gestalten, um einerseits die technologische Entwicklung zu fördern und andererseits negative Auswirkungen auf die Gesellschaft zu minimieren. Dies bedeutet, dass Unternehmen und Entwickler klare Leitlinien erhalten, um ihre KI-Anwendungen gesetzeskonform und verantwortungsvoll einzusetzen.

Der AI-Act ergänzt bestehende gesetzliche Regelungen, wie die Datenschutz-Grundverordnung (DSGVO), und stärkt das Vertrauen in KI-Technologien durch nachvollziehbare und einheitliche Vorschriften innerhalb des europäischen Binnenmarktes.

Die vier Risikostufen von KI-Systemen

Verbotene KI-Systeme

Verbotene KI-Systeme

Sozialpunktesysteme, manipulative KI, die unbewusst das Verhalten beeinflusst, und Echtzeit-Biometrische Überwachung in der Öffentlichkeit gefährden die Privatsphäre und persönliche Freiheit.

Hohes Risiko

Hohes Risiko

Der Einsatz von KI in kritischen Bereichen wie Gesundheitswesen, Justiz, Bankwesen und Strafverfolgung erfordert strenge Anforderungen an Transparenz, Risikomanagement und menschliche Kontrolle.

Begrenztes Risiko

Begrenztes Risiko

KI-Systeme mit begrenztem Risiko, wie Chatbots oder Deepfakes, müssen klar gekennzeichnet werden, um Transparenz und Vertrauen zu gewährleisten.

Minimales Risiko

Minimales Risiko

KI in Spielen, Spam-Filtern oder Empfehlungssystemen stellt ein minimales Risiko dar und erfordert keine speziellen Auflagen.

 

Welche Verpflichtungen haben Unternehmen?

Unternehmen, die KI-Systeme entwickeln oder nutzen, müssen je nach Risikoklasse verschiedene Anforderungen erfüllen:

  • Hochrisiko-KI: Unternehmen müssen umfassende Risikobewertungen durchführen, detaillierte Dokumentationen über den Einsatz der KI führen, Transparenz gewährleisten und sicherstellen, dass menschliche Aufsicht besteht. Zudem müssen sie Mechanismen zur laufenden Überprüfung und Nachbesserung der KI einführen.
  • Generative KI (z. B. ChatGPT, DALL·E, Gemini): Anbieter müssen ihre Trainingsdaten offenlegen, sicherstellen, dass keine urheberrechtlich geschützten Werke ohne Genehmigung genutzt wurden, und KI-generierte Inhalte eindeutig kennzeichnen. Dies betrifft insbesondere Text-, Bild- und Video-Generatoren, die in kreativen oder journalistischen Bereichen Anwendung finden.
  • Daten- und Transparenzanforderungen: Unternehmen müssen sicherstellen, dass die verwendeten Trainings- und Entscheidungsdaten nicht diskriminierend sind und keine Verzerrungen enthalten, die zu unfairen Ergebnissen führen können.
  • Cybersecurity und Datenschutz: KI-Anwendungen müssen so konzipiert sein, dass sie keine Sicherheitslücken aufweisen und die Daten der Nutzer bestmöglich schützen. Gerade im Bereich personenbezogener Daten müssen Unternehmen sicherstellen, dass die Verarbeitung den Datenschutzgesetzen (z. B. DSGVO oder nDSG in der Schweiz) entspricht.
  • Meldepflichten und Überwachung: Unternehmen, die Hochrisiko-KI nutzen, müssen sich einer regelmässigen Kontrolle unterziehen und gegebenenfalls Bericht erstatten. Zudem können nationale oder europäische Behörden Stichproben und Audits durchführen.

Strafen bei Nichteinhaltung

Unternehmen, die gegen den AI-Act verstossen, müssen mit erheblichen finanziellen Konsequenzen rechnen. Die Strafen können bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes betragen, je nachdem, welcher Betrag höher ist. Besonders schwerwiegende Verstösse, wie die Nutzung verbotener KI-Systeme, ziehen die höchsten Strafen nach sich. Aber auch Unternehmen, die Hochrisiko-KI ohne die erforderlichen Sicherheitsmassnahmen einsetzen oder Transparenzpflichten missachten, können mit empfindlichen Sanktionen rechnen. Fehlende Kennzeichnungen, beispielsweise bei generativen KI-Modellen oder Deepfakes, stellen ebenfalls eine Verletzung der Vorschriften dar und können zu hohen Bussgeldern führen. Wiederholte Verstösse oder vorsätzliche Umgehungen der gesetzlichen Vorgaben können zusätzliche Sanktionen wie Betriebseinschränkungen oder sogar Verkaufsverbote für bestimmte KI-Anwendungen nach sich ziehen.

Auswirkungen auf Unternehmen und Entwickler

Der AI-Act bringt klare Regeln und rechtliche Sicherheit für den Einsatz von KI in der EU. Unternehmen müssen ihre KI-Technologien sorgfältig überprüfen und anpassen, um sicherzustellen, dass sie den neuen Anforderungen entsprechen. Dies betrifft insbesondere die Transparenz und Nachvollziehbarkeit der eingesetzten Algorithmen sowie die Sicherstellung der Datensicherheit und des Datenschutzes.

Für Unternehmen bedeutet dies, dass sie verstärkt auf die Risikokategorisierung ihrer KI-Systeme achten müssen. Systeme, die als hochriskant eingestuft werden, unterliegen strengeren Auflagen, wie der regelmässigen Überprüfung und der Dokumentation der Entscheidungsprozesse. Unternehmen müssen auch sicherstellen, dass sie angemessene Massnahmen zur Vermeidung von Diskriminierung und Verzerrung in ihren KI-Systemen treffen.

Für Entwickler stellt der AI-Act eine grössere Verantwortung in der Gestaltung von KI-Anwendungen dar. Sie müssen sicherstellen, dass ihre Systeme ethisch vertretbar sind und keine negativen Auswirkungen auf die Gesellschaft oder Einzelpersonen haben. Auch die Zusammenarbeit mit Rechtsabteilungen und Datenschutzexperten wird zunehmend wichtig, um sicherzustellen, dass alle rechtlichen Anforderungen erfüllt werden.

Zusammengefasst bringt der AI-Act für Unternehmen und Entwickler sowohl Chancen als auch Herausforderungen. Während die rechtlichen Klarstellungen die Entwicklung von KI-Technologien in der EU erleichtern, müssen Unternehmen und Entwickler auch in Compliance-Massnahmen investieren, um sich an die neuen Vorschriften anzupassen und Risiken zu minimieren.

Die Situation in der Schweiz

In der Schweiz gibt es kein eigenes KI-Gesetz, das mit dem AI-Act vergleichbar wäre. Allerdings orientiert sich das Schweizer Datenschutzgesetz (nDSG), das seit dem 1. September 2023 in Kraft ist, stark an der EU-DSGVO. Unternehmen, die in der Schweiz KI einsetzen, müssen daher sicherstellen, dass ihre Systeme sowohl den Anforderungen des nDSG als auch internationalen Standards entsprechen. Zudem werden künftige Entwicklungen zeigen, ob die Schweiz eigene spezifische Regelungen für KI erlässt oder sich eng an den EU-Act anlehnt.

Fazit

Der AI-Act ist ein Meilenstein in der Regulierung von Künstlicher Intelligenz. Unternehmen sollten sich frühzeitig mit den neuen Vorschriften auseinandersetzen, um Compliance sicherzustellen und innovative KI-Lösungen weiterhin erfolgreich auf den Markt zu bringen. In der Schweiz bleibt die Entwicklung spannend, und es ist ratsam, sich an den EU-Standards zu orientieren.

Sind Sie auf den AI-Act vorbereitet? Jetzt handeln und KI-Strategien anpassen. Kontaktieren Sie uns für eine unverbindliche Beratung.