EU-Parlament: Kein neues KI-Gesetz für Finanzbranche nötig
29.11.2025 - 09:00:13Die Weichen sind gestellt: Das EU-Parlament hat diese Woche eine entscheidende Richtungsänderung für künstliche Intelligenz im Finanzsektor vollzogen. Statt neuer Gesetze fordert Brüssel die konsequente Umsetzung des bestehenden KI-Gesetzes – mit deutlichem Fokus auf Mitarbeiterqualifikation und menschliche Kontrolle.
Der Beschluss vom Mittwoch, 26. November, kommt zu einem brisanten Zeitpunkt. Während der Versicherer Allianz Partners seine KI-gesteuerten Umstrukturierungspläne präsentiert, wächst der Druck auf die Branche, Compliance-Anforderungen und Risikoklassifizierung endlich zu klären.
Bei der Abstimmung am Mittwoch verabschiedeten die Abgeordneten einen Fahrplan für die KI-Integration in Banken und Versicherungen. Die Kernbotschaft: Die Finanzindustrie braucht keine zusätzlichen Gesetze, sondern eine bessere Anwendung der vorhandenen Regeln.
Viele Finanzinstitute unterschätzen, dass die EU-KI-Verordnung jetzt schon Pflichten für Risikoklassifizierung, Dokumentation und Mitarbeiterqualifikation normiert. Unser kostenloser Umsetzungsleitfaden erklärt praxisnah, wie Sie KI‑Anwendungen korrekt als Hochrisiko einstufen, welche Nachweise Aufsichtsbehörden erwarten und wie Sie «Human‑in‑the‑Loop»-Prozesse rechtssicher dokumentieren. Mit Checklisten für Compliance- und IT‑Teams, Vorlagen für Schulungsnachweise und sofort umsetzbaren To‑dos zur Haftungsvermeidung. Jetzt KI-Umsetzungsleitfaden herunterladen
„Es sind keine neuen rechtlichen Vorschriften erforderlich”, erklärte die zuständige EVP-Abgeordnete Arba Kokalari am 25. November. Stattdessen müssten bestehende Regelungen klarer und weniger bürokratisch gestaltet werden, um Investitionen zu ermöglichen.
Die Leitlinien fordern die Europäische Kommission auf, bestehende Finanzvorschriften zu überarbeiten und Widersprüche zum KI-Gesetz auszuräumen. Ziel ist es, eine „regulatorische Überfrachtung” zu vermeiden, die die europäische Wettbewerbsfähigkeit im Fintech-Bereich schwächen könnte. Ein Erfolg für Bankenverbände, die seit Monaten argumentieren, dass der Sektor bereits jetzt zu den am stärksten regulierten in Sachen Risikomanagement und Datenschutz gehört.
Doch der Bericht macht auch klar: Nationale Aufsichtsbehörden wie die BaFin müssen ihre Zusammenarbeit intensivieren und „einheitliche Auslegungen” entwickeln, wie KI-Risiken grenzüberschreitend einzustufen sind.
Neue Compliance-Front: Mitarbeiterkompetenz wird Pflicht
Während die Gefahr neuer Gesetze gebannt scheint, konkretisiert sich die Belastung durch das bestehende KI-Gesetz – besonders beim Personal. Laut einer Analyse der Börsen-Zeitung vom Freitag, 28. November, rückt ein oft übersehener Aspekt der Verordnung jetzt ins Zentrum: die „Kompetenzanforderung”.
Finanzinstitute müssen nicht nur die technische Robustheit ihrer KI-Systeme nachweisen, sondern auch belegen, dass die Mitarbeiter über ausreichende Fähigkeiten verfügen. Das KI-Gesetz verlangt, dass Personal, das mit „Hochrisiko”-Systemen arbeitet – etwa bei Kreditbewertungen oder Risikoeinschätzungen in der Lebensversicherung – die Ergebnisse und Grenzen des Systems versteht.
„Eine Standard-Schulung reicht nicht aus”, zitierten Rechtsexperten im Freitags-Bericht. Banken müssen sicherstellen, dass Mitarbeiter KI-Entscheidungen kritisch bewerten können, um das „Human in the Loop”-Prinzip zu wahren. Dies schafft ein neues Haftungsrisiko für die Geschäftsführung: Wird eine KI-gestützte Kreditablehnung angefochten und stellt sich heraus, dass der zuständige Kreditsachbearbeiter die Logik des Modells nicht versteht, drohen dem Institut empfindliche Strafen wegen Verstoßes gegen die Governance-Standards des KI-Gesetzes.
Hochrisiko-Systeme: Der Fall Allianz Partners
Wie dringend diese Compliance-Maßnahmen sind, zeigten die Entwicklungen bei Allianz Partners diese Woche. Wie der Tagesspiegel am 27. November berichtete, prüft die Versicherungstochter eine Umstrukturierung, von der bis zu 1.500 Stellen betroffen sein könnten. Das Unternehmen will einfachere Kundenservice-Aufgaben an KI-Systeme übergeben.
Dieser Schritt lenkt die Aufmerksamkeit direkt auf die „Hochrisiko”-Klassifizierung im KI-Gesetz. Während Kundenservice-Chatbots in der Regel als „begrenztes Risiko” gelten – sie müssen nur transparent machen, dass der Nutzer mit einer Maschine spricht –, fallen Systeme, die Entscheidungen über Beschäftigung oder den Zugang zu wesentlichen Dienstleistungen treffen, in die Hochrisiko-Kategorie.
Der Allianz-Fall zeigt, welchen Drahtseilakt Finanzinstitute bewältigen müssen. Während die neuen Parlamentsleitlinien Innovation und Effizienz fördern sollen, löst die Ersetzung menschlicher Arbeit durch KI strenge Governance-Anforderungen bezüglich Bias-Monitoring und Datenqualität aus. Regulierungsbehörden werden genau beobachten, ob automatisierte Systeme bei der Schadenbearbeitung oder Kundenrisiko-Profilerstellung nicht unbeabsichtigt diskriminieren – ein Kernpfeiler der Sicherheitsanforderungen des KI-Gesetzes.
Strategischer Imperativ für die Finanzbranche
Für Chief Compliance Officers und CIOs im Finanzsektor diktieren die Ereignisse der letzten 72 Stunden eine klare Marschrichtung. Die „Abwarten und Beobachten”-Phase bezüglich möglicher neuer KI-Finanzgesetze ist vorbei. Jetzt heißt es: umsetzen.
Finanzinstitute müssen sofort drei Bereiche priorisieren:
Erstens: Gap-Analyse der menschlichen Aufsicht. Nicht nur die Algorithmen müssen auf den Prüfstand, sondern auch die menschlichen Entscheidungsträger, die das letzte Wort bei KI-Vorschlägen haben.
Zweitens: Dokumentation der Kompetenz. Es braucht formelle Zertifizierungswege für Mitarbeiter, die mit Hochrisiko-KI arbeiten, um die diese Woche hervorgehobenen Haftungsstandards zu erfüllen.
Drittens: Risikoklassifizierung überprüfen. Alle KI-Anwendungsfälle müssen vor dem Hintergrund der klargestellten Parlamentsposition neu bewertet werden. Betrugserkennungssysteme, die Banken oft als risikoärmer einstufen, dürfen nicht unnötig wie Hochrisiko-Kreditbewertungstools behandelt werden – sofern sie bestimmte Kriterien erfüllen.
Mit Blick auf 2026 gilt: Den Wettbewerbsvorteil werden nicht diejenigen mit den besten Algorithmen haben, sondern jene, die nachweisen können, dass ihre Belegschaft befähigt ist, diese zu kontrollieren.
PS: Die Übergangsfristen der KI‑Verordnung laufen nicht ewig — jetzt entscheiden Sie, ob Ihr Institut rechtssicher bleibt. Dieses Gratis‑E‑Book zeigt, welche Fristen für Hochrisiko‑Systeme gelten, welche Dokumente und Tests Sie sofort anlegen müssen und wie Sie Mitarbeiterschulungen prüffähig nachweisen. Perfekt für Compliance‑Officer, CIOs und HR, die Umstrukturierungen mit KI planen. Kostenlosen AI‑Act‑Leitfaden sichern


