Vom Prinzip zur Prüfung: Was der neue BSI-Katalog für KI im Finanzsektor wirklich bedeutet

Die Diskussion um die Regulierung von Künstlicher Intelligenz ist erheblich konkreter geworden. Mit der Veröffentlichung des „Test Criteria Catalogue for AI Systems in Finance“ hat das Bundesamt für Sicherheit in der Informationstechnik (BSI) ein umfassendes Dokument vorgelegt, das die abstrakten Anforderungen des EU AI Acts in ein praktisches Prüf-Framework für Banken und Versicherungen übersetzt.

Doch was bedeutet dieser über 200 Seiten starke Katalog für die Praxis? Handelt es sich um eine finale Checkliste zur einfachen Abarbeitung oder vielmehr um eine komplexe neue Herausforderung? Unsere Analyse zeigt: Der Katalog ist ein methodischer Meilenstein, der die Ära der theoretischen Debatten beendet. Gleichzeitig liegt seine eigentliche Tücke im Detail und erfordert von jedem Finanzinstitut eine tiefgreifende strategische Auseinandersetzung.

 

Die Struktur: Ein ganzheitlicher und risikobasierter Ansatz

 

Das BSI strebt einen „risikobasierten, ganzheitlichen und verallgemeinerbaren Prüfansatz“ an. Der Katalog ist daher kein starres Regelwerk, sondern ein modulares System, das sich an die spezifische KI-Anwendung anpasst.
Der Prozess beginnt mit einem Fragebogen, der anhand von elf zentralen Fragen die Eigenschaften des KI-Systems erfasst. Wird generative KI eingesetzt? Ist die Modellarchitektur bekannt? Werden personenbezogene Daten verarbeitet? Die Antworten filtern die über 100 Einzelkriterien aus zehn Dimensionen, um eine gezielte und effiziente Prüfung zu ermöglichen.

Diese zehn Dimensionen umfassen den gesamten Lebenszyklus einer KI-Anwendung:

• AI Security & Robustness
• Data Quality & Management
• Development
• Fairness
• Governance
• Human Oversight
• IT-Security
• Monitoring
• Performance
• Transparency

 

Die Konkretheit: Wo der Katalog Klarheit schafft

 

Die Stärke des Dokuments liegt in seiner detaillierten Struktur. Jedes Kriterium ist nach einem klaren Schema aufgebaut, das eine Prüfanforderung, ein Prüfprinzip (dokumenten- oder testbasiert), unterstützende Hinweise und konkrete Vorschläge für Prüfmethoden und -werkzeuge enthält.

Beispielsweise werden für die Prüfung der Robustheit gegenüber Angriffen nicht nur die Angriffsarten (z. B. Evasion Attacks, Data Poisoning) benannt, sondern auch spezifische Open-Source-Tools wie „CleverHans“ oder die „Adversarial Robustness Toolbox“ als mögliche Prüfwerkzeuge vorgeschlagen. Dies schafft eine bisher nicht gekannte Transparenz darüber, wie eine technische Prüfung durch eine Behörde aussehen könnte.

 

Die Herausforderung: Wo Expertise unverzichtbar wird

 

Trotz dieser strukturellen Klarheit macht das BSI unmissverständlich klar, dass der Katalog kein simples Rezeptbuch ist. An den entscheidenden Stellen bleibt er bewusst generisch und überträgt die Verantwortung auf den Anwender.

1. Die Lücken in den eckigen Klammern: Viele Prüfanforderungen enthalten Platzhalter wie [Methoden], [Gegenmaßnahmen] oder [Key Performance Indicators]. Das BSI gibt vor, dass die Robustheit mit geeigneten Methoden analysiert werden muss, überlässt die Auswahl, Implementierung und Begründung dieser Methoden aber dem Unternehmen.

2. Fehlende Schwellenwerte: Der Katalog definiert keine universellen Pass/Fail-Grenzwerte. Stattdessen müssen Schwellenwerte für Metriken „im Einklang mit den Anforderungen des Anwendungsfalls“ individuell festgelegt werden13. Die Frage „Wie viel Robustheit ist genug?“ wird also nicht vom BSI, sondern vom Management und den Fachabteilungen des Finanzinstituts beantwortet werden müssen.

3. Keine Garantie für Rechtskonformität: Das BSI betont, dass die Erfüllung eines Kriteriums nicht automatisch die Konformität mit dem EU AI Act bedeutet, sondern als „möglicher Beitrag“ zu sehen ist.

4. Dies unterstreicht die Notwendigkeit einer eigenen, umfassenden Rechts- und Risikobewertung.

 

Spezialfall Generative KI: Ein Fokus auf neue Risiken

Für uns als Spezialisten für die Umsetzung von Anwendungsfällen mit generativer KI ist der Katalog besonders aufschlussreich. Er erkennt die einzigartigen Herausforderungen dieser Technologie an und widmet ihnen spezifische Kriterien:

  • Umgang mit Drittanbieter-Modellen: Bei der Nutzung von Modellen via API (z. B. von OpenAI, Azure) sind Architektur und Trainingsdaten oft nur teilweise bekannt. Der Katalog fordert hier explizit eine dokumentierte Analyse potenzieller Angriffsvektoren wie Backdoors oder Trigger in diesen „Black-Box“-Systemen.
  • Neue Angriffsvektoren: Das Kriterium GOV-03 verlangt eine Auseinandersetzung mit der Frage, wie GenAI selbst für Angriffe auf Kunden oder das Unternehmen genutzt werden könnte.
  • Transparenz und Kennzeichnung: TR-06 fordert, dass KI-generierte oder -modifizierte Inhalte für den Nutzer klar als solche gekennzeichnet werden, wofür Techniken wie Watermarking genannt werden.

Diese Punkte zeigen, dass der Einsatz von leistungsstarken, aber schwer durchschaubaren Foundation Models eine besonders sorgfältige und gut dokumentierte Risikosteuerung erfordert.

 

Fazit: Was jetzt zu tun ist

 

Der BSI-Katalog ist ein Weckruf. Er beendet die Phase des Abwartens und fordert von Banken und Versicherungen proaktives Handeln. Die inhaltliche Füllung des vom BSI vorgegebenen Rahmens ist eine unternehmensspezifische strategische Aufgabe.
Um Ihnen den Einstieg zu erleichtern, haben wir den ersten Schritt des Prozesses für Sie digitalisiert. Mit unserem kostenlosen macros BSI AI Compliance Navigator können Sie interaktiv den BSI-Fragebogen durchlaufen und erhalten sofort eine auf Ihr Projekt zugeschnittene Liste der relevanten Kriterien.

BSI AI Compliance Navigator

Nachdem Sie mit unserem Tool eine erste Bestandsaufnahme gemacht haben, empfehlen wir die folgenden strategischen Schritte:

1. Gap-Analyse: Führen Sie eine ehrliche Selbsteinschätzung durch. Wo stehen Sie in den für Sie relevanten Dimensionen? Wo fehlen Prozesse, Dokumentationen oder technische Prüfungen? Insbesondere die Bereiche Governance, AI Security und Data Management sind oft unterentwickelt.

2. Roadmap zur Audit-Fähigkeit entwickeln: Erstellen Sie einen klaren Plan, um die identifizierten Lücken zu schließen. Definieren Sie die fehlenden Parameter, wählen Sie die passenden Methoden und Werkzeuge aus und etablieren Sie die notwendigen Prozesse, um für zukünftige Audits gewappnet zu sein.

 

Der Weg zur nachweislich vertrauenswürdigen KI ist komplex. Aber mit einem strukturierten Vorgehen wird er beherrschbar. Lassen Sie uns darüber sprechen, wie wir Sie dabei unterstützen können, Ihre KI-Innovationen nicht nur erfolgreich, sondern auch zukunftssicher und BSI-konform zu gestalten.