TL;DR: Model Cards sind strukturierte „Steckbriefe“ zu KI-Modellen. Sie dokumentieren Zweck, Trainingsdaten, Leistung, Risiken, Einschränkungen und Verantwortlichkeiten – und sind damit der schnellste Weg zu belastbarer Transparenz. Mit dem EU AI Act werden genau diese Informationspflichten für General-Purpose/LLM-Modelle schrittweise verbindlich: Seit 2. August 2025 gelten in der EU u. a. Transparenz- und Urheberrechtsauflagen sowie eine öffentliche Zusammenfassung der Trainingsdaten; für besonders leistungsstarke Modelle kommen zusätzliche Sicherheits- und Risiko-Pflichten hinzu. Eine gute Model Card hilft, diese Pflichten effizient zu erfüllen.
Was sind Model Cards (für LLMs)?
Model Cards wurden 2018/2019 als Standard für modellbegleitende Dokumentation vorgeschlagen: kurze, strukturierte Dokumente, die Einsatzbereich, Leistungswerte (inkl. Subgruppen), bekannte Grenzen und ethische Überlegungen eines Modells offenlegen. Für LLMs heißt das zusätzlich: Vor-/Feintuning, RLHF-Prozess, Benchmarks (z. B. MMLU/MT-Bench), Halluzinations- und Jailbreak-Resilienz, Datenschutz-Tests und Energie-Fußabdruck.
In der Praxis sind Model Cards inzwischen gelebter Standard – etwa auf dem Hugging-Face-Hub als README.md plus Metadaten.
Was hat das mit dem EU AI Act zu tun?
1) Zeitplan & Geltung
Der EU AI Act ist am 1. August 2024 in Kraft getreten. Für General-Purpose-AI (GPAI) – darunter fallen LLMs – gelten seit 2. August 2025 schrittweise Transparenz- und Urheberrechts-Pflichten; bereits zuvor in Verkehr gebrachte Modelle haben Übergangsfristen bis 2. August 2027.
2) Konkrete Pflichten für LLM/GPAI-Anbieter
- Transparenz & technische Doku: Informationen über Fähigkeiten, Grenzen und sichere Nutzung bereitstellen (Art. 53).
- Urheberrecht: Politik/Prozess zur Copyright-Compliance vorhalten.
- Öffentliche Trainingsdaten-Zusammenfassung: Eine „hinreichend detaillierte“ Zusammenfassung der zum Training verwendeten Inhalte veröffentlichen – nach EU-Vorlage/Template, die die Kommission 2025 bereitgestellt hat (Art. 53 (1) d).
- Systemische Risiken (nur sehr große Modelle): Für Modelle oberhalb eines Compute-Schwellenwerts (z. B. 10^25 FLOP) greifen zusätzliche Pflichten: Risikobewertung, Red-Teaming, Vorfall-Meldungen, Cybersecurity u. a.
Außerdem verlangt der Act Transparenz gegenüber Nutzenden – etwa Kennzeichnung synthetischer Inhalte und Hinweise, wenn man mit KI interagiert (Art. 50).
Kurz gesagt: Was der AI Act an Informationen fordert, bildet das Herzstück einer guten Model Card.
So baut man eine „AI-Act-feste“ Model Card für LLMs
Nachfolgend eine praxisnahe Struktur – jeweils mit Verweis, welcher AI-Act-Gedanke unterstützt wird:
- Modell-Steckbrief (Name, Version, Datum, Kontakt) – Technische Doku/Accountability.
- Intendierte Nutzung & Nicht-Zwecke – Sichere Nutzung, Minimierung von Fehlanwendungen.
- Trainingsdaten-Zusammenfassung (Quellenklassen, Kurationslogik, Geografien/Sprachen, Lizenzmix, Ausschlusskriterien) – öffentliche Summary nach EU-Template (Link/Anhang).
- Urheberrechts-Policy (Opt-out/Opt-in-Umgang, TDM-Ausnahmen, Rechtewahrung) – Copyright-Compliance.
- Modell-Herstellung (Pretraining-Objektiv, Feintuning, RLHF, Sicherheitsfilter) – Transparenz/Tech-Doku.
- Leistung & Evaluierung (Benchmarks, methodische Hinweise, Domänen/Sprachen, Subgruppen-Analysen) – Nachvollziehbarkeit & Fairness-Bewertung.
- Risikoprofil (Halluzination, Bias, Datenschutz-Leakage, Jailbreaks; bekannte Versagensmodi) – Risikomanagement/Systemic-Risk-Punkte für große Modelle.
- Red-Teaming & Sicherheit (Testdesign, adversariale Tests, Content-Moderation, Incident-Prozess) – Sicherheitsauflagen für systemische Risiken.
- Energie & Betrieb (Trainings-Compute, Inferenz-Kosten/-Fußabdruck, Effizienzmaßnahmen) – Best-Practice-Transparenz.
- Nutzungs-hinweise für Anwender:innen (Prompt-Beispiele, Grenzen, Kennzeichnungspflichten für Synthetic Media, Monitoring-Tipps) – Art. 50 Transparenz ggü. Endnutzenden.
- Governance & Wartung (Versionierung/Changelog, Deprecation-Policy, Kontaktkanäle für Vorfälle) – Kontinuität & Compliance-Nachweise.
Häufige Stolperfallen (und wie die Model Card hilft)
- „Wir können die Trainingsdaten nicht offenlegen“ – Müssen Sie auch nicht: Gefordert ist eine Zusammenfassung, kein Rohdatendump, und es gibt ein offizielles Template.
- „Unser Modell ist Open Source, also ausgenommen“ – Nur teilweise: Offene GPAI-Modelle müssen u. a. Trainingsdaten-Summary & Copyright-Policy trotzdem erfüllen; Ausnahmen greifen nicht bei systemischem Risiko.
- „Transparenz ≠ Marketingbroschüre“ – Eine Model Card ist technische Dokumentation, die Audit-fest sein sollte – nicht nur hübsch formuliert.
Fazit
Model Cards waren lange „Good Practice“. Mit dem EU AI Act werden sie zum operativen Hebel, um Transparenz-, Copyright- und Sicherheitsanforderungen konkret und prüfbar umzusetzen. Oder persönlicher gesagt: Eine gute Model Card spart am Ende immer Zeit – weil sie die richtigen Fragen vorab beantwortet.
https://arxiv.org/abs/1810.03993 „Model Cards for Model Reporting“
https://huggingface.co/docs/hub/en/model-cards „Model Cards“
https://commission.europa.eu/news-and-media/news/ai-act-enters-force-2024-08-01_en „AI Act enters into force – European Commission“
https://artificialintelligenceact.eu/article/53/ „Article 53: Obligations for Providers of General-Purpose AI …“
https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai „The General-Purpose AI Code of Practice“
https://digital-strategy.ec.europa.eu/en/faqs/general-purpose-ai-models-ai-act-questions-answers „General-Purpose AI Models in the AI Act – Questions & Answers“
https://digital-strategy.ec.europa.eu/en/news/eu-rules-general-purpose-ai-models-start-apply-bringing-more-transparency-safety-and-accountability „EU rules on general-purpose AI models start to apply, bringing …“
https://artificialintelligenceact.eu/article/50/ „Article 50: Transparency Obligations for Providers and …“
https://artificialintelligenceact.eu/high-level-summary/ „High-level summary of the AI Act“


