Archiv der Kategorie: Künstliche Intelligenz

Model Cards für LLMs – was sie sind, warum sie zählen und wie der EU AI Act ihnen Rückenwind gibt

TL;DR: Model Cards sind strukturierte „Steckbriefe“ zu KI-Modellen. Sie dokumentieren Zweck, Trainingsdaten, Leistung, Risiken, Einschränkungen und Verantwortlichkeiten – und sind damit der schnellste Weg zu belastbarer Transparenz. Mit dem EU AI Act werden genau diese Informationspflichten für General-Purpose/LLM-Modelle schrittweise verbindlich: Seit 2. August 2025 gelten in der EU u. a. Transparenz- und Urheberrechtsauflagen sowie eine öffentliche Zusammenfassung der Trainingsdaten; für besonders leistungsstarke Modelle kommen zusätzliche Sicherheits- und Risiko-Pflichten hinzu. Eine gute Model Card hilft, diese Pflichten effizient zu erfüllen.

Was sind Model Cards (für LLMs)?

Model Cards wurden 2018/2019 als Standard für modellbegleitende Dokumentation vorgeschlagen: kurze, strukturierte Dokumente, die Einsatzbereich, Leistungswerte (inkl. Subgruppen), bekannte Grenzen und ethische Überlegungen eines Modells offenlegen. Für LLMs heißt das zusätzlich: Vor-/Feintuning, RLHF-Prozess, Benchmarks (z. B. MMLU/MT-Bench), Halluzinations- und Jailbreak-Resilienz, Datenschutz-Tests und Energie-Fußabdruck.

In der Praxis sind Model Cards inzwischen gelebter Standard – etwa auf dem Hugging-Face-Hub als README.md plus Metadaten.

Was hat das mit dem EU AI Act zu tun?

1) Zeitplan & Geltung

Der EU AI Act ist am 1. August 2024 in Kraft getreten. Für General-Purpose-AI (GPAI) – darunter fallen LLMs – gelten seit 2. August 2025 schrittweise Transparenz- und Urheberrechts-Pflichten; bereits zuvor in Verkehr gebrachte Modelle haben Übergangsfristen bis 2. August 2027.

2) Konkrete Pflichten für LLM/GPAI-Anbieter

  • Transparenz & technische Doku: Informationen über Fähigkeiten, Grenzen und sichere Nutzung bereitstellen (Art. 53).
  • Urheberrecht: Politik/Prozess zur Copyright-Compliance vorhalten.
  • Öffentliche Trainingsdaten-Zusammenfassung: Eine „hinreichend detaillierte“ Zusammenfassung der zum Training verwendeten Inhalte veröffentlichen – nach EU-Vorlage/Template, die die Kommission 2025 bereitgestellt hat (Art. 53 (1) d).
  • Systemische Risiken (nur sehr große Modelle): Für Modelle oberhalb eines Compute-Schwellenwerts (z. B. 10^25 FLOP) greifen zusätzliche Pflichten: Risikobewertung, Red-Teaming, Vorfall-Meldungen, Cybersecurity u. a.

Außerdem verlangt der Act Transparenz gegenüber Nutzenden – etwa Kennzeichnung synthetischer Inhalte und Hinweise, wenn man mit KI interagiert (Art. 50).

Kurz gesagt: Was der AI Act an Informationen fordert, bildet das Herzstück einer guten Model Card.

So baut man eine „AI-Act-feste“ Model Card für LLMs

Nachfolgend eine praxisnahe Struktur – jeweils mit Verweis, welcher AI-Act-Gedanke unterstützt wird:

  1. Modell-Steckbrief (Name, Version, Datum, Kontakt) – Technische Doku/Accountability.
  2. Intendierte Nutzung & Nicht-ZweckeSichere Nutzung, Minimierung von Fehlanwendungen.
  3. Trainingsdaten-Zusammenfassung (Quellenklassen, Kurationslogik, Geografien/Sprachen, Lizenzmix, Ausschlusskriterien) – öffentliche Summary nach EU-Template (Link/Anhang).
  4. Urheberrechts-Policy (Opt-out/Opt-in-Umgang, TDM-Ausnahmen, Rechtewahrung) – Copyright-Compliance.
  5. Modell-Herstellung (Pretraining-Objektiv, Feintuning, RLHF, Sicherheitsfilter) – Transparenz/Tech-Doku.
  6. Leistung & Evaluierung (Benchmarks, methodische Hinweise, Domänen/Sprachen, Subgruppen-Analysen) – Nachvollziehbarkeit & Fairness-Bewertung.
  7. Risikoprofil (Halluzination, Bias, Datenschutz-Leakage, Jailbreaks; bekannte Versagensmodi) – Risikomanagement/Systemic-Risk-Punkte für große Modelle.
  8. Red-Teaming & Sicherheit (Testdesign, adversariale Tests, Content-Moderation, Incident-Prozess) – Sicherheitsauflagen für systemische Risiken.
  9. Energie & Betrieb (Trainings-Compute, Inferenz-Kosten/-Fußabdruck, Effizienzmaßnahmen) – Best-Practice-Transparenz.
  10. Nutzungs-hinweise für Anwender:innen (Prompt-Beispiele, Grenzen, Kennzeichnungspflichten für Synthetic Media, Monitoring-Tipps) – Art. 50 Transparenz ggü. Endnutzenden.
  11. Governance & Wartung (Versionierung/Changelog, Deprecation-Policy, Kontaktkanäle für Vorfälle) – Kontinuität & Compliance-Nachweise.

Häufige Stolperfallen (und wie die Model Card hilft)

  • „Wir können die Trainingsdaten nicht offenlegen“ – Müssen Sie auch nicht: Gefordert ist eine Zusammenfassung, kein Rohdatendump, und es gibt ein offizielles Template.
  • „Unser Modell ist Open Source, also ausgenommen“ – Nur teilweise: Offene GPAI-Modelle müssen u. a. Trainingsdaten-Summary & Copyright-Policy trotzdem erfüllen; Ausnahmen greifen nicht bei systemischem Risiko.
  • „Transparenz ≠ Marketingbroschüre“ – Eine Model Card ist technische Dokumentation, die Audit-fest sein sollte – nicht nur hübsch formuliert.

Fazit

Model Cards waren lange „Good Practice“. Mit dem EU AI Act werden sie zum operativen Hebel, um Transparenz-, Copyright- und Sicherheitsanforderungen konkret und prüfbar umzusetzen. Oder persönlicher gesagt: Eine gute Model Card spart am Ende immer Zeit – weil sie die richtigen Fragen vorab beantwortet.

https://arxiv.org/abs/1810.03993 „Model Cards for Model Reporting“
https://huggingface.co/docs/hub/en/model-cards „Model Cards“
https://commission.europa.eu/news-and-media/news/ai-act-enters-force-2024-08-01_en „AI Act enters into force – European Commission“
https://artificialintelligenceact.eu/article/53/ „Article 53: Obligations for Providers of General-Purpose AI …“
https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai „The General-Purpose AI Code of Practice“
https://digital-strategy.ec.europa.eu/en/faqs/general-purpose-ai-models-ai-act-questions-answers „General-Purpose AI Models in the AI Act – Questions & Answers“
https://digital-strategy.ec.europa.eu/en/news/eu-rules-general-purpose-ai-models-start-apply-bringing-more-transparency-safety-and-accountability „EU rules on general-purpose AI models start to apply, bringing …“
https://artificialintelligenceact.eu/article/50/ „Article 50: Transparency Obligations for Providers and …“
https://artificialintelligenceact.eu/high-level-summary/ „High-level summary of the AI Act“

Apertus: Die Schweiz öffnet das Tor zu einer transparenten KI-Zukunft

Von der ETH Zürich bis Swisscom: Mit Apertus entsteht das erste große Open-Source-Sprachmodell der Schweiz – ein europäisches Signal für Transparenz, Forschung und digitale Souveränität.

Ein offenes Gegenmodell zur KI-Vormacht

Während die Welt auf die großen US-Technologieunternehmen blickt – OpenAI, Anthropic, Google oder Meta – entsteht in der Schweiz ein bemerkenswertes Gegenmodell: Apertus.

Das 2025 vorgestellte Sprachmodell ist nicht nur das erste seiner Art aus der Schweiz, sondern auch eines der transparentesten Projekte im globalen KI-Ökosystem. Im Zentrum steht eine Vision: Künstliche Intelligenz als öffentliches Gut, nicht als geschlossene Plattform.

Ein Gemeinschaftsprojekt von ETH, EPFL und Swisscom

Hinter Apertus steht eine Kollaboration führender Schweizer Forschungseinrichtungen:

  • ETH Zürich und EPFL Lausanne leiten die wissenschaftliche Entwicklung.
  • Das Centro Svizzero di Calcolo Scientifico (CSCS) in Lugano stellt mit seinem Supercomputer Alps die Recheninfrastruktur.
  • Swisscom sorgt für die technische Integration in Unternehmenslösungen über die Swiss AI Platform.

Diese Konstellation aus akademischer Exzellenz und industrieller Umsetzung macht Apertus zu einem Paradebeispiel für angewandte KI-Forschung in Europa.

Technische Basis: GPT-ähnlich, aber mit Schweizer Präzision

Apertus basiert auf der Transformer-Architektur, wie sie auch in GPT-Modellen zum Einsatz kommt.
Veröffentlicht wurden zwei Versionen:

  • ein Modell mit 8 Milliarden Parametern
  • und ein großes Modell mit 70 Milliarden Parametern

Beide existieren auch in sogenannten Instruction-tuned Varianten, also für dialogbasierte Anwendungen optimiert.

Das Modell wurde mit etwa 15 Billionen Tokens trainiert – in über tausend Sprachen. Besonderes Augenmerk galt dabei unterrepräsentierten Sprachen wie Schweizerdeutsch, Rätoromanisch oder Minderheitensprachen Osteuropas.

Ein eigens entwickeltes Embedding-System verhindert, dass Englisch zu stark dominiert – ein häufiges Problem bei globalen Sprachmodellen.

Transparenz als Prinzip

Das herausragende Merkmal von Apertus ist seine radikale Offenheit. Der gesamte Trainingsprozess, der Quellcode und die Trainingsdaten wurden offen gelegt – ein Novum im Umfeld großer Sprachmodelle.

Damit erfüllt Apertus nicht nur die Transparenzanforderungen des EU AI Act, sondern setzt Maßstäbe: Forscherinnen, Entwickler und Unternehmen können nachvollziehen, wie und mit welchen Daten das Modell trainiert wurde.

Das ist mehr als eine technische Entscheidung – es ist ein politisches Statement für Nachvollziehbarkeit und demokratische Kontrolle von KI.

Datenschutz und ethische Fragen

Die Entwickler betonen, dass das Projekt unter Einhaltung schweizerischer Datenschutz- und Urheberrechtsbestimmungen durchgeführt wurde. Gleichwohl wird transparent kommuniziert, dass nicht jede Quelle formal lizenziert ist – ein Hinweis, der in der Open-Source-Community als Zeichen verantwortungsbewusster Offenheit gilt.

Damit bewegt sich Apertus in einer realistischen Grauzone, die viele Forschungsinitiativen betrifft: Der Anspruch auf Transparenz kollidiert mit den unklaren rechtlichen Rahmenbedingungen des Internets.

Noch kein Chatbot – aber ein offenes Fundament

Zum jetzigen Stand (Herbst 2025) existiert Apertus ausschließlich als Textmodell. Es verfügt noch nicht über multimodale Fähigkeiten wie Bild- oder Audioverarbeitung. Doch die Roadmap sieht Erweiterungen vor, die Apertus mittelfristig zu einem vollwertigen Open-Source-Assistenten machen könnten.

Für viele Entwicklerinnen und Unternehmen bietet das Modell schon heute eine starke Grundlage – insbesondere für spezialisierte KI-Lösungen in Forschung, Verwaltung und Industrie.

Warum Apertus wichtig ist

Apertus ist mehr als ein Forschungsprojekt – es ist ein Signal an Europa.
In einer Zeit, in der KI-Infrastruktur zunehmend in privater Hand liegt, zeigt die Schweiz, dass technologische Souveränität und Offenheit kein Widerspruch sind.

Die Vorteile liegen auf der Hand:

  • Unabhängigkeit von US-Plattformen
  • Einhaltung europäischer Datenschutzstandards
  • Förderung lokaler Innovation und Mehrsprachigkeit

Damit wird Apertus zu einem Symbol einer eigenständigen europäischen KI-Strategie – klein, präzise, transparent.

Fazit: Apertus als Blaupause für offene KI

Mit Apertus haben ETH, EPFL und Swisscom einen neuen Standard gesetzt:
Ein leistungsfähiges, nachvollziehbares und frei zugängliches Sprachmodell, das Wissenschaft, Unternehmen und Gesellschaft gleichermaßen dienen kann.

In einer Welt, in der viele KI-Systeme zu „Black Boxes“ werden, öffnet die Schweiz mit Apertus – ganz seinem Namen entsprechend – ein Fenster in eine offene, überprüfbare KI-Zukunft.

https://de.wikipedia.org/wiki/Apertus

https://ethz.ch/de/news-und-veranstaltungen/eth-news/news/2025/09/medienmitteilung-apertus-ein-vollstaendig-offenes-transparentes-und-mehrsprachiges-sprachmodell.html

https://huggingface.co/collections/swiss-ai/apertus-llm

https://publicai.co/