Alle Beiträge von thodie

Model Cards für LLMs – was sie sind, warum sie zählen und wie der EU AI Act ihnen Rückenwind gibt

TL;DR: Model Cards sind strukturierte „Steckbriefe“ zu KI-Modellen. Sie dokumentieren Zweck, Trainingsdaten, Leistung, Risiken, Einschränkungen und Verantwortlichkeiten – und sind damit der schnellste Weg zu belastbarer Transparenz. Mit dem EU AI Act werden genau diese Informationspflichten für General-Purpose/LLM-Modelle schrittweise verbindlich: Seit 2. August 2025 gelten in der EU u. a. Transparenz- und Urheberrechtsauflagen sowie eine öffentliche Zusammenfassung der Trainingsdaten; für besonders leistungsstarke Modelle kommen zusätzliche Sicherheits- und Risiko-Pflichten hinzu. Eine gute Model Card hilft, diese Pflichten effizient zu erfüllen.

Was sind Model Cards (für LLMs)?

Model Cards wurden 2018/2019 als Standard für modellbegleitende Dokumentation vorgeschlagen: kurze, strukturierte Dokumente, die Einsatzbereich, Leistungswerte (inkl. Subgruppen), bekannte Grenzen und ethische Überlegungen eines Modells offenlegen. Für LLMs heißt das zusätzlich: Vor-/Feintuning, RLHF-Prozess, Benchmarks (z. B. MMLU/MT-Bench), Halluzinations- und Jailbreak-Resilienz, Datenschutz-Tests und Energie-Fußabdruck.

In der Praxis sind Model Cards inzwischen gelebter Standard – etwa auf dem Hugging-Face-Hub als README.md plus Metadaten.

Was hat das mit dem EU AI Act zu tun?

1) Zeitplan & Geltung

Der EU AI Act ist am 1. August 2024 in Kraft getreten. Für General-Purpose-AI (GPAI) – darunter fallen LLMs – gelten seit 2. August 2025 schrittweise Transparenz- und Urheberrechts-Pflichten; bereits zuvor in Verkehr gebrachte Modelle haben Übergangsfristen bis 2. August 2027.

2) Konkrete Pflichten für LLM/GPAI-Anbieter

  • Transparenz & technische Doku: Informationen über Fähigkeiten, Grenzen und sichere Nutzung bereitstellen (Art. 53).
  • Urheberrecht: Politik/Prozess zur Copyright-Compliance vorhalten.
  • Öffentliche Trainingsdaten-Zusammenfassung: Eine „hinreichend detaillierte“ Zusammenfassung der zum Training verwendeten Inhalte veröffentlichen – nach EU-Vorlage/Template, die die Kommission 2025 bereitgestellt hat (Art. 53 (1) d).
  • Systemische Risiken (nur sehr große Modelle): Für Modelle oberhalb eines Compute-Schwellenwerts (z. B. 10^25 FLOP) greifen zusätzliche Pflichten: Risikobewertung, Red-Teaming, Vorfall-Meldungen, Cybersecurity u. a.

Außerdem verlangt der Act Transparenz gegenüber Nutzenden – etwa Kennzeichnung synthetischer Inhalte und Hinweise, wenn man mit KI interagiert (Art. 50).

Kurz gesagt: Was der AI Act an Informationen fordert, bildet das Herzstück einer guten Model Card.

So baut man eine „AI-Act-feste“ Model Card für LLMs

Nachfolgend eine praxisnahe Struktur – jeweils mit Verweis, welcher AI-Act-Gedanke unterstützt wird:

  1. Modell-Steckbrief (Name, Version, Datum, Kontakt) – Technische Doku/Accountability.
  2. Intendierte Nutzung & Nicht-ZweckeSichere Nutzung, Minimierung von Fehlanwendungen.
  3. Trainingsdaten-Zusammenfassung (Quellenklassen, Kurationslogik, Geografien/Sprachen, Lizenzmix, Ausschlusskriterien) – öffentliche Summary nach EU-Template (Link/Anhang).
  4. Urheberrechts-Policy (Opt-out/Opt-in-Umgang, TDM-Ausnahmen, Rechtewahrung) – Copyright-Compliance.
  5. Modell-Herstellung (Pretraining-Objektiv, Feintuning, RLHF, Sicherheitsfilter) – Transparenz/Tech-Doku.
  6. Leistung & Evaluierung (Benchmarks, methodische Hinweise, Domänen/Sprachen, Subgruppen-Analysen) – Nachvollziehbarkeit & Fairness-Bewertung.
  7. Risikoprofil (Halluzination, Bias, Datenschutz-Leakage, Jailbreaks; bekannte Versagensmodi) – Risikomanagement/Systemic-Risk-Punkte für große Modelle.
  8. Red-Teaming & Sicherheit (Testdesign, adversariale Tests, Content-Moderation, Incident-Prozess) – Sicherheitsauflagen für systemische Risiken.
  9. Energie & Betrieb (Trainings-Compute, Inferenz-Kosten/-Fußabdruck, Effizienzmaßnahmen) – Best-Practice-Transparenz.
  10. Nutzungs-hinweise für Anwender:innen (Prompt-Beispiele, Grenzen, Kennzeichnungspflichten für Synthetic Media, Monitoring-Tipps) – Art. 50 Transparenz ggü. Endnutzenden.
  11. Governance & Wartung (Versionierung/Changelog, Deprecation-Policy, Kontaktkanäle für Vorfälle) – Kontinuität & Compliance-Nachweise.

Häufige Stolperfallen (und wie die Model Card hilft)

  • „Wir können die Trainingsdaten nicht offenlegen“ – Müssen Sie auch nicht: Gefordert ist eine Zusammenfassung, kein Rohdatendump, und es gibt ein offizielles Template.
  • „Unser Modell ist Open Source, also ausgenommen“ – Nur teilweise: Offene GPAI-Modelle müssen u. a. Trainingsdaten-Summary & Copyright-Policy trotzdem erfüllen; Ausnahmen greifen nicht bei systemischem Risiko.
  • „Transparenz ≠ Marketingbroschüre“ – Eine Model Card ist technische Dokumentation, die Audit-fest sein sollte – nicht nur hübsch formuliert.

Fazit

Model Cards waren lange „Good Practice“. Mit dem EU AI Act werden sie zum operativen Hebel, um Transparenz-, Copyright- und Sicherheitsanforderungen konkret und prüfbar umzusetzen. Oder persönlicher gesagt: Eine gute Model Card spart am Ende immer Zeit – weil sie die richtigen Fragen vorab beantwortet.

https://arxiv.org/abs/1810.03993 „Model Cards for Model Reporting“
https://huggingface.co/docs/hub/en/model-cards „Model Cards“
https://commission.europa.eu/news-and-media/news/ai-act-enters-force-2024-08-01_en „AI Act enters into force – European Commission“
https://artificialintelligenceact.eu/article/53/ „Article 53: Obligations for Providers of General-Purpose AI …“
https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai „The General-Purpose AI Code of Practice“
https://digital-strategy.ec.europa.eu/en/faqs/general-purpose-ai-models-ai-act-questions-answers „General-Purpose AI Models in the AI Act – Questions & Answers“
https://digital-strategy.ec.europa.eu/en/news/eu-rules-general-purpose-ai-models-start-apply-bringing-more-transparency-safety-and-accountability „EU rules on general-purpose AI models start to apply, bringing …“
https://artificialintelligenceact.eu/article/50/ „Article 50: Transparency Obligations for Providers and …“
https://artificialintelligenceact.eu/high-level-summary/ „High-level summary of the AI Act“

Mental Models & UX: Wie wir Erwartungen verstehen und Reibung vermeiden

Menschen kommen nie als unbeschriebene Blätter in ein Interface. Sie bringen Erwartungen, Routinen und kleine Erklärstücke mit, die ihnen sagen, wie etwas wahrscheinlich funktioniert. Diese inneren Landkarten nennt man Mental Models. Ein mentales Modell ist vereinfacht gesagt das, was Nutzer glauben, wie ein System funktioniert. Es ist keine objektive Wahrheit, sondern eine pragmatische Arbeitshypothese, die Handlungen leitet und mit jeder Erfahrung weitergeschrieben wird. Für Designer ist es entscheidend, diese Hypothese zu kennen und zu formen, denn sie entscheidet darüber, ob ein Produkt sich intuitiv anfühlt oder wie ein Rätsel wirkt.

Es lohnt sich, Mental Models von sogenannten Konzeptmodellen zu unterscheiden. Das Konzeptmodell beschreibt die Logik, die Gestalter bewusst in ein System einbauen, damit es für Menschen begreifbar wird. Das mentale Modell ist die Version im Kopf der Nutzer, die sich aus Symbolen, Beschriftungen, Affordanzen und früheren Erfahrungen speist. Gute UX bringt beide Modelle in Deckung, sodass das Interface das richtige mentale Bild provoziert. Don Norman hat diese Unterscheidung früh präzisiert und damit eine Grundlage für moderne Human Computer Interaction gelegt.

Warum Mental Models so mächtig sind

Menschen nutzen ihre inneren Modelle, um vorherzusagen, was als Nächstes passiert. Klickt man auf ein Lupen-Icon, erwartet man eine Suche. Liegt eine Datei im Papierkorb, hofft man auf Wiederherstellbarkeit. Treffen diese Erwartungen zu, entsteht das Gefühl von Leichtigkeit und Kontrolle. Brechen wir sie ohne Vorbereitung, steigen Unsicherheit und Fehlerquote. Mental Models sind damit nicht nur eine nette Theorie, sondern die operative Basis für Orientierung, Vertrauen und Flow im digitalen Erleben.

Mental Load kurz erklärt und warum sie im Alltag zählt

Mit Mental Load ist hier die mentale beziehungsweise kognitive Belastung beim Nutzen eines Produkts gemeint. Je höher die geforderte Denkleistung, desto anstrengender werden Suche, Entscheidung und Fehlerkorrektur. Eine hohe kognitive Last kann aus unklarer Struktur, widersprüchlichen Bezeichnungen oder ungewöhnlichen Interaktionsmustern entstehen. Reduzieren lässt sie sich durch klare Sprache, konsistente Muster, gute Informationsarchitektur und progressive Offenlegung. Ziel ist es, den Kopf frei zu halten für die Aufgabe und nicht für die Bedienung. Nielsen Norman Group beschreibt kognitive Last als die benötigte mentale Verarbeitungskraft, die direkt bestimmt, wie leicht Nutzer Inhalte finden und Aufgaben abschließen.

Personas als Brücke zwischen Produktteam und echten Erwartungen

Personas sind prägnante, fiktive Profile, die auf echten Daten basieren. Sie verdichten Forschungsergebnisse zu einer greifbaren Person mit Zielen, Verhaltensweisen und Kontexten. Der Wert liegt darin, Erwartungen sichtbar zu machen. Wenn ein Team sagt, Anna plant Reisen mobil in kurzen Pausen, dann lassen sich daraus mentale Modelle ableiten, etwa welche Navigation sie antizipiert oder wie viel Text sie lesen möchte. Personas helfen, die richtigen Annahmen in Designentscheidungen zu übersetzen und sie im Team zu verankern. NN/g definiert Personas als realistische, fiktive Beschreibungen typischer Nutzender, die Empathie fördern und Prioritäten schärfen.

Familiarität ist kein Nice-to-Have, sondern ein Beschleuniger

Familiarität bedeutet Vertrautheit. Nutzer lernen Muster aus anderen Produkten und bringen sie mit. Jakob’s Law fasst das elegant zusammen. Menschen verbringen die meiste Zeit in anderen Interfaces und erwarten, dass sich neue Produkte ähnlich verhalten. Wer bewusst gegen gängige Konventionen arbeitet, erzeugt Lernaufwand und erhöht die mentale Belastung. Erfolgreiche Designs greifen Bekanntes auf und erneuern dort, wo der Nutzen den Lernaufwand rechtfertigt. Konsistenz und Standards sind deshalb keine Formalie, sondern ein wirksames Mittel, um mentale Modelle gezielt zu aktivieren statt sie zu brechen.

Inertia und Change Aversion verstehen und respektieren

Inertia steht für Trägheit im Verhalten. Menschen halten an Gewohntem fest, weil Verlässlichkeit Energie spart. In der UX zeigt sich das als Change Aversion. Selbst sinnvolle Redesigns stoßen anfangs auf Ablehnung, schlicht weil sie neu sind. Teams sollten das nicht als Zeichen des Scheiterns lesen, sondern als erwartbare Reaktion. Gute Praxis ist es, Veränderungen zu erklären, Vorteile sichtbar zu machen, Übergänge zu erleichtern und an vertrauten Ankern festzuhalten. Jakob Nielsen bringt es auf den Punkt. Nutzer mögen es nicht, neu zu lernen, und Beschwerden gehören zur Einführungsphase fast immer dazu. Das Ziel lautet, die Reibung zu minimieren, nicht sie vollständig zu vermeiden.

So übersetzen wir Theorie in Gestaltung, ohne in Fachjargon zu versinken

Der erste Schritt ist Zuhören. Kontextinterviews und Beobachtungen zeigen, welche Geschichten Nutzer sich über ein System erzählen. Daraus entstehen erste Hypothesen über ihre mentalen Modelle. Im zweiten Schritt werden diese Annahmen in Navigationskonzepte und Interaktionsmuster übersetzt, die bekannte Erwartungen aufgreifen. Prototypen helfen, früh zu sehen, ob das gewünschte mentale Bild tatsächlich entsteht. Im dritten Schritt sorgt Sprache für Klarheit. Begriffe sollten so klingen, wie Menschen sie skizzieren würden. Wenn Nutzer Rechnungen sagen, dann sollte der Bereich nicht Abrechnung und Forderungsmanagement heißen. Im vierten Schritt wird konsistent verfeinert. Kleinere Verbesserungen, die die Orientierung verbessern, sind oft wirksamer als der große Wurf. Familiarität bleibt Leitplanke. Wo Neues nötig ist, begleiten Microcopy, Vorschauen und reversible Aktionen die Lernkurve. Die theoretische Trennlinie zwischen Konzeptmodell und mentalem Modell dient hier als Kompass. Wir gestalten bewusst ein klares Konzeptmodell, das die gewünschte mentale Vorstellung aktiviert, und messen anschließend, ob Nutzer wirklich dieses Bild übernehmen.

Typische Stolpersteine und wie man sie vermeidet

Viele Probleme beginnen mit blinden Flecken. Teams sind Expertinnen und Experten für ihr eigenes Produkt und unterschätzen, wie wenig Außenstehende wissen. Das führt zu Strukturen, die aus internen Abteilungen statt aus Nutzeraufgaben abgeleitet sind. Ein weiteres Muster ist die Verwechslung von Neuheit mit Fortschritt. Frische Optik macht noch keine bessere Erfahrung, wenn vertraute Anker verloren gehen. Schließlich gibt es die Versuchung, jede Ausnahme abzubilden. Das bläht Oberflächen auf und erhöht die mentale Last. Besser ist es, häufige Pfade zu optimieren und seltene Fälle mit guten Ausweichmöglichkeiten abzufangen. Die Leitfrage bleibt konstant. Welche Erwartung erzeugt dieses Element und passt sie zu dem, was tatsächlich passiert

Ein kurzer Blick in die Praxis

Nehmen wir eine Suchfunktion. Viele erwarten, dass Enter eine Suche abschickt, dass Ergebnisse nach Relevanz sortiert sind und dass die Suchbox die Anfrage stehen lässt, um sie schnell zu ändern. Wenn wir stattdessen Enter als Zeilenumbruch interpretieren, die Sortierung verstecken oder die Eingabe löschen, kollidieren wir mit gelernten Modellen. Die Folge ist ein sprunghafter Anstieg der mentalen Last, selbst wenn die Funktionalität objektiv mächtig ist. Durch bekannte Muster, klare Rückmeldungen und behutsame Hinweise lässt sich die gleiche Fähigkeitenbreite viel zugänglicher inszenieren. Diese Denkweise ist auf Checkout-Flows, Dateiverwaltung, Dashboards und mobile Navigation genauso übertragbar.

Fazit

Gute UX ist die Kunst, das Bild im Kopf der Nutzer mit der inneren Logik des Systems zu synchronisieren. Mental Models liefern dafür den Rahmen. Personas machen Erwartungen greifbar. Familiarität reduziert Lernaufwand und schafft Vertrauen. Ein bewusster Umgang mit Inertia glättet den Weg durch Veränderungen. Wer die mentale Last niedrig hält, schenkt Menschen den Luxus, sich auf die eigentliche Aufgabe zu konzentrieren. Oder anders gesagt. Ein Produkt fühlt sich dann intuitiv an, wenn die Geschichte, die es erzählt, mit der Geschichte übereinstimmt, die die Nutzer schon mitbringen.

https://www.interaction-design.org/literature/topics/mental-models?srsltid=AfmBOoolSQP4_l9q0nWkxbg2gadhua-WLtdBnYbUHG3LDIEvf0aBJgcB

Apertus: Die Schweiz öffnet das Tor zu einer transparenten KI-Zukunft

Von der ETH Zürich bis Swisscom: Mit Apertus entsteht das erste große Open-Source-Sprachmodell der Schweiz – ein europäisches Signal für Transparenz, Forschung und digitale Souveränität.

Ein offenes Gegenmodell zur KI-Vormacht

Während die Welt auf die großen US-Technologieunternehmen blickt – OpenAI, Anthropic, Google oder Meta – entsteht in der Schweiz ein bemerkenswertes Gegenmodell: Apertus.

Das 2025 vorgestellte Sprachmodell ist nicht nur das erste seiner Art aus der Schweiz, sondern auch eines der transparentesten Projekte im globalen KI-Ökosystem. Im Zentrum steht eine Vision: Künstliche Intelligenz als öffentliches Gut, nicht als geschlossene Plattform.

Ein Gemeinschaftsprojekt von ETH, EPFL und Swisscom

Hinter Apertus steht eine Kollaboration führender Schweizer Forschungseinrichtungen:

  • ETH Zürich und EPFL Lausanne leiten die wissenschaftliche Entwicklung.
  • Das Centro Svizzero di Calcolo Scientifico (CSCS) in Lugano stellt mit seinem Supercomputer Alps die Recheninfrastruktur.
  • Swisscom sorgt für die technische Integration in Unternehmenslösungen über die Swiss AI Platform.

Diese Konstellation aus akademischer Exzellenz und industrieller Umsetzung macht Apertus zu einem Paradebeispiel für angewandte KI-Forschung in Europa.

Technische Basis: GPT-ähnlich, aber mit Schweizer Präzision

Apertus basiert auf der Transformer-Architektur, wie sie auch in GPT-Modellen zum Einsatz kommt.
Veröffentlicht wurden zwei Versionen:

  • ein Modell mit 8 Milliarden Parametern
  • und ein großes Modell mit 70 Milliarden Parametern

Beide existieren auch in sogenannten Instruction-tuned Varianten, also für dialogbasierte Anwendungen optimiert.

Das Modell wurde mit etwa 15 Billionen Tokens trainiert – in über tausend Sprachen. Besonderes Augenmerk galt dabei unterrepräsentierten Sprachen wie Schweizerdeutsch, Rätoromanisch oder Minderheitensprachen Osteuropas.

Ein eigens entwickeltes Embedding-System verhindert, dass Englisch zu stark dominiert – ein häufiges Problem bei globalen Sprachmodellen.

Transparenz als Prinzip

Das herausragende Merkmal von Apertus ist seine radikale Offenheit. Der gesamte Trainingsprozess, der Quellcode und die Trainingsdaten wurden offen gelegt – ein Novum im Umfeld großer Sprachmodelle.

Damit erfüllt Apertus nicht nur die Transparenzanforderungen des EU AI Act, sondern setzt Maßstäbe: Forscherinnen, Entwickler und Unternehmen können nachvollziehen, wie und mit welchen Daten das Modell trainiert wurde.

Das ist mehr als eine technische Entscheidung – es ist ein politisches Statement für Nachvollziehbarkeit und demokratische Kontrolle von KI.

Datenschutz und ethische Fragen

Die Entwickler betonen, dass das Projekt unter Einhaltung schweizerischer Datenschutz- und Urheberrechtsbestimmungen durchgeführt wurde. Gleichwohl wird transparent kommuniziert, dass nicht jede Quelle formal lizenziert ist – ein Hinweis, der in der Open-Source-Community als Zeichen verantwortungsbewusster Offenheit gilt.

Damit bewegt sich Apertus in einer realistischen Grauzone, die viele Forschungsinitiativen betrifft: Der Anspruch auf Transparenz kollidiert mit den unklaren rechtlichen Rahmenbedingungen des Internets.

Noch kein Chatbot – aber ein offenes Fundament

Zum jetzigen Stand (Herbst 2025) existiert Apertus ausschließlich als Textmodell. Es verfügt noch nicht über multimodale Fähigkeiten wie Bild- oder Audioverarbeitung. Doch die Roadmap sieht Erweiterungen vor, die Apertus mittelfristig zu einem vollwertigen Open-Source-Assistenten machen könnten.

Für viele Entwicklerinnen und Unternehmen bietet das Modell schon heute eine starke Grundlage – insbesondere für spezialisierte KI-Lösungen in Forschung, Verwaltung und Industrie.

Warum Apertus wichtig ist

Apertus ist mehr als ein Forschungsprojekt – es ist ein Signal an Europa.
In einer Zeit, in der KI-Infrastruktur zunehmend in privater Hand liegt, zeigt die Schweiz, dass technologische Souveränität und Offenheit kein Widerspruch sind.

Die Vorteile liegen auf der Hand:

  • Unabhängigkeit von US-Plattformen
  • Einhaltung europäischer Datenschutzstandards
  • Förderung lokaler Innovation und Mehrsprachigkeit

Damit wird Apertus zu einem Symbol einer eigenständigen europäischen KI-Strategie – klein, präzise, transparent.

Fazit: Apertus als Blaupause für offene KI

Mit Apertus haben ETH, EPFL und Swisscom einen neuen Standard gesetzt:
Ein leistungsfähiges, nachvollziehbares und frei zugängliches Sprachmodell, das Wissenschaft, Unternehmen und Gesellschaft gleichermaßen dienen kann.

In einer Welt, in der viele KI-Systeme zu „Black Boxes“ werden, öffnet die Schweiz mit Apertus – ganz seinem Namen entsprechend – ein Fenster in eine offene, überprüfbare KI-Zukunft.

https://de.wikipedia.org/wiki/Apertus

https://ethz.ch/de/news-und-veranstaltungen/eth-news/news/2025/09/medienmitteilung-apertus-ein-vollstaendig-offenes-transparentes-und-mehrsprachiges-sprachmodell.html

https://huggingface.co/collections/swiss-ai/apertus-llm

https://publicai.co/

draw.io – Klarer denken durch klare Visualisierung

Gedanken, Ideen und sich sich entwickelnde Konzepte können ganz schön viel Kraft kosten. Man kann sich darin verlaufen und eventuell vergisst man auch dem das eine oder andere, dass einem zuerst nicht so wichtig erschien. Es hilft die Gedanken während des Denkprozesses zu visualisieren und eventuell auch verschiedene Versionen davon durchzuprobieren und damit zu spielen. Als unerlässliches Tool in meinem Arbeitsprozess hat sich hier #draw.io etabliert.

draw.io Webseite: https://www.drawio.com/
draw.io WebApp: https://app.diagrams.net/
draw.io zum Download: https://github.com/jgraph/drawio-desktop
draw.io Dokumentation: https://www.drawio.com/doc/

Streikrecht und Infrastruktur

Die Debatte tobt, wie man hier aus einem Artikel aus dem Spiegel sehen kann. Man möchte das Streikrecht der Personen einschränken, die im Bereich der Infrastruktur arbeiten. Es war ja schon immer eine schlechte Idee Infrastruktur zu privatisieren. Oft genug ist in der Natur der Sache, dass der Markt hier nicht wirkt und seine Vorteile entfalten kann.

Versprecher in Polen – Höhere Renten

Satire ist nicht mehr von der Realität zu unterscheiden. Das scheint wirklich ein Zeichen unserer Zeit zu sein. Der polnische Vize-Ministerpräsident #Kaczynski macht in einer Rede falsche Angaben zur Rente. Er spricht durch einen brutto/netto-Fehler einen zu hohen Betrag aus und statt den Fehler einzugestehen, wird der Betrag von den Verantwortlichen einfach angepasst.

https://www.tagesschau.de/ausland/europa/polen-rente-100.html

#Polen #Rente

Niedergang der Bildung – Die Schule ist voll

Das wohl schlimmste Symptom unserer Zeit ist der Niedergang des Bildungssystems.

Die Schullotterie

Wie wir so einen Zustand zulassen können, kann ich nicht verstehen.

Sofia wurde von den Kölner Gymnasien in der Nähe abgelehnt, die Schulen seien voll, heißt es. „Das bringt mich in eine Situation, in der ich mir wirklich große Sorgen mache. Das macht mich wütend“, sagt die junge Mutter.

Eine Fahrzeit von insgesamt drei Stunden ist in NRW für Schülerinnen und Schüler zumutbar.

Tja.

#Schule #Bildung #Zustand #Niedergang

Zustand der Bahn

Zustand des Bahn-Netzes – Vorstand fordert „radikalen Kurswechsel“

Der Zustand der Bahn kann mittlerweile nur noch als katastrophal bezeichnet werden.

Nach dieser Zählung sind 26 Prozent aller Weichen der Bahn derzeit in einem schlechten, mangelhaften oder ungenügenden Zustand, ebenso elf Prozent aller Brücken, 22 Prozent der Oberleitungen, 23 Prozent der Gleise, 42 Prozent aller Bahnübergänge und 48 Prozent aller Stellwerke.

Ich denke hier kann man nichts mehr beschönigen.

Bereits am Dienstag hatte der Bundesrechnungshof der Deutschen Bahn eine „Dauerkrise“ attestiert und vor allem die Bundesregierung als Eigentümerin der Bahn kritisiert. „Der Bund ist weit entfernt davon, die Probleme in den Griff zu bekommen.“ Der Rechnungshof riet der Bahn vor allem dazu, ihre „Engagements im Ausland oder in anderen Sparten einzustellen“ und sich auf den Bahnbetrieb in Deutschland zu konzentrieren.

„Die Krise der DB AG wird chronisch“

#DB #Bahn #Zustand #Infrastruktur #Verkehr