KI-Mo­del­le mit all­ge­mei­nem Ver­wen­dungs­zweck/GPAI

Die KI-Verordnung definiert ein KI-Modell mit allgemeinem Verwendungszweck in Art. 3 Nr. 63 KI-Verordnung als

  • "ein KI-Modell — einschließlich der Fälle, in denen ein solches KI-Modell mit einer großen Datenmenge unter umfassender Selbstüberwachung trainiert wird —,
  • das eine erhebliche allgemeine Verwendbarkeit aufweist
  • und in der Lage ist, unabhängig von der Art und Weise seines Inverkehrbringens ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen,
    und das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann,
  • ausgenommen KI-Modelle, die vor ihrem Inverkehrbringen für Forschungs- und Entwicklungstätigkeiten oder die Konzipierung von Prototypen eingesetzt werden".

Zusammengefasst zeichnen sich diese im englischen als „General Purpose AI“ (GPAI) bezeichneten KI-Modelle also dadurch aus, dass sie – wie ihr Name schon sagt – für verschiedene Anwendungszwecke eingesetzt werden können. Im Erwägungsgrund Nr. 97 wird dies als „allgemeine Verwendbarkeit“ und als „Fähigkeit, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen“ beschrieben. Im Gegensatz zu spezialisierten KI-Modellen wird einem GPAI-Modell nicht von vorneherein nur eine spezielle, eng abgesteckte Aufgabe während des Trainings beigebracht, z.B. das Erkennen von Produktionsfehlern an Bauteilen in einer Fertigungsstraße. Vielmehr sind diese GPAI-Modelle durch ihr Training auf sehr großen Datenmengen ohne die konkrete Vorgabe einer Aufgabe (sog. selbstüberwachtes Training) vielfältig in nachgelagerte Systeme integrierbar und einsetzbar.

"Große generative KI-Modelle sind ein typisches Beispiel für ein KI-Modell mit allgemeinem Verwendungszweck, da sie eine flexible Erzeugung von Inhalten ermöglichen, etwa in Form von Text- Audio-, Bild- oder Videoinhalten, die leicht ein breites Spektrum unterschiedlicher Aufgaben umfassen können.“ – Erwägungsgrund Nr. 99 KI-Verordnung.

Systeme, die ein GPAI-Modell integrieren und für eine Vielzahl an Zwecken eingesetzt werden können, werden entsprechend als „KI-System mit allgemeinem Verwendungszweck“ (GPAI-System) bezeichnet. Sie können für die direkte Verwendung konzipiert sein, oder wiederum in andere KI-Systeme integriert werden, inklusive Hochrisiko-KI-Systemen. Entsprechend gelten dann zusätzlich die Pflichten für KI-Systeme bzw. für Hochrisiko-KI-Systeme.

Die Regelungen der KI-Verordnung für GPAI-Modelle werden ab dem 02. August 2025 angewandt. Hierbei unterscheidet die KI-Verordnung zwischen „normalen“ GPAI-Modellen und solchen, die ein systemisches Risiko innehaben.

„normale“ GPAI-Modelle

Die oben beschriebenen Eigenschaften bezeichnen „normale" GPAI, für welche die folgenden Regelungen in der KI-Verordnung festgelegt sind:

Anbieter müssen sicherstellen, dass ihre Modelle sicher und vertrauenswürdig sind. Sind die Anbieter in Drittländern niedergelassen, möchten aber ein KI-Modell mit allgemeinem Verwendungszweck auf dem Unionsmarkt in Verkehr bringen, müssen sie nach Art. 54(1) KI-Verordnung vorher schriftlich einen in der Union niedergelassenen Bevollmächtigten benennen.

Insgesamt müssen Anbieter Informations- und Dokumentationspflichten nach Artikel 53 KI-Verordnung erfüllen, wie beispielsweise:

  • Erstellung und Aktualisierung einer technischen Dokumentation.
  • Dokumentation von Fähigkeiten und Grenzen des GPAI-Modells.
  • Offenlegung einer detaillierten Zusammenfassung der Trainingsdaten.
  • Strategie zum Umgang mit Urheberrechten (z. B. Schutz von Trainingsmaterial).

Teilweise Ausnahmen gibt es für KI-Modelle, die im Rahmen einer quelloffenen und freien Lizenz bereitgestellt werden. Details hierzu finden sich in Artikel 53 (2).

Die Informationen, welche in der technischen Dokumentation vorhanden sein müssen, werden in Annex XI der KI-Verordnung definiert. Auf Anfrage ist die technische Dokumentation dem Büro für Künstliche Intelligenz und den zuständigen nationalen Behörden zur Verfügung zu stellen.

Die Dokumentation über Grenzen und Fähigkeiten des GPAI-Modells soll mit dem Zweck erstellt werden, dass diese an die Anbieter von KI-Systemen weitergegeben werden kann, falls diese das Modell in ihr System integrieren. Um dieser Transparenzpflicht nachzukommen, müssen die Informationen mindestens die in Annex XII genannten Elemente enthalten.

Bezüglich dieser Punkte beabsichtigt die Kommission, entsprechende Leitlinien und Praxisleitfäden für die einzelnen Aspekte sowie ein Template für die Zusammenfassung der Trainingsdaten zu veröffentlichen.

Anbieter und Betreiber müssen zudem die Transparenzpflichten nach Artikel 50 erfüllen, sofern das KI-System unter die dort genannten Kategorien fällt, z.B. KI-Systeme, die direkt mit Personen interagieren oder solche, die Bild-, Ton- oder Videoinhalte erzeugen oder manipulieren.

GPAI-Modell mit systemischem Risiko

Ein GPAI-Modell besitzt ein systemisches Risiko, wenn eine der folgenden Bedingungen erfüllt ist:

a) Das GPAI-Modell weist Fähigkeiten mit hohem Wirkungsgrad auf (Art. 51 (1) a) KI-Verordnung).
oder

b) Es liegt eine entsprechende Entscheidung der Europäischen Kommission vor (Art. 51 (1) b) KI-Verordnung).

Die KI-Verordnung bezeichnet diese dann als „KI-Modell mit allgemeinem Verwendungszweck mit systemischem Risiko“. Details zur Einstufung sind in Artikel 51 KI-Verordnung definiert.

Details zu a): Ein hoher Wirkungsgrad wird vermutet, wenn der kumulative Rechenaufwand für das Training mindestens 10^25 Gleitkommaoperationen (Floating Point Operations Per Second, kurz: FLOPs) benötigt.

Details zu b): Hierzu sind laut KI-Verordnung die Kriterien aus Anhang XIII zu berücksichtigen. Diese umfassen bspw. die Anzahl der Modellparameter, die Größe und Qualität des Datensatzes oder die Anpassungsfähigkeit.

Für den Fall, dass ein GPAI-Modell die erste Bedingung erfüllt, unterliegt der Anbieter einer unverzüglichen Mitteilungspflicht (siehe Art. 52 KI-Verordnung) an die EU-Kommission.

Für GPAI-Modelle mit systemischem Risiko gelten neben den Information- und Dokumentationspflichten nach Art. 53 und Art. 54 KI-Verordnung zusätzliche Anforderungen nach Art. 55, wie:
- Erweiterung der technischen Dokumentation um die in Anhang XI Abschnitt 2 genannten Informationen,
- Evaluierung des GPAI-Modells zur Ermittlung und Minderung systemischer Risiken,
- Untersuchung und Bewertung der systemischen Risiken, sowie die Beobachtung und Dokumentation gravierender Vorfälle und deren Meldung an das KI-Büro, und
- Einführung von Maßnahmen zur Cybersicherheit sowie weitere Pflichten aus dem Art. 55 KI-Verordnung.

Leitlinien und Praxisleitfäden

Für die Aufsicht über GPAI-Modelle ist das KI-Büro der Europäischen Kommission zuständig. Das KI-Büro hat Leitlinien und Praxisleitfäden zu GPAI-Modellen vor Geltungsbeginn im August 2025 veröffentlicht. Diese sind zwar nicht bindend, bieten aber einen wichtigen Einblick in die Interpretation und Auslegung der Regelungen aus Sicht der Europäischen Kommission. Der erste Praxisleitfaden wurde veröffentlicht: EU-Praxisleitfaden zu GPAI-Modellen.
Dieser wird begleitet von Leitlinien und einem Template zur Dokumentation der Datenbasis, welche für das Training des GPAI Modells genutzt wurde.

Code of Practice für KI-Modelle mit allgemeinem Verwendungszweck

Der Code of Practice (CoP), im deutschen „Praxisleitfaden“, für KI-Modelle mit allgemeinem Verwendungszweck (engl. General Purpose Artificial Intelligence, GPAI) wurde am 10. Juli 2025 veröffentlicht und durch EU-Kommission und KI-Gremium gebilligt.

Der CoP stellt ein freiwilliges Dokument dar, welches die Industrie dabei unterstützen soll, die Verpflichtungen der KI-Verordnung für Anbieter von GPAI-Modellen zu erfüllen. Der CoP wurde im Auftrag des KI-Büros von unabhängigen KI-Expertinnen und Experten in einem Multi-Stakeholder-Prozess ausgearbeitet. Durch die freiwillige Unterzeichnung des CoP können Anbieter, nachweisen, dass sie die KI-Verordnung einhalten.

Die Kommission hat zudem im Juli ergänzende Leitlinien zu Schlüsselkonzepten im Zusammenhang mit GPAI-Modellen veröffentlicht. Unter anderem wird in den Leitlinien festgelegt, ab welcher fürs Training genutzten Rechenleistung es sich bei einem KI-Modell um ein GPAI-Modell handelt, was als freie und quelloffene Lizenz gilt und ab wann ein Nachtrainieren (sog. Finetuning) dazu führt, dass ein Marktakteur selbst zum Anbieter wird.

Drei Kapitel der CoP

Die zwei Kapitel Transparenz (engl. Transparency) und Urheberrecht (engl. Copyright) sind für alle Anbieter von GPAI-Modellen wichtig. Mit Einhaltung der dort beschriebenen Lösungen können Anbieter die Einhaltung ihrer Verpflichtungen gemäß Artikel 53 der KI-Verordnung nachweisen.

Das Kapitel Sicherheit und Gefahrenabwehr (engl. Safety and Security) hat nur für Anbieter der fortschrittlichsten GPAI-Modelle, d. h. solche mit systemischem Risiko gemäß Artikel 55 der KI-Verordnung, Relevanz.

Transparenz

Nach KI-Verordnung müssen GPAI-Modellanbieter eine ausreichende Transparenz gewährleisten. Das Transparenzkapitel erläutert diese Verpflichtungen und stellt ein Musterformular zur leichten Dokumentation der notwendigen Informationen bereit.

 

Das Transparenzkapitel in englischer Sprache finden Sie hier und das Musterformular zur Dokumentation hier.

Urheberrecht

 Die KI-Verordnung sieht vor, dass GPAI-Modellanbieter das EU-Urheberrecht durch Einführung einer Richtlinie einhalten. Das Kapitel zum Urheberrecht bietet hierzu praktische Lösungen.

 

Das Urheberrechtskapitel in englischer Sprache finden Sie hier.

Sicherheit und Gefahrenabwehr

Anbieter von GPAI-Modellen mit systemischem Risiko müssen diese Risiken adäquat managen. Hierzu bietet das Kapitel zu Sicherheit und Gefahrenabwehr eine Skizze konkreter, dem neuesten Stand der Technik entsprechende Vorgehensweisen.

 

Sie finden das Sicherheit und Gefahrenabwehr-Kapitel hier.

Nachfolgend werden die Kerninhalte dieser Leitlinie sowie der drei Kapitel zusammengefasst dargestellt. Ausführliche Informationen sind den verlinkten englischen Originalfassungen zu entnehmen.

Leitlinie zum Umfang der Verpflichtungen für GPAI-Modelle

GPAI-Modelle können in nachgelagerte („downstream“) KI-Systeme integriert werden, die vielfältige Anwendungsfälle abdecken können. Daher kommt den GPAI-Modellanbietern eine besondere Rolle und Verantwortung innerhalb der KI-Wertschöpfungskette zu. Entsprechend benötigen nachgelagerte Anbieter („downstream provider“) ein gutes Verständnis über die in ihre KI-Systeme zu integrierenden GPAI-Modelle und deren Kapazitäten, um die Pflichten und Anforderungen der KI-Verordnung erfüllen zu können. Ziel der Leitlinie ist es daher, festzulegen, für welche Modelle welche Verpflichtungen gelten, und welche Rollen den verschiedenen Akteuren in der KI-Wertschöpfungskette zugeschrieben werden. Diese Leitlinie ist ergänzend zu den Kapiteln des GPAI CoP zu verstehen. Da die Auslegung nur durch den EuGH erfolgen kann, ist sie allerdings nicht bindend.

Nachfolgend sind die wichtigsten Inhalte der Leitlinie zusammengefasst dargestellt. Für die genauen Details sei aber auf die englische Originalversion der Leitlinie verwiesen.

Klassifikation von GPAI-Modellen und GPAI-Modellen mit systemischem Risiko

Die Einstufung eines KI-Modells als GPAI-Modell wird entlang zweier Kriterien entschieden: der für das Training genutzten Rechenleistung – gemessen in Gleitkommaoperationen („floating point operations“, FLOP) – und der Modalitäten des Modells. Demnach gilt ein KI-Modell als GPAI-Modell, wenn folgendes zutrifft:

  • Für das Training genutzte Rechenleistung > FLOP

UND

  • Modalität = Textgenerierung (über Text oder Sprache/Audio)

Zusätzlich gilt: auch Modelle zur Generierung von Bild und Video können als GPAI-Modell gelten, denn die Optionen „Text-zu-Bild“ oder „Text-zu-Video“ stellen ebenfalls eine flexible Generierung von Inhalten dar, die ein breites Anwendungsgebiet haben. Ausgenommen sind allerdings Modelle, die zwar mit Text arbeiten, aber nur eine eng gefasste Aufgabe ausführen, bspw. rein dazu genutzt werden können, Sprache in Text umzuwandeln.

GPAI ModellKEIN GPAI Modell

Training auf großer Datenmenge, natürlicher Sprache (z.B. Text)

UND

Rechenleistung fürs Training benötigt >1023 FLOP

Modell generiert Text, aber Training mit Rechenleistung <1023 FLOP

ODER

Rechenleistung Training > 1023 FLOP, aber nur eng gefasste Anwendbarkeit, bspw.

  • Modellierung von Wetterverhältnissen
  • Generierung von Musik basierend auf Prompts und Lyrics
Indikatoren für signifikante Generalisierungsfähigkeit und breite Anwendbarkeit auf verschiedene AufgabenJeweils ein Indikatior nicht erfüllt: FLOP nicht erreicht oder breite Anwednbarkeit auf verschiedene Aufgaben nicht gegeben.

Darüber hinaus werden Modelle mit „Fähigkeiten mit hoher Wirkkraft“, d. h. Fähigkeiten, die denen der fortschrittlichsten GPAI-Modelle entsprechen oder diese übertreffen, als GPAI-Modelle mit systemischem Risiko definiert. Nach derzeitiger Auffassung liegt eine hohe Wirkkraft vor, wenn das Modell mit einer kumulierten Rechenleistung >  FLOP trainiert wurde. Auch basierend auf einer Entscheidung der EU-Kommission oder einer Warnung des wissenschaftlichen Gremiums kann ein KI-Modell als GPAI-Modell mit systemischem Risiko definiert werden. Wenn bekannt oder absehbar ist, dass ein GPAI-Modell systemische Risiken hat bzw. haben wird, muss die EU KOM sofort durch den GPAI-Modellanbieter informiert werden – eventuell sogar schon vor Abschluss des Trainings.

Hinweis: Die genauen Details zur Klassifikation von KI-Modellen und die Berechnung der FLOPs sind in der offiziellen Leitlinie beschrieben.

Lebenszyklus eines GPAI-Modells

Die Pflichten nach der KI-Verordnung sind entlang des gesamten Modell-Lebenszyklus einzuhalten. Dabei ist der Modell-Lebenszyklus so definiert, dass unterschiedliche Stadien der Modellentwicklung keine unterschiedlichen Modelle darstellen. Liegen Training und weitere Maßnahmen beim GPAI-Modellanbieter, wird dies insgesamt als Teil des Lebenszyklus desselben Modells erachtet, wie auch im nachfolgenden Schaubild dargestellt ist:

Lebenszyklus eines GPAI Modells: Maßnahmen durchgeführt durch GPAI-Modellanbieter

Lebenszyklus eines GPAI Modells: Maßnahmen durchgeführt durch GPAI-Modellanbieter

Knapp zusammengefasst zählen zu den Pflichten entlang des Modell-Lebenszyklus:
Pflichten für GPAI-Modell:
53 Abs. 1 lit. a, b: Erstellen einer Dokumentation und stetige Aktualisierung dieser
53 Abs. 1 lit. c: Anwenden der Copyright-Richtlinie
53 Abs. 1 lit. d: Veröffentlichen der Übersicht zu den für das Training genutzten Inhalte (unter Nutzung des Templates der EU KOM)
Zusätzlich im Falle eines Modells mit systemischen Risiko:
55 Abs. 1: Kontinuierliche Prüfung auf systemische Risiken und Umsetzung entsprechender Risikominderungsmaßnahmen

Anbieter eines GPAI-Modells

Nach KI-Verordnung Artikel 3 Absatz 3 ist ein Anbieter eine „natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die (…) ein KI-Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt und es unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringt (…), sei es entgeltlich oder unentgeltlich;“. Dabei bedeutet „Inverkehrbringen“ die Erstmalige Bereitstellung auf dem Unionsmarkt, die durch vielfältige Weise geschehen kann (näheres siehe Leitlinie). Für die Rolle des Anbieters kommen verschiedene Konstellationen in Frage, für die nachfolgend vereinfachte Beispiele dargestellt sind:

Grafische Darstellung für die Rolle des Anbieters: Es verschiedene Konstellationen in Frage, für die nachfolgend vereinfachte Beispiele dargestellt sind.

Weitere beispielhafte Szenarien verdeutlichen die möglichen Rollen und Wege des Inverkehrbringens in der KI-Wertschöpfungskette, wenn das GPAI-Modell in ein KI-System integriert ist (für die Zusammenhänge zwischen KI-/GPAI-Modellen und -Systemen)

Tabelle und Grafiken

Ferner können GPAI-Modelle weiter geändert oder zu neuen Modellen verfeinert werden. Das heißt, nachgelagerte Akteure können GPAI-Modelle verändern (mit oder ohne Integration in ein KI-System). Diese gelten nur dann als Anbieter des GPAI-Modells, wenn die Modifikation zu einer signifikanten Änderung in Generalität, Kapazitäten oder systemischem Risiko des Modells führt, was zutrifft, wenn die genutzte Rechenleistung für die Modifikation größer als ein Drittel der genutzten Rechenleistung für das Training ist. Die Pflichten der KI-Verordnung für Anbieter von GPAI-Modellen beschränken sich für diesen Fall des „nachgelagerten Modifizierers“ auf die durchgeführte Änderung oder Feinabstimmung des Modells. Beispielsweise könnte die bereits vorhandene technische Dokumentation um Informationen über die Änderungen, einschließlich neuer Trainings-datenquellen, ergänzt werden, um festgelegte Pflichten in der Wertschöpfungskette zu erfüllen.

Ausnahmen von bestimmten Verpflichtungen für Open-Source-GPAI-Modelle

GPAI-Modelle, die im Rahmen einer freien und quelloffenen Lizenz (Open-Source-Lizenz) bereitgestellt werden, sind von bestimmten Verpflichtungen befreit (siehe nachfolgende Tabelle). Diese Ausnahme gilt nicht für GPAI-Modelle, die ein systemisches Risiko darstellen.

Die genutzte Open-Source-Lizenz muss dabei den Zugang, die Nutzung, die Änderung und die Verbreitung des Modells ermöglichen und die Parameter des Modells, einschließlich Gewichte, Informationen über die Modellarchitektur und Informationen über die Modellnutzung, müssen öffentlich zugänglich gemacht werden. In der Leitlinie werden zudem einige Einschränkungen beschrieben, die, falls zutreffend, nicht die Kriterien einer Open-Source-Lizenz erfüllen würden.

Ausnahmen für GPAI Modelle unter einer entsprechend freuen und quelloffenen Lizenz
Müssen nicht erfüllenMüssen weiterhin erfüllen
  • Art. 53 Abs. 1 lit. (a): aktuelle technische Dokumentation des Modells
  • Art. 53 Abs. 1 lit. (b): aktuelleInformationen und Dokumentation für Anbieter von KI-Systemen
  • Art. 54: Bennen eines Bevöllmächtigten, falls GPAI.Anbieter nicht EU-ansässig
  • Art. 53 Abs. 1 lit. (c): Strategie zur Einhaltung des Urheberrechts
  • Art. 53 Abs. 1 lit. (d): Zusammenfassung der Inhalte, die fürs Training genutzt wurden
  • Veröffentlichung von Modell-Informationen zu Eingabe-/Ausgabemodalitäten, Kapazität, Einschränkungen, Nutzungshinweise (inkl. Infrastruktur und Tools)

Umsetzung der Pflichten für GPAI-Modellanbieter

Die Verpflichtungen sind am 2. August 2025 in Kraft getreten. GPAI-Modelle, die vor dem 2. August 2025 auf den Markt gebracht wurden, müssen die Verpflichtungen der KI-VO bis zum 2. August 2027 erfüllen. Im Auftrag der EU-Kommission werden die Verpflichtungen durch das KI-Büro überwacht und durchgesetzt. Anbieter von GPAI-Modellen können die Compliance mit den Pflichten nach Art. 53 Abs. 1 und 55 Abs. 1 nachweisen, indem sie den Praxisleitfaden unterzeichnen und den entsprechenden Maßnahmen der Kapitel folgen. Es ist auch möglich, die Einhaltung der Verpflichtungen durch andere, eigene angemessene Mittel nachzuweisen.

Transparenz

In Kürze

  • Modelldokumentation erstellen und pflegen – Vollständiges Dokumentationsformular und Updates verpflichtend für Anbieter; frühere Versionen sind zehn Jahre aufzubewahren.
  • Transparente Information bereitstellen – Kontakt‑ und Modellinformationen sind öffentlich; auf Anfragen des KI‑Büros oder nachgelagerten Anbietern sind aktuelle Unterlagen innerhalb max. 14 Tagen zu liefern.
  • Qualität, Integrität und Sicherheit sichern – Alle dokumentierten Daten sind auf Richtigkeit zu prüfen, unveränderlich zu archivieren und nach anerkannten Protokollen sowie technischen Standards zu schützen.

Das Ziel des Kapitels ist es, die Transparenz bei der Nutzung von GPAI-Modellen zu verbessern und die Funktionsweise des Binnenmarktes zu fördern. Es beschreibt Maßnahmen, die die Unterzeichner umsetzen müssen, um den Transparenzverpflichtungen gemäß Artikel 53 Absatz 1, Buchstaben (a und (b, sowie den entsprechenden Anhängen XI und XII der KI-Verordnung nachzukommen.

Um die Verpflichtungen zu erfüllen, erklären sich die Unterzeichner dazu bereit die drei Maßnahmen dieses Kapitels umzusetzen.

Gemäß Artikel 53 Absatz 2 KI-Verordnung gelten diese Maßnahmen nicht für Anbieter von GPAI-Modellen, die unter einer freien und quelloffenen Lizenz veröffentlicht werden und die in dieser Bestimmung genannten Bedingungen erfüllen, es sei denn, es handelt sich um GPAI-Modell mit systemischen Risiken.

Maßnahme 1: Erstellung und Aktualisierung der Modelldokumentation

Wenn Unterzeichner ein GPAI-Modell auf den Markt bringen, müssen sie mindestens alle im Modelldokumentationsformular im Anhang dieses Kapitels genannten Informationen festhalten. Anbieter können das Musterformular der Kommission verwenden, um dieser Verpflichtung nachzukommen.

Die Unterzeichner aktualisieren die Modelldokumentation, um alle relevanten Änderungen zu berücksichtigen, einschließlich Aktualisierungen desselben Modells, wobei frühere Versionen der Modelldokumentation zehn Jahre nach der Veröffentlichung des Modells aufbewahrt werden müssen.

Maßnahme 2: Bereitstellung von Informationen

Wenn die Unterzeichner ein GPAI-Modell auf den Markt bringen, veröffentlichen sie ihre Kontaktinformationen für das KI-Büro und die nachgelagerten Anbieter beispielsweise auf ihrer Website. 

Auf Anfrage des KI-Büros gemäß Artikel 91 oder Artikel 75 Absatz 3 der KI-Verordnung stellen die Unterzeichner die erforderlichen Teile der Modelldokumentation oder zusätzliche Informationen bereit. Die angeforderten Informationen müssen in ihrer aktuellsten Form innerhalb der einer durch das KI-Büro gemäß Artikel 91 Absatz 4 der KI-Verordnung gesetzten Frist geliefert werden.

Die Unterzeichner stellen den nachgelagerten Anbietern die Informationen aus der aktuellsten Musterdokumentation zur Verfügung. Dies erfolgt unter Beachtung der Vertraulichkeitsregelungen in Artikel 53 Absatz 7 und Artikel 78 der KI-Verordnung.  Die nachgelagerten Anbieter können zusätzliche Informationen anfordern, die die Unterzeichner innerhalb von 14 Tagen nach Eingang der Anfrage bereitstellen müssen.  Die Unterzeichner sollten überprüfen, ob die dokumentierten Informationen ganz oder teilweise, auch in zusammengefasster Form, der Öffentlichkeit zugänglich gemacht werden können, um die Transparenz zu erhöhen.

Maßnahme 3: Gewährleistung der Qualität, Integrität und Sicherheit der Informationen

Die Unterzeichner stellen sicher, dass die dokumentierten Informationen auf Qualität und Integrität überprüft werden. Sie bewahren diese Informationen als Nachweis für die Einhaltung der Verpflichtungen aus der KI-Verordnung auf und schützen sie vor unbeabsichtigten Änderungen. Bei der Erstellung, Aktualisierung und Überprüfung der Informationen und Dokumentationen zur Entwicklung folgen die Unterzeichner den etablierten Protokollen und technischen Standards.

Was bedeutet das für nachgelagerte Anbieter (Downstream-Provider)?

  • Zugang zu aktueller Modelldokumentation – Der Anbieter muss Zugang zur neuesten Musterdokumentation des GPAI‑Modells (inkl. technischer Details, Datenherkunft und Risikobewertung) schaffen.
  • Klare Kontakt‑ und Fristenregelung – Der Anbieter veröffentlicht seine Kontaktinformationen; auf Anfrage liefert er die geforderten Unterlagen innerhalb von maximal 14 Tagen, wobei vertrauliche Daten gemäß Art. 53 Abs. 7 und Art. 78 KI‑Verordnung geschützt bleiben.
  • Qualitäts‑ und Integritätsgarantie – Die bereitgestellten Informationen sind von dem Anbieter auf Qualität und Integrität geprüft und unveränderlich archiviert, sodass bei Audits verlässliche Nachweise über die Einhaltung der KI‑Verordnung vorlegelegt werden können.

[ENDE]

Urheberrecht

In Kürze

  • copyright policy – Zentrales Dokument, das alle Maßnahmen beschreibt, Verantwortlichkeiten festlegt und öffentlich zugänglich gemacht wird.
  • Rechtmäßiges Crawlen – Nur legal zugängliche, urheberrechtlich geschützte Inhalte dürfen gecrawlt werden; Paywalls und Abonnements dürfen nicht umgangen werden. Illegale bzw. Piraterie‑Websites stehen auf einer EU‑Liste und werden vom Crawling ausgeschlossen.
  • Beachtung von Rechtevorbehalten – Crawler müssen maschinenlesbare Protokolle, die Rechtevorbehalte ausdrücken, erkennen und einhalten; Rechteinhaber erhalten automatisierte, öffentlich zugängliche Informationen über die eingesetzten Crawler.
  • Verhinderung urheberrechtsverletzender Ergebnisse – Technische Sicherheitsmaßnahmen verhindern, dass das Modell geschützte Inhalte reproduziert. Nutzungs‑/Geschäftsbedingungen verbieten ausdrücklich die rechtswidrige Nutzung des Modells (auch bei Open‑Source‑Lizenz).
  • Ansprechpartner & Beschwerdeverfahren – Jeder Anbieter benennt einen Ansprechpartner für elektronische Beschwerden von Rechteinhabern, prüft und bearbeitet sie zeitnah, ohne bestehende Rechtsmittel zu beeinträchtigen.

Das Ziel dieses Kapitels besteht in der Sicherstellung der Einhaltung der Urheberrechtsgesetze der Europäischen Union durch Anbieter von GPAI-Modellen.

Um zu zeigen, dass sie die Vorgaben des Artikels 53 Absatz 1 Buchstabe c) der KI-Verordnung einhalten, müssen die Unterzeichner eine Strategie zur Einhaltung des europäischen Urheberrechts und verwandter Schutzrechte („copyright policy“) verfolgen.

Die Unterzeichner müssen vor urheberrechtlich relevanten Handlungen im Hoheitsgebiet des betreffenden Mitgliedstaats sicherstellen, dass ihre Urheberrechtsstrategie mit den europäischen Urheberrechtsgesetzen übereinstimmt, um eine Haftung nach dem europäischen Urheberrecht und den verwandten Schutzrechten zu vermeiden.

Die fünf Maßnahmen, die der CoP listet, berühren nicht die Einhaltung des Urheberrechts und der verwandten Schutzrechte, enthalten aber Zusagen, mit denen die Unterzeichner nachweisen können, dass sie der Verpflichtung nachkommen.

Maßnahme 1: Ausarbeitung, Aktualisierung und Umsetzung einer copyright policy

Die copyright policy muss alle Maßnahmen des Kapitels in einem einzigen Dokument beschreiben und Verantwortlichkeiten für die Umsetzung und Überwachung innerhalb der Organisation zuweisen. Zudem sollten die Unterzeichner eine aktuelle Zusammenfassung ihrer copyright policy öffentlich zugänglich machen.

Maßnahme 2: Reproduktion und Extraktion nur rechtmäßig zugänglicher, urheberrechtlich geschützter Inhalte beim Crawlen des World Wide Web

Beim Text- und Data-Mining im Sinne von Artikel 2 Absatz 2 der Richtlinie (EU) 2019/790 (Urheberrechtsrichtlinie) verpflichten sich die Unterzeichner,

  1. wirksame technische Maßnahmen im Sinne Artikel 6 Absatz 3 der Richtlinie 2001/29/EG (InfoSoc-Richtlinie) zur Abwehr von Urheberrechtsverstößen nicht zu umgehen. Dazu gehört die Anerkennung von technischen Zugangsbeschränkungen wie Abonnementmodellen oder Paywalls.
  2. sogenannte "illegale Inhaltsplattformen" oder "Piraterie-Websites" vom Crawlen auszuschließen. Zur Einhaltung dieser Maßnahme wird eine öffentliche Liste mit Links zu diesen Websites auf einer EU-Website veröffentlicht und aktualisiert wird.

Maßnahme 3: Identifizierung und Einhaltung von Rechtevorbehalten beim Crawlen des World Wide Web

Die Unterzeichner verpflichten sich:

  1. Web-Crawler einzusetzen, die Anweisungen im Robots Exclusion Protocol (robots.txt) erkennen und befolgen.
  2. auch andere geeignete maschinenlesbare Protokolle, die Rechtsvorbehalte gemäß Artikel 4 Absatz 3 der Urheberrechtsrichtlinie ausdrücken, zu erkennen und einzuhalten.

Diese Zusage beeinträchtigt nicht das Recht der Rechteinhaber, die Nutzung ihrer Werke und anderer geschützter Inhalte für Text- und Data-Mining ausdrücklich einzuschränken. Diese Zusage beeinflusst außerdem nicht die Anwendung des EU-Urheberrechts und verwandter Schutzrechte auf geschützte Inhalte, die von Dritten aus dem Internet durch Scraping oder Crawling bezogen und von den Unterzeichnern für Text- und Data-Mining sowie zum Training ihrer GPAI-Modelle genutzt werden, insbesondere in Bezug auf Rechtevorbehalte gemäß Artikel 4 Absatz 3 der Urheberrechtsrichtlinie.

Die Unterzeichner werden ermutigt, die Prozesse unter 1.) und 2.) zu unterstützen und auf freiwilliger Basis Gespräche mit den Rechteinhabern und anderen relevanten Akteuren zu führen, um geeignete maschinenlesbare Standards und Protokolle zu entwickeln, die einen Rechtevorbehalt nach Artikel 4 Absatz 3 der Urheberrechtsrichtlinie ausdrücken.

Die Unterzeichner müssen sicherstellen, dass betroffene Rechteinhaber leicht Zugang zu Informationen über die eingesetzten Web-Crawler und deren Funktionen erhalten. Diese Informationen müssen öffentlich zugänglich sein und Rechteinhaber sollten automatisch benachrichtigt werden, wenn sie aktualisiert werden, zum Beispiel über einen Webfeed. Dies geschieht ohne Einschränkung des Rechts auf Informationen gemäß Artikel 8 der Richtlinie 2004/48/EG.

Unterzeichner, die auch eine Online-Suchmaschine im Sinne von Artikel 3 Buchstabe J der Verordnung (EU) 2022/2065 (Digital Services Act) anbieten oder einen solchen Anbieter beherrschen sind aufgefordert sicher zu stellen, dass Rechtsvorbehalte für Text- und Data-Mining-Aktivitäten sowie für das Training von KI-Modellen umgesetzt werden, ohne dass die Indexierung des betroffenen Inhalts, der Domäne(n) und/oder der URL(s) in der Suchmaschine negativ beeinflusst wird.

Maßnahme 4: Minderung des Risikos urheberrechtsverletzender Ergebnisse

Damit ein nachgelagertes KI-System mit integriertem GPAI-Modell keine urheberrechtsverletzenden Inhalte erzeugt, verpflichten sich die Unterzeichner:

  1. angemessene und proportionale technische Sicherheitsmaßnahmen zu ergreifen, um sicherzustellen, dass ihre Modelle keine Inhalte wiedergeben, die gegen das europäische Urheberrecht oder verwandte Schutzrechte verstoßen, und
  2. in ihren Nutzungsbedingungen, Geschäftsbedingungen oder anderen gleichwertigen Dokumenten urheberrechtsverletzende Verwendungen eines Modells verbieten
    oder
    im Fall von freien und quelloffenen Modellen, in der Begleitdokumentation des Modells ausdrücklich darauf hinzuweisen, dass eine urheberrechtsverletzenden Nutzung verboten ist, ohne dabei den freien und quelloffenen Charakter der Lizenz einzuschränken.

Diese Maßnahme gilt unabhängig davon, ob ein Unterzeichner das Modell vertikal in eigene KI-Systeme integriert oder ob das Modell einer anderen Einrichtung auf der Grundlage vertraglicher Beziehungen zur Verfügung gestellt wird.

Maßnahme 5: Benennung eines Ansprechpartners und Bereitstellung von Beschwerdemöglichkeiten

Die Unterzeichner schaffen einen Mechanismus, über den Rechteinhaber oder ihre Vertreter elektronisch Beschwerden über Verstöße gegen die Verpflichtungen dieses Kapitels einreichen können. Diese Beschwerden müssen präzise und gut begründet sein. Die Unterzeichner bearbeiten sie sorgfältig und innerhalb einer angemessenen Zeit, sofern sie nicht offensichtlich unbegründet sind oder bereits behandelt wurden.

Diese Regelung ändert nichts an den bestehenden Rechtsmitteln und Sanktionen zum Schutz von Urheberrechten und verwandten Schutzrechten.

Was bedeutet das für Rechteinhaber?

  • Verpflichtung der Anbieter zu einer öffentlichen Copyright‑Policy - Jeder GPAI‑Anbieter muss ein dokumentiertes Urheberrecht‑Konzept vorlegen, das Verantwortlichkeiten definiert und öffentlich einsehbar ist.
  • Nur rechtmäßig zugängliche Inhalte dürfen gecrawlt werden - Paywalls, Abonnements und andere Zugangsbeschränkungen dürfen nicht umgangen werden.
  • Einhaltung von Rechte‑Vorbehalten - Crawler müssen sämtliche Anweisungen zum Ausschluss von Inhalten automatisch respektieren. Jederzeit zugängliche Informationen über die eingesetzten Crawler und automatische Benachrichtigung (z. B. via Web‑Feed) bei Änderungen.
  • Technische Schutzmaßnahmen gegen urheberrechtsverletzende Ausgaben - Anbieter müssen Filter/Erkennungs‑Tools einbauen, die verhindern, dass das Modell geschützte Werke reproduziert.
  • Beschwerde‑ und Kontaktmechanismus - Jeder Anbieter benennt einen Ansprechpartner für elektronische Beschwerden von Rechteinhabern. Beschwerden werden geprüft, begründet und innerhalb einer angemessenen Frist bearbeitet, ohne die bestehenden Rechtsmittel zu beeinträchtigen.

[ENDE]

Sicherheit und Gefahrenabwehr

In Kürze

  • Framework zur Sicherheit und Gefahrenabwehr - vgl. Verpflichtungen 1-4
    deckt alle Modell‑Lebenszyklen (Entwicklung, Markteinführung, Nutzung) ab, mit definierten Prozessen, Trigger‑Punkten und Akzeptanz‑Kriterien; vor dem Inverkehrbringen erfolgt eine vier‑stufige Risikoprüfung (Zyklus: (Identifikation → Analyse → Akzeptanz); bei Nicht‑Akzeptanz: Mitigation → erneute Prüfung)
  • Sicherheitsmaßnahmen, Berichte & Zuständigkeiten - vgl. Verpflichtungen 5‑8
    Sicherheits‑ und Cybersicherheitsmaßnahmen über den gesamten Modelllebenszyklus, Festlegung eines Cybersicherheitsziels, Erstellung und regelmäßige Aktualisierung eines umfassenden Berichts und klare Zuweisung von Zuständigkeiten, Ressourcen und gesunder Risikokultur zum Management systemischer Risiken. Maßnahmen sollen robust gegenüber Angriffen sein, die Risiken akzeptabel machen und für KMU/Start‑Ups in vereinfachter Form dokumentiert werden.
  • Meldungen & Transparenz - vgl. Verpflichtung 9-10
    Erfassung und Meldung kritischer Vorfälle samt angemessener Abhilfe; fortlaufende Dokumentation und ggf. veröffentlichte, geschwärzte Zusammenfassungen von Framework, Modellarchitektur, Evaluation und Sicherheitsmaßnahmen.

Ziel dieses Kapitels ist es, durch umfassende Maßnahmen sicherzustellen, dass die systemischen Risiken der Modelle in einem akzeptablen Rahmen sind. Systemische Risiken eines GPAI-Modells entstehen, wenn seine Reichweite und Leistungsfähigkeit großflächige, negative Folgen haben können wie bspw. durch Desinformation, Cyberangriffe oder die Gefährdung demokratischer Prozesse und öffentlicher Sicherheit. Außerdem können solche Modelle Grundrechte und Privatsphäre bedrohen und Diskriminierung in großem Maßstab begünstigen, da ihr Missbrauch weitreichenden Folgen haben kann.

Die Maßnahmen sollen in ein State-of-the-Art Framework zur Sicherheit und Gefahrenabwehr (engl. Safety and Security Framework) eingebettet werden, welches aus Prozessen und Maßnahmen zum Risikomanagement besteht (vgl. Abbildung ). Die zehn Verpflichtungen des Kapitels inklusive weiterer Details im Anhang sind umfangreich und werden daher hier als Orientierung in einer zusammengefassten Darstellung beschrieben.

Ablaufdiagramm vom Erstellen, Implementieren und Aktualsieren des Frameworks

Abbildung : In Anlehung an GPAI CoP, Safety and Security Chapter, S. 6.

Verpflichtung 1: Framework für funktionale Sicherheit und Cybersicherheit

Das Erstellen, Implementieren und Aktualisieren des Frameworks sowie die Mitteilungsfristen an das KI-Büro wird in den Maßnahmen 1.1 bis 1.4 beschrieben. Demnach soll das Framework Modelle umfassen, die sich in der Entwicklung befinden, die in den Markt gebracht und/oder die genutzt werden. Das Framework enthält High-Level Beschreibungen der implementierten bzw. geplanten Prozesse und Maßnahmen zur Prüfung und Abschwächung von systemischen Risiken. Dazu werden u.a. sogenannte „Trigger Punkte“ festgelegt, die im gesamten Lebenszyklus zusätzliche Modellevaluationen auslösen. Das Kapitel definiert Kriterien für die Akzeptanz von systemischen Risiken, Risikominderungsmaßnahmen inkl. Umsetzungszeitplan und Verantwortlichkeiten für die Prozesse. Entlang des gesamten Modell-Lebenszyklus sollen Maßnahmen zur Prüfung und Minderung der systemischen Risiken implementiert werden, wie in Abbildung  dargestellt.

Lebenszyklus eines GPAI Modells: Maßnahmen entlang des Lebenszyklus

Abbildung : In Anlehnung GPAI CoP, Safety and Security Chapter, S. 8 

Das in Maßnahme 1.2 vorgeschlagene Vorgehen zur vollständigen Prüfung und der Mitigation der systemischen Risiken des Modells umfasst mindestens die folgenden vier Schritte (Abbildung ), die vor dem Inverkehrbringen durchgeführt werden sollen.

  1. Identifikation der systemischen Risiken.
  2. Analyse der systemischen Risiken.
  3. Feststellung der Akzeptanz der systemischen Risiken.
  4. Im Falle der Nicht-Akzeptanz: Implementierung von Maßnahmen zur Minderung von Cyber-/Sicherheitsrisiken; dann Neu-Prüfung aller Kriterien von Punkt (1) an.

Ablaufdiagramm: Prozess zur Überprüfung systemischer Risiken

Abbildung : In Anlehnung an GPAI CoP, Safety and Security Chapter, S. 9

Verpflichtung 2: Identifikation des systemischen Risikos

Ziel der Verpflichtung 2 ist es, entlang von zwei Maßnahmen die systemischen Risiken des Modells zu identifizieren, um anschließend die nach Verpflichtung 3 geforderte Risikoanalyse sowie die nach Verpflichtung 4 geforderte Bestimmung der Risikoakzeptanz durchführen zu können.

Dieses Vorgehen umfasst die folgenden Schritte, welche auch in Abbildung dargestellt sind:

1) Identifikation der systemischen Risiken durch einen strukturierten Prozess.

  • Erstellen einer Liste mit möglichen Risiken (basierend auf Risikotypen laut Anhang 1.1).
  • Analyse der Eigenschaften (nach Anhang 1.2) und Ursachen (laut Anhang 1.3).
  • Identifikation der systemischen Risiken ausgehend vom konkreten Modell.
  • Identifikation von systemischen Risiken, die in Anhang 1.4 spezifiziert sind.

2) Entwicklung von systemischen Risikoszenarien für jedes identifizierte systemische Risiko.

Grafische Darstellung Potentielle und spezifizierte systemische Risiken

Abbildung : In Anlehnung an GPAI CoP, Safety and Security Chapter, S11

Verpflichtung 3: Systemische Risikoanalyse

Ziel der vier Maßnahmen dieser Verpflichtung ist es, jedes identifizierte systemische Modellrisiko umfassend zu analysieren.

  • Dazu sollen zunächst in Maßnahme 3.1 Informationen, die für das systemische Risiko relevant sind, zusammengestellt werden.
  • Anschließend zielen die Evaluationen entlang Maßnahme 3.2 darauf ab, das Verständnis des systemischen Risikos zu verbessern und unerwartete Verhaltensweisen, Leistungsgrenzen und emergente Eigenschaften aufzudecken.
  • In den Maßnahmen 3.3 und 3.4 sollen dann die Risiken modelliert und deren Eintrittswahrscheinlichkeit und Schwere des Schadens abgeschätzt und durch adäquate Methoden (z.B. Risiko-Scores) repräsentiert werden.
  • Im Rahmen der Überwachung nach dem Inverkehrbringen entlang Maßnahme 3.5 sollen Informationen zusammengestellt werden, um begründet bewerten zu können, ob das systemische Risiko als nicht akzeptabel eingestuft werden könnte.

Verpflichtung 4: Entscheidung über systemische Risikoakzeptanz

In zwei Maßnahmen werden

  • Akzeptanzkriterien und –entscheidungen für das systemische Risiko festgelegt (Maßnahme 4.1)
  • und über das Fortführen der Aktivitäten (inkl. Entwicklung, die Markteinführung oder die Nutzung des Modells) entschieden (Maßnahme 4.2).

Im Rahmen von Maßnahme 4.1 sollen für jedes systemische Risiko Risikoklassen (oder -kriterien) definiert und beschrieben sein, so dass sie zur Bewertung der Akzeptanz dienen. Abschließend soll begründet werden, wie die Risikoklassen dazu beitragen, dass die identifizierten Risiken und das Gesamtrisiko akzeptabel sind. Hierbei wird eine Sicherheitsreserve integriert, die der möglichen Limitationen, Änderungen und Unsicherheiten bei der Risikoidentifikation Rechnung trägt. Auf dieser Grundlage wird in Maßnahme 4.1 entschieden, ob die Aktivitäten fortgeführt werden. Sollten sich die systemischen Risiken als nicht akzeptabel darstellen, sind Sicherheitsmaßnahmen umzusetzen und anschließend erneut die Schritte Risikoidentifikation, -analyse, Akzeptanzkriterien durchzuführen.

Verpflichtung 5: Sicherheitsmaßnahmen

Mit Maßnahme 5.1 sollen für den gesamten Modelllebenszyklus angemessene Sicherheitsmaßnahmen implementiert werden, die dazu führen, dass die Risiken akzeptabel sind. Die implementierten Maßnahmen sollen auch unter Angriffsszenarien robust sein und ebenfalls die Modellveröffentlichung und Modelldistribution in Betracht ziehen.

Verpflichtung 6: Cybersicherheitsmaßnahmen

Ziel von Verpflichtung 6 ist die Gewährleistung eines angemessenen Maßes an Cybersicherheit während des gesamten Modelllebenszyklus – für Modelle und für die physische Infrastruktur – um sicherzustellen, dass die Risiken bzgl. nicht autorisierter Veröffentlichungen/Zugriff und/oder Modelldiebstahl akzeptabel sind.
Dazu soll laut

  • Maßnahme 6.1 ein Cybersicherheitsziel festgelegt werden
  • und entsprechende Maßnahmen zur Gewährleistung dieses Ziels in Maßnahme 6.2 implementiert werden.

Verpflichtung 7: Berichte zur funktionalen Sicherheit und Cybersicherheit des Modells

Vor Inverkehrbringen des Modells soll entlang der sieben Maßnahmen von Verpflichtung 7 ein umfassender Bericht erstellt werden, welcher Inhalte zum Modell, zur Prüfung des systemischen Risikos und zu den implementierten Prozessen und Maßnahmen zur Minderung der Risiken enthalten soll. Der Bericht umfasst somit eine Dokumentation der in den Verpflichtungen 1 bis 6 durchzuführenden Maßnahmen und ist dem KI-Büro vorzulegen. In den Maßnahmen 7.6 und 7.7 ist festgelegt, zu welchen Zeitpunkten der Bericht aktualisiert werden muss und wann die Neufassung dem KI-Büro zur Verfügung gestellt werden muss. Für KMUs und Startups wird ein weniger aufwendiger Bericht vorgesehen.

Verpflichtung 8: Zuweisung der Zuständigkeiten für systemische Risiken

Ziel der drei Maßnahmen ist es,

  • klaren Zuständigkeiten zum Managen des systemischen Risikos zu benennen (8.1),
  • angemessene Ressourcen für die zuständigen Akteure bereitzustellen(8.2)
  • sowie eine gesunde Risikokultur (8.3) zu fördern.

Verpflichtung 9: Melden schwerwiegender Vorfälle

Das Ziel der vier Maßnahmen von Verpflichtung 9 ist die Implementierung geeigneter Prozesse und Maßnahmen, um relevante Informationen über schwerwiegende Vorfälle während des gesamten Lebenszyklus des Modells und mögliche Abhilfemaßnahmen zu verfolgen, zu dokumentieren und dem KI-Büro (und gegebenenfalls den zuständigen nationalen Behörden) ohne unangemessene Verzögerung zu melden. Zudem wird gefordert, dass Mittel bereitgestellt werden, die in angemessenem Verhältnis zur Schwere des Vorfalls und zum Verschuldungsgrad ihres Modells stehen.

Verpflichtung 10: Zusätzliche Dokumentation und Transparenz

In zwei Maßnahmen wird gefordert,

  • dass die Umsetzung dieses Kapitels dokumentiert und aktuell gehalten wird (10.1)
  • und bei Bedarf Zusammenfassungen des Frameworks und der Modellberichte veröffentlicht werden (10.2).

Die bei Bedarf an das KI-Büro zu übermittelnden Informationen sollen Details zur Modellarchitektur, zur Integration des Modells in KI-System (einschließlich der verwendeten Software-Komponenten), zu den Ergebnissen der Modellevaluation sowie zu den implementierten Sicherheitsmaßnahmen enthalten. Für die öffentlichen Fassungen können Streichungen so vorgenommen werden, dass die Wirksamkeit der Maßnahmen nicht untergraben und sensible Geschäftsinformationen geschützt werden.

Mastodon