DACH-Legal. EU AI Act und DSGVO für AI-Operator
Was seit Februar 2025 gilt, was ab August 2026 enforced wird. Was KMU und Selbständige jetzt umsetzen müssen. Keine Paragraphen-Lyrik, nur Pflichten.
Wer AI-Tools beruflich nutzt, kann sich nicht mehr darauf verlassen dass Legal "später mal kommt". Der EU AI Act ist seit Februar 2025 in Teilen bindend, die erste Enforcement-Welle rollt im August 2026 an. Plus DSGVO die weiter gilt. Plus das DDG (früher TMG), plus §356a BGB wenn Du Online-Verträge schließt. Hier ist was davon für Dich als AI-Operator oder AI-nutzende Firma wirklich relevant ist, ohne Juristen-Vokabular.
Warnung
Dies ist kein Rechtsberatung. Ich bin kein Anwalt, das hier ist eine Zusammenfassung aus Recherche und aus Anwendung in eigenen Firmen. Für konkrete Fälle bitte eine AHK, eine IHK, oder einen Anwalt. Was Du hier liest sind die Fragen die Du stellen solltest.
Artikel 4 EU AI Act. AI Literacy ist Pflicht
Seit 2. Februar 2025 in Kraft. Enforcement ab 2. August 2026.
Was er verlangt: Jede Firma die AI-Systeme einsetzt muss sicherstellen dass Mitarbeiter die mit AI arbeiten, "ein ausreichendes Mass an AI-Kompetenz" haben. Das ist vage formuliert, aber die EU-Kommission hat klargestellt dass es keine Pflicht-Prüfung gibt, dokumentierte Training-Massnahmen reichen.
Was Du konkret brauchst:
- Eine schriftliche AI-Use-Policy.
- Jeder Mitarbeiter mit AI-Kontakt hat ein Training durchlaufen.
- Training-Nachweise (wer, wann, welches Modul) aufbewahrt.
- Neue Mitarbeiter bekommen das Training innerhalb der Probezeit.
- Jährliche Auffrischung.
Als Solo-Selbständiger: trifft Dich nur indirekt, über Deine Kunden. Wenn Du B2B arbeitest und Deine Kunden AI-Tools implementieren, werden sie von Dir das Nachweise-Set erwarten. Diese Kunden werden ab August 2026 darauf achten.
Artikel 5 und Risiko-Kategorien
Der AI Act unterscheidet vier Kategorien:
- Verboten (Social Scoring, unterschwellige Manipulation, biometrische Massen-Überwachung).
- High-Risk (AI in Personalauswahl, Kreditentscheidungen, kritischer Infrastruktur, Bildung wenn Prüfungen bewertet werden).
- Transparenz-pflichtig (Chatbots müssen sich als AI zu erkennen geben, Deepfakes müssen gekennzeichnet werden, AI-generierte Texte in Journalismus müssen markiert sein).
- Minimum Risk (der Rest, keine besonderen Pflichten).
Die meisten Anwendungen die Du baust sind "Transparenz-pflichtig" oder "Minimum Risk". Keine Panik, keine drohende Verboten-Kategorie.
Wichtig: wenn Du einen Chatbot auf Deiner Website betreibst, muss der Nutzer erkennen dass er mit einer AI redet. Das reicht als Label "AI-Assistent" oder "dieser Chat wird von AI beantwortet". Versteck es nicht.
DSGVO und AI, die echten Stolpersteine
DSGVO ist älter als ChatGPT, aber sie gilt trotzdem für alles was Du in Deinem AI-Tool machst. Die drei echten Fragen:
Was passiert mit Daten die in ChatGPT/Claude reingehen?
OpenAI und Anthropic bewahren Inputs und Outputs für Betriebs- und Missbrauchs-Zwecke auf. Unterschiedlich lang je nach Plan und Einstellung. Das ist eine Auftragsdaten-Verarbeitung nach DSGVO, wenn Du personenbezogene Daten reingibst.
Zwei Implikationen:
- Du musst einen AV-Vertrag (Auftragsverarbeitungs-Vertrag) mit dem Anbieter haben. Anthropic und OpenAI bieten die an, Du musst sie aber explizit ziehen.
- Du darfst sensible Daten (Gesundheit, Religion, biometrische Daten) NICHT einfach in den Standard-Tools verarbeiten. Das braucht separate Enterprise-Agreements oder eigene Modelle.
Was ist mit US-Transfer?
Die Anbieter hosten primär in den USA. DSGVO verlangt für US-Transfer Standard Contractual Clauses (SCC) oder einen Adequacy Decision. Anthropic hat SCC, OpenAI auch. Die SCCs musst Du aber nachweisen können wenn Du Daten-Anfragen bekommst.
Bei sensiblen Daten reicht SCC oft nicht (Schrems-II-Urteil). Für diese Fälle brauchst Du technische Massnahmen zusätzlich. Pseudonymisierung vor dem Reinsenden, oder EU-hosted Modelle (Mistral, Aleph Alpha) statt US-Anbieter.
Was ist mit Memory-Systemen?
Wenn Du Daten in einem externen Memory-Server speicherst (wie StudioMeyer Memory oder selbst gehostet), ist der Server-Betreiber Auftragsverarbeiter. AV-Vertrag nötig. Bei self-hosted Memory bist Du selbst verantwortlich, das heisst DSGVO-konform hosten (verschlüsselung, Zugriffs-Logs, Löschrechte).
DDG (Digitale Dienste Gesetz), ersetzt TMG seit Mai 2024
Relevant für jeden der eine Website oder App betreibt. Die Kernpunkte:
- Impressum-Pflicht bleibt bestehen. §5 DDG statt §5 TMG, inhaltlich das Gleiche.
- Kontaktmöglichkeiten müssen "einfach" sein. E-Mail + Kontaktformular + Telefon ist Gold-Standard.
- "User-generated Content" auf Deiner Plattform: Du haftest wenn Du nicht schnell reagierst auf Meldungen über rechtswidrige Inhalte.
Für AI-Anwendungen speziell: wenn User Prompts reinschreiben die dann irgendwo veröffentlicht werden (Blog-Kommentare durch AI, Forum-Posts), gelten die Moderations-Pflichten.
§356 und §356a BGB. Widerruf bei Online-Verträgen
Wenn Du AI-Services online an Endverbraucher verkaufst (B2C), gelten die Fernabsatz-Vorschriften:
- §356 BGB: Widerruf 14 Tage nach Vertragsschluss. Ohne Begründung.
- §356 Abs. 5: Digitale Inhalte. Widerrufs-Verzicht möglich, muss aber explizit angekreuzt werden (Checkbox muss UNCHECKED starten, User setzt den Haken bewusst).
- §356a: Button-Lösung, der Kauf-Button muss eindeutig beschriftet sein ("zahlungspflichtig bestellen" oder äquivalent).
Praktische Konsequenz: wenn Du digitale Produkte verkaufst und der Kunde nach drei Tagen sagt "doch nicht", musst Du zurückzahlen, es sei denn er hat explizit auf Widerruf verzichtet und Du hast ihn darauf hingewiesen. Ein allgemeines "kein Widerruf bei digitalen Produkten" reicht nicht mehr.
Urheberrecht, was AI-generiert ist gehört eigentlich niemandem
AI-generierte Werke sind nicht urheberrechtlich geschützt, solange kein ausreichender menschlicher Anteil drin ist. Das heisst:
- Ein rein AI-geschriebenes Bild kann nicht urheberrechtlich geschützt werden.
- Ein AI-geschriebener Text, den Du nur aus dem Tool kopierst, auch nicht.
- Sobald Du nennenswert redaktionell arbeitest (Umstellen, Ergänzen, Kürzen, Fact-Check), entsteht ein schützbares Werk, aber nur Dein Anteil.
Für Agentur-Arbeit heisst das: wenn Du AI-Outputs an Kunden lieferst ohne nennenswerte Bearbeitung, kann der Kunde das Werk nicht exklusiv schützen. Das ist oft kein Problem (Marketing-Text, Präsentationen brauchen meistens keinen urheberrechtlichen Schutz), bei Software und Buchveröffentlichungen aber schon.
Meine konkreten Empfehlungen für Selbständige und kleine KMU
- Impressum + Datenschutz + AGB auf Deiner Website. DDG + DSGVO + Widerruf-Belehrung wenn B2C.
- AV-Verträge mit OpenAI und Anthropic ziehen (beide haben Standard-Portale dafür).
- AI-Use-Policy schreiben (2 Seiten reicht), Mitarbeitern + Freelancern zur Unterschrift geben, unterschriebene Kopie aufheben.
- Chatbot-Label auf jeder Web-Anwendung die AI nutzt.
- Sensible Daten nicht in Standard-ChatGPT oder Standard-Claude. Für Gesundheit / Finanzen / Recht entweder Enterprise-Plan oder EU-hosted oder gar nicht.
- Cookie-Banner wenn Du Analytics nutzt (Umami ist DSGVO-konform und braucht keinen Banner, gut).
- Löschrechte dokumentieren, wie kann ein User / Kunde seine Daten bei Dir löschen lassen.
Das sind die sieben Massnahmen die 95 Prozent aller Fälle abdecken.
Was am 2. August 2026 wirklich enforced wird
Stand April 2026, drei Monate vor dem Stichtag, sind die enforcement-relevanten Punkte:
High-Risk Vollenforcement. Ab 2. August 2026 sind alle High-Risk-Pflichten aus Anhang III in voller Wirkung. Das betrifft AI in Personalauswahl, Kreditvergabe, Bildungsbewertung, kritischer Infrastruktur und einigen weiteren Bereichen. Wer in dieser Kategorie ist, braucht ein konformitätsbewertetes System mit CE-Kennzeichnung. Das ist für 95 Prozent der Selbständigen und KMU NICHT relevant, aber wenn Du z.B. ein HR-Tool für einen Kunden baust das Bewerber automatisch sortiert, musst Du genauer hinschauen.
Transparenzpflichten für End-User. AI-Content-Labeling für Endnutzer wird ab August 2026 enforcement-pflichtig. Heisst praktisch: AI-generierte Texte, Bilder und Audio die der Nutzer sieht, müssen erkennbar als AI deklariert sein. Das gilt auch für Deepfakes (verschärft) und für synthetisch erstellten redaktionellen Content. Für Deine Website mit AI-Chatbot reicht ein klarer Hinweis, für AI-generierte Bilder in Marketing brauchst Du ein Wasserzeichen oder Caption.
GPAI-Strafrahmen aktiv. Schon seit 2. August 2025 in Kraft, aber praxisrelevant erst durch die Vollenforcement-Welle. Verstösse gegen die GPAI-Pflichten (Transparenz, technische Doku, Datenzusammenfassung für Modell-Provider) können bis zu 15 Millionen Euro oder 3 Prozent vom weltweiten Jahresumsatz kosten, was höher ist. Das trifft primär die Modellanbieter (OpenAI, Anthropic, Mistral), nicht Dich als Anwender. Aber wenn Du selber ein Foundation-Modell trainierst und über die GPAI-Schwelle kommst, dann doch.
AI-Sandbox je Mitgliedstaat. Ab August 2026 verpflichtet jeder EU-Mitgliedstaat eine "AI Regulatory Sandbox" zu betreiben in der Firmen ihre AI-Systeme vor dem Roll-Out testen können, mit Aufsicht aber ohne sofortige Sanktionen. In Deutschland nimmt das die Bundesnetzagentur in Bonn mit, die einen "AI Service Desk" für KMU eingerichtet hat. Wer in einem grenzwertigen Bereich baut (z.B. AI in Bildung oder Personal), kann dort vorher anfragen. Spart später Ärger.
Bundesnetzagentur ist die nationale Aufsicht
Wichtig für DACH-spezifisch: die Bundesnetzagentur in Bonn ist die deutsche Aufsicht für den AI Act. Der "AI Service Desk" ist KMU-freundlich und kostenlos für Erstanfragen. Wenn Du unsicher bist ob Dein Use-Case High-Risk ist, frag dort an, lieber zwei Wochen Wartezeit als ein böses Audit nach Live-Gang. Österreich hat die RTR, die Schweiz hat den AI Act formal nicht aber orientiert sich an den EU-Standards für grenzüberschreitende Anbieter.
Was sich noch ändern wird
Die EU AI Office (europäische Aufsichtsbehörde) arbeitet weiter an konkreten Leitlinien. Bis Ende 2026 kommen voraussichtlich:
- Konkrete Trainings-Standards für AI Literacy (Artikel 4).
- Technische Standards für Transparenz-Kennzeichnung (wie genau muss AI als AI deklariert werden).
- Code of Practice für General-Purpose AI (wen betrifft's, wen nicht).
- Konkretere Schwellwerte für die High-Risk-Kategorisierung.
Halt Dich up-to-date über das EU-AI-Office-Portal, das Bundesnetzagentur AI-Service-Desk-Update, oder Fachmedien wie Heise, c't oder die IHK-Newsletter.
Weiter
Wenn Du AI-Systeme für Dich oder für Kunden baust, hilft Dir Level 5 Lesson 5 Human-in-the-Loop dabei die richtigen Freigabe-Punkte einzubauen, was für "High-Risk" Systeme rechtlich zusätzlich Pflicht ist.
Und Level 6 zeigt wie Du Deine Memory-Systeme und MCP-Server selbst hostest, was für DSGVO-sensible Anwendungen oft der sauberste Weg ist.