Inhaltsverzeichnis
Safer Internet Day 2026 – KI and Me – in künstlicher Beziehung
EU AI Act 2026: Was das neue KI-Gesetz jetzt für Eltern und Kinder bedeutet
EU AI Act Beschwerdestelle: So kannst du KI-Verstöße künftig melden
Safer Internet Day 2026 – KI and Me. In künstlicher Beziehung.
KI verstehen, einordnen und bewusst nutzen
Dieser Artikel entsteht anlässlich des Safer Internet Day 2026, der unter dem Motto „KI and Me. In künstlicher Beziehung.“ steht.
Der Aktionstag macht jedes Jahr darauf Aufmerksam, wie digitale Medien sicher, verantwortungsvoll und bewusst genutzt werden können. In Deutschland wird der Safer Internet Day von klicksafe koordiniert, einer EU-Initiative zur Förderung von Medienkompetenz
Das Künstliche Intelligenz dabei in diesem Jahr besonders im Fokus steht, ist kein Zufall.
KI ist längst Teil des Alltags von Kindern und Jugendlichen. In der Schule, beim Lernen, in der Freizeit und im Austausch miteinander. Sie wird genutzt, um Aufgaben zu lösen, Inhalte zu verstehen oder sich einfach schnell Orientierung zu verschaffen.
Gleichzeitig wirft diese Entwicklung aber auch neue Fragen auf:
Wie zuverlässig sind KI-Antworten?
Wo endet hilfreiche Unterstützung und wo beginnt unkritische Abhängigkeit?
Und wie wirkt sich der Umgang mit KI auf denken, Lernen und Beziehungen aus?
Der Safer Internet Day möchte dafür sensibilisieren, nicht mit Verboten, sondern mit Wissen.
Dieser Artikel greift das Thema auf und ordnet es ein: sachlich, ohne Panik und mit Blick auf den Alltag von Jugendlichen, Eltern und pädagogischen Fachkräften.
KI gehört längst zum Alltag von Jugendlichen
Künstliche Intelligenz ist für viele Jugendliche kein Zukunftsthema mehr, sondern längst Teil ihres Alltags. KI-Tools werden genutzt, um sich Inhalte erklären zu lassen, Hausaufgaben zu verstehen, Ideen zu sammeln oder sich auf Tests und Prüfungen vorzubereiten. Für viele fühlt sich das genauso normal an wie eine Suchmaschine oder ein Taschenrechner.
Doch KI wird nicht nur als Werkzeug genutzt. Manche Anwendungen sind darauf ausgelegt, besonders persönlich, verständnisvoll oder dauerhaft verfügbar zu wirken. Sie antworten geduldig, bewerten nicht, sind jederzeit erreichbar, und können so schnell mehr werden als nur technische Hilfe.
Gerade für junge Menschen kann daraus eine besondere Form von Nähe entstehen. Nicht bewusst geplant, sondern schleichend: Man schreibt öfter, teilt Gedanken, stellt persönliche Fragen und bekommt Antworten, die empathisch, zugewandt und verständnisvoll klingen. Das kann sich gut anfühlen. Und genau darin liegt auch die Herausforderung.
Denn KI fühlt nicht, auch wenn sie so klingt. Sie versteht keine Beziehungen, auch wenn sie Nähe simulieren kann. Und sie übernimmt keine Verantwortung, selbst dann nicht, wenn sie sehr überzeugend wirkt.
Studien wie die JIM-Studie zeigen, dass viele Jugendliche KI selbstverständlich nutzen, oft auch ohne sich intensiv mit Funktionsweise, Grenzen oder möglichen Auswirkungen auseinanderzusetzen. Nutzung bedeutet dabei nicht automatisch Verständnis.
Das ist kein Vorwurf, es ist die logische Folge davon, dass sich Technologien schneller entwickeln, als Einordnung und Begleitung hinterherkommen.
Der Safer Internet Day 2026 greift genau diesen Punkt auf: Nicht um KI zu verbieten, sondern um zu fragen, wie viel Nähe sinnvoll ist, wo Grenzen wichtig werden und wie ein bewusster Umgang aussehen kann, ohne die Chancen dieser Technologien auszublenden.
Was sagen Zahlen und Studien zur KI-Nutzung von Jugendlichen?
Dass künstliche Intelligenz für Jugendliche längst Alltag ist, zeigen auch aktuelle Studien.
Die JIM-Studie 2025 (Jugend, Information, Medien) des Medienpädagogischen Forschungsverbunds Südwest macht deutlich, wie selbstverständlich KI inzwischen genutzt wird.
- 74% der 12- bis 19-Jährigen nutzen KI-Anwendungen für Hausaufgaben oder zum Lernen
(2024 waren es noch 65%) - Die Nutzung von KI zur Informationssuche ist innerhalb eines Jahres deutlich gestiegen – auf 70%
- Chatbots wie ChatGPT gehören inzwischen zu den meistgenutzten Recherche-Tools
- 57% der Jugendlichen halten die von KI gelieferten Informationen für eher vertrauenswürdig.
Diese Zahlen zeigen:
KI wird nicht nur ausprobiert, sondern aktiv in Lern- und Entscheidungsprozesse eingebunden.
Gleichzeitig verdeutlicht die Studie auch, dass viele Jugendliche nicht wissen, das digitale Pausen wichtig wären, die Selbstregulation im Alltag aber schwerfällt. Besonders abends vor dem Schlafengehen berichten viele von Müdigkeit und Erschöpfung.
Das bedeutet nicht, dass Jugendliche unkritisch oder „naiv“ mit KI umgehen.
Aber es zeigt, wie wichtig es ist, Vertrauen, Funktionsweise und Grenzen von KI gemeinsam einzuordnen, gerade dann, wenn Technologien nicht nur informieren, sondern Nähe simulieren.
(Quelle: JIM-Studie 2025, Medienpädagogischer Forschungsverbund Südwest)
Warum Nähe zu KI entstehen kann – und warum das keine Schuldfrage ist
Wenn Jugendliche KI regelmäßig nutzen, entsteht Nähe nicht plötzlich. Sie entwickelt sich schrittweise, oft unbemerkt und ohne bewusste Entscheidung.
Am Anfang steht meist etwas Harmloses:
Unterstützung bei Hausaufgaben, eine schnelle Erklärung, Hilfe beim Sortieren von Gedanken oder beim Lernen für eine Klassenarbeit. KI ist verfügbar, reagiert sofort und gibt klare Antworten. Für viele Jugendliche fühlt sich das zunächst praktisch an.
Mit der Zeit verändert sich jedoch manchmal die Rolle. Aus einem Werkzeug wird ein vertrauter Ansprechpartner. Nicht, weil Jugendliche das so planen, sondern weil KI Eigenschaften mitbringt, die im Alltag oft fehlen: Geduld, ständige Erreichbarkeit, keine Bewertung, kein Augenrollen, kein Zeitdruck.
KI hört zu.
KI antwortet ruhig.
KI erklärt DInge so oft, wie man möchte.
Gerade in Phasen, in denen Jugendliche sich unsicher fühlen, unter Druck stehen oder das Gefühl haben, nicht richtig verstanden zu werden, kann das eine spürbare Erleichterung sein. Nähe entsteht hier nicht aus Naivität, sondern aus Bedürfnissen, die völlig menschlich sind.
Wichtig ist:
Das hat nichts mit Dummheit, Abhängigkeit oder persönlichem Versagen zu tun.
Jugendliche machen hier nichts „falsch“. Sie reagieren auf ein System, das bewusst so gestaltet ist, dass es Beziehung simuliert. Durch Sprache, Tonfall, persönliche Ansprache und scheinbares Mitfühlen.
Problematisch wird es nicht durch die Nähe an sich, sondern dann, wenn sie nicht mehr richtig eingeordnet wird.
Wenn KI nicht mehr als Werkzeug gesehen wird, sondern als Ersatz für Austausch, Rückmeldung oder emotionale Unterstützung. Wenn Grenzen verschwimmen zwischen Hilfe und Beziehung.
Genau deshalb ist Aufklärung so wichtig. Nicht als Warnung, nicht als Panikmache, sondern als Orientierung:
Nähe kann entstehen, aber sie muss eingeordnet werden. Genau hier beginnt die Aufgabe von Medienkompetenz, Begleitung und Aufklärung.
Zwischen Hilfe und Beziehung – wo Jugendliche Unterstützung brauchen
Jugendliche können KI nutzen.
Was sie oft nicht können: die Wirkung dieser Nutzung selbst einordnen.
Das liegt nicht an mangelnder Intelligenz oder fehlendem Verantwortungsgefühl, sondern daran, das Einordnung Erfahrung braucht. Und Abstand. Und manchmal auch jemanden, der widerspricht.
KI widerspricht nicht.
Sie stellt keine unbequemen Fragen.
Sie bleibt ruhig, freundlich und verfügbar. Ganz egal, wie oft man sie nutzt.
Und genau darin liegt das Problem.
Denn wo keine Reibung entsteht, entsteht auch keine Korrektur.
Wo keine Grenzen sichtbar werden, verschwimmen sie.
Jugendliche stehen damit vor einer Aufgabe, die sie allein kaum leisten können:
zu unterscheiden, wann KI hilft und wann sie beginnt, etwas zu ersetzen, das eigentlich außerhalb eines Systems stattfinden sollte.
Das betrifft nicht nur das Lernen, sondern auch:
- Selbstvertrauen
- Entscheidungsfindung
- und in manchen Fällen emotionale Entlastung
Hier braucht es Begleitung.
Nicht als Kontrolle, sondern als Gegenüber.
Medienkompetenz heißt an dieser Stelle nicht, alles zu wissen oder jede Nutzung zu überwachen. Sie heißt, Räume zu schaffen, in denen Fragen gestellt werden dürfen:
- Warum fühlt sich das gerade hilfreich an?
- Was gibt mir die KI, und was nicht?
- Wann brauche ich einen echten Menschen?
Diese Gespräche entstehen nicht von selbst. Und sie entstehen nicht durch Verbote.
Sie entstehen dort, wo Erwachsene hinschauen, statt wegzusehen. Und wo Schulen, Eltern und pädagogische Fachkräfte Verantwortung nicht auf Technik schieben.
Was Eltern konkret tun können
Für Eltern bedeutet all das nicht, alles über KI wissen zu müssen oder jede Nutzung zu kontrollieren. Wichtiger ist, ins Gespräch zu kommen. Früh, ruhig und ohne Vorwurf.
Hilfreich sind zum Beispiel Fragen wie:
- Was nutzt du da gerade – und wofür?
- Was hilft dir daran besonders?
- Gibt es Dinge, die du lieber mit der KI besprichst als mit Menschen? Warum?
Solche Fragen öffnen Gespräche, ohne zu verurteilen.
Sie zeigen Interesse, statt Misstrauen und machen sichtbar, welche Rolle KI im Alltag tatsächlich spielt.
Wichtig ist auch, klar zu benennen:
KI kann unterstützen, erklären und entlasten.
Aber sie ersetzt kein Gegenüber, kein Mitdenken und keine Beziehung.
Einordnung entsteht dort, wo Jugendliche merken: Ich darf das nutzen, und ich darf trotzdem darüber sprechen.
Warum Medienkompetenz kein Schulfach „für später“ ist
Medienkompetenz ist kein Zusatzwissen, das man irgendwann „auch noch“ vermittelt. Sie ist eine Grundfähigkeit, genau wie Lesen, Schreiben und Rechnen.
Jugendliche wachsen nicht erst langsam in digitale Systeme hinein. Sie sind mittendrin, lange bevor sie gelernt haben, diese Systeme einzuordnen.
Algorithmen, KI, soziale Plattformen und Empfehlungsmechanismen prägen ihren Alltag. Jeden Tag, ganz selbstverständlich.
Wer Medienkompetenz auf später verschiebt, verpasst den entscheidenden Moment. Denn Gewohnheiten entstehen nicht am Ende der Schulzeit, sondern am Anfang. Haltungen bilden sich nicht erst nach dem Abschluss, sondern währenddessen.
Es reicht deshalb nicht, Medienkompetenz punktuell zu behandeln oder an einzelne Projekte auszulagern.
Und es reicht auch nicht, erst dann zu reagieren, wenn Probleme sichtbar werden.
Medienkompetenz bedeutet:
- verstehen, wie digitale Systeme wirken
- erkennen, wann Inhalte beeinflussen
- einschätzen, wann Vertrauen angebracht ist – und wann nicht
- und merken, wann Unterstützung außerhalb digitaler Systeme notwendig wird
Das ist kein Technikunterricht. Das ist Orientierung.
Wenn Jugendliche diese Orientierung nicht früh bekommen, müssen sie sich selbst behelfen, mit dem, was gerade verfügbar ist. Und das ist oft KI.
Nicht, weil sie das wollen.
Sondern weil niemand rechtzeitig erklärt habt, wie Einordnung funktioniert.
Medienkompetenz ist deshalb kein Schulfach für später. Sie ist eine Aufgabe für jetzt.
Zwischenfazit
Künstliche Intelligenz ist längst Teil des Alltags junger Menschen.
Sie unterstützt beim Lernen, hilft beim Verstehen und ist schnell verfügbar.
Gleichzeitig kann Nähe entstehen, nicht plötzlich, sondern schrittweise.
Nicht aus Leichtsinn, sondern weil KI genau dort ansetzt, wo Orientierung, Entlastung oder Struktur gebraucht werden.
Das ist weder per se problematisch noch harmlos.
Problematisch wird es dort, wo Nähe nicht eingeordnet wird und Verantwortung stillschweigend an Systeme abgegeben wird.
Weder Verbote noch Panik helfen an dieser Stelle weiter.
Was es braucht, sind frühe Medienkompetenz, Begleitung und Räume für Einordnung, bevor Gewohnheiten fest werden und Alternativen fehlen.
Genau darum geht es beim Safer Internet Day 2026: nicht um Technik, sondern um den Umgang damit.
Was Jugendliche wirklich brauchen – jenseits von Verboten
Jugendliche brauchen keine weiteren Regeln, die erklären, was alles nicht geht.
Sie kennen Verbote. Sie umgehen sie. Oder sie ziehen sich zurück.
Was ihnen oft fehlt, ist etwas anderes.
Sie brauchen Sprache, um das einzuordnen, was sie täglich erleben.
Begriffe für das, was sich komisch anfühlt.
Worte für Zweifel, Unsicherheit oder Überforderung im digitalen Raum.
Sie brauchen Erwachsene, die nicht sofort bewerten, sondern zuhören.
Die nicht bei jeder neuen App zuerst fragen: „Ist das gefährlich?“, sondern: „Was macht das mit dir?“
Sie brauchen Vorbilder, die selbst reflektiert mit digitalen Medien umgehen. Nicht perfekt, aber ehrlich. Die zeigen, dass auch Erwachsene nicht alles wissen, aber bereit sind, hinzuschauen.
Sie brauchen Zeit um Dinge auszuprobieren, Fehler zu machen und daraus zu lernen.
Denn Medienkompetenz entsteht nicht durch einmalige Aufklärung, sondern durch wiederholte Einordnung.
Und sie brauchen echte Gespräche. Gespräche, in denen klar wird:
KI kann helfen.
KI kann entlasten.
Aber sie ersetzt keine Beziehung, keine Verantwortung und kein Gegenüber.
Jugendliche brauchen also keine Technikangst und keine Dauerwarnungen. Sie brauchen Orientierung, die mit ihnen wächst.
Nicht später.
Nicht irgendwann.
Sondern jetzt, mitten im Alltag.
Fazit: Warum der Safer Internet Day eigentlich mehr ist als ein Aktionstag
Der Safer Internet Day ist kein einzelner Termin im Kalender.
Er ist ein Anlass, genauer hinzuschauen. Auf den digitalen Alltag junger Menschen und auf die Rolle, die Künstliche Intelligenz darin bereits spielt.
KI ist kein Randthema mehr.
Sie ist Lernhilfe, Ideengeber, Strukturgeber – und manchmal eben auch Gesprächspartner.
Nähe kann entstehen. Vertrauen auch. Und genau deshalb braucht es Einordnung.
Nicht aus Angst.
Nicht aus Misstrauen.
Sondern aus Verantwortung.
Jugendliche brauchen keine perfekten Antworten und keine pauschalen Verbote.
Sie brauchen Erwachsene, die hinschauen, zuhören und bereit sind, Gespräche zu führen – auch dann, wenn sie selbst noch nicht alles verstehen.
Medienkompetenz bedeutet heute mehr als nur Technikverständnis.
Sie bedeutet unter anderem auch, Beziehungen im digitalen Raum einordnen zu können.
Zu wissen, wann KI hilft, und wann ein echter Mensch gebraucht wird.
„KI and Me – in künstlicher Beziehung“ ist deshalb kein Schlagwort. Es beschreibt eine Realität, die längst da ist.
Der Safer Internet Day erinnert daran, dass Orientierung nicht irgendwann beginnt.
Sondern jetzt.
Im Alltag.
Im Gespräch.
Und im gemeinsamen Nachdenken darüber, wie wir mit KI leben wollen.
Quellen und Hinweise
Die in diesem Artikel genannten Informationen und Zahlen basieren auf öffentlich zugänglichen Studien, Fachbeiträgen und Informationsangeboten aus der Medienpädagogik.
Zentrale Quellen:
- JIM Studie 2025 – Jugend, Information, Medien
Medienpädagogischer Forschungsverbund Südwest (mpfs)
(Grundlage für Zahlen zur Nutzung von KI durch Jugendliche)
https://mpfs.de/studie/jim-studie-2025/ - klicksafe – Safer Internet Day 2026
Koordiniert durch klicksafe in Zusammenarbeit mit dem Safer Internet Centre Deutschland
(Motto: „KI and Me – in künstlicher Beziehung“)
https://www.klicksafe.de/pressemitteilungen/safer-internet-day-2026-ki-and-me-in-kuenstlicher-beziehung
Die inhaltliche Einordnung orientiert sich an den dort beschriebenen Themenschwerpunkten, wurde jedoch eigenständig formuliert und erweitert.
Hinweis zur Einordnung:
Dieser Artikel versteht sich als orientierende Einordnung und Diskussionsbeitrag.
Er ersetzt keine pädagogische Beratung, sondern soll Gespräche anregen, zwischen Jugendichen, Eltern, Schulen und allen, die sich mit digitalem Alltag auseinandersetzen.
EU AI Act 2026: Was das neue KI-Gesetz jetzt für Eltern und Kinder bedeutet
Gestern wurde der Entwurf für die nationale Umsetzung des EU AI Act auf den Weg gebracht.
Damit wird das europäische KI-Gesetz konkret in deutsches Recht überführt.
Viele fragen sich jetzt:
Was bedeutet das eigentlich im Alltag?
Und vor allem: Was heißt das für Kinder, Schule und Familien?
Kurz gesagt:
KI wird stärker reguliert, aber nicht verboten.
Und genau das ist wichtig.
Was ist der EU AI Act überhaupt?
Der EU AI Act ist das umfassende Gesetz weltweit, das künstliche Intelligenz systematisch reguliert.
Das Ziel:
Sicherheit, Transparenz und Verantwortung.
KI-Systeme werden dabei nicht pauschal behandelt, sondern nach Risiko eingeteilt.
KI wird nach Risiko eingestuft
Nicht jede KI ist automatisch „gefährlich“. Das Gesetz unterscheidet verschiedene Risikostufen
- Geringes Risiko
- Begrenztes Risiko
- Hohes Risiko (z.B. in Bildung, Gesundheit, kritischer Infrastruktur, Finanzwesen)
Gerade Anwendungen mit:
- Kindern
- im Bildungsbereich
- im Gesundheitswesen
- oder im Bankensektor
gelten als besonders sensibel.
Dort gelten künftig auch strengere Anordnungen.
Was müssen Hersteller künftig leisten?
Unternehmen, die KI entwickeln oder einsetzen, müssen:
- Risiken dokumentieren
- Sicherheitsmaßnahmen nachweisen
- Systeme überwachen
- Transparenz herstellen
Das bedeutet:
Wenn du mit KI sprichst, sollst du das wissen.
Wenn KI Entscheidungen beeinflusst, muss nachvollziehbar sein, wie das passiert.
Wichtiger Punkt:
Es geht weniger um Datensammeln, sondern um Verantwortung.
Was bedeutet das konkret für Eltern?
Für Eltern ist vor allem relevant:
- KI im Unterricht wird regulierter
- Anwendungen mit Kindern stehen stärker unter Aufsicht
- Transparenzpflichten werden ausgebaut
- Missbrauch soll schneller gemeldet werden können
Es soll künftig auch nationale Aufsichtsstrukturen geben, sowie Beschwerdewege.
Das bedeutet aber nicht:
„KI verschwindet aus der Schule.“
Es bedeutet:
Die Rahmenbedingungen werden klarer.
Datenschutz bleibt zentral
Der EU AI Act ersetzt nicht die DSGVO.
Beides läuft parallel.
Datensparsamkeit bleibt ein Kernprinzip. In vielen Fällen wird sie sogar gestärkt.
Gerade bei Kindern ist das ein entscheidender Punkt.
Wird Innovation jetzt ausgebremst?
Nein.
Das Gesetz sieht ausdrücklich vor:
- Reallabore
- Testumgebungen
- Beratungsangebote
- Innovationsförderung
Europa versucht damit, Sicherheit und Innovation miteinander zu verbinden.
Warum das jetzt wichtig ist
Wir befinden uns mitten in einem Entwicklungsprozess.
KI verändert:
- Bildung
- Arbeitswelt
- Kommukation
- Mediennutzung
Der EU AI Act schafft erstmals einen strukturierten Rahmen.
Mein Fazit
Mehr Verantwortung.
Mehr Transparenz.
Mehr Struktur.
Aber kein KI-Aus.
Gerade für Eltern bedeutet das:
Jetzt ist der richtige Moment, sich zu informieren, nicht aus Angst, sondern aus Verständnis
Denn Regulierung ersetzt keine Medienkompetenz. Sie ergänzt sie.
EU AI Act Beschwerdestelle: So kannst du KI-Verstöße künftig melden
EU AI Act: Warum eine Beschwerdestelle eingerichtet wird
Mit dem EU AI Act wird künstliche Intelligenz in Europa erstmals einheitlich reguliert.
Dabei geht es nicht nur um Regeln für Hersteller, sondern auch um Rechte für Bürger.
Ein zentraler Bestandteil des Gesetzes: In Deutschland wird eine zentrale Beschwerdestelle für KI-Verstöße eingerichtet.
Das bedeutet: Wenn ein KI-System gegen gesetzliche Vorgaben verstößt oder Risiken verursacht, gibt es künftig einen offiziellen Meldeweg.
Wer ist zuständig? Bundesnetzagentur als zentrale Stelle
Die Bundesnetzagentur wird laut Gesetzesentwurf :
- zentrale Anlaufstelle für KI-Fragen
- Marktüberwachungsbehörde
- zentrale Beschwerdestelle
Zusätzlich wird eine KI-Marktüberwachungskammer eingerichtet, die unabhängig arbeitet und dem Bundestag jährlich Bericht erstattet.
Das Ziel: Transparente Kontrolle statt unklarer Zuständigkeiten.
Wer kann eine KI-Beschwerde einreichen?
Grundsätzlich kann jede Person eine Beschwerde einreichen, wenn sie einen Verstoß gegen die KI-EU-Verordnung vermutet.
Das betrifft unter anderem:
- Hochrisiko-KI in Bildung oder Gesundheitsbereich
- KI-Systeme im Bank- und Finanzwesen
- automatisierte Entscheidungsverfahren
- Systeme, die möglicherweise diskriminieren
- intransparente KI-Anwendungen
Wichtig: Die Beschwerde wird nicht „ins Leere“ geschickt. Sie wird an die zuständige Behörde weitergeleitet, und du wirst informiert, wer deinen Fall bearbeitet.
Was passiert nach einer Beschwerde?
Laut §8 des deutschen Umsetzungsgesetzes:
- Beschwerden gehen bei der Bundesnetzagentur ein.
- Sie werden an die zuständige Marktüberwachungsbehörde weitergeleitet.
- Der Beschwerdeführer wird über die Zuständigkeit informiert
- Ein Beschwerdemanagementsystem wird eingerichtet.
Das heißt: Es ensteht eine strukturierte Prüfkette, keine informelle E-Mail-Lösung
Warum das relevant ist – nicht nur für Eltern
Der EU AI Act betrifft nicht nur Kinder-Apps oder Social Media.
Reguliert werden auch:
- KI in Banken
- Versicherungsentscheidungen
- Strafverfolgung
- öffentliche Verwaltung
- biometrische Systeme
- automatisierte Risikosysteme
KI greift zunehmend in Lebensbereiche ein, die reale Folgen haben können.
Die Beschwerdestelle ist deshalb ein wichtiges Kontrollinstrument.
Was das bedeutet
Der EU AI Act bringt:
- mehr Transparenz
- klarere Zuständigkeiten
- offizielle Meldewege
- stärkere Marktüberwachung
Er verbietet KI nicht.
Er strukturiert sie.
Und er gibt Bürgern erstmals eine formelle Möglichkeit, bei Problemen aktiv zu werden.
Fazit
Mit dem EU AI Act entsteht in Deutschland eine zentrale KI-Beschwerdestelle bei der Bundesnetzagentur.
Das ist ein Schritt Richtung:
✓ Verantwortung
✓ Kontrolle
✓ Rechtssicherheit
Wir stehen noch am Anfang der Umsetzung, aber die Struktur wird immer konkreter.
Und genau deshalb lohnt es sich auch, das jetzt im Blick zu behalten
Quelle: Gesetzesentwurf zur nationalen Umsetzung des EU AI Act (§8)
260209_RegE_KI-MIG_final_barr.pdf