News vom 21.12.2025

Smartphones und andere Geräte sollen gar nicht erst in der Lage sein, Inhalte, die Kindesmissbrauch zeigen zu empfangen, versenden oder anderweitig zu bearbeiten. Schon zweimal stellte der SPD-Innenpolitiker und ehemalige Vorsitzende des Bundes deutscher Kriminalbeamter Sebastian Fiedler diese Forderung: einmal 2024 in einem WDR-Interview und vor kurzem erneut bei einer Bundestagsdebatte am 17.12. Was sich auf den ersten Blick vielleicht noch richtig anhört, bedeutet in der Praxis die Einführung eines Zensurapparates, den es in diesem Ausmaß bislang nur in Ländern wie Nordkorea gibt: Denn für die Umsetzung müsste ein Algorithmus in jedem Handy installiert werden, der alle Inhalte und Benutzerinteraktionen permanent in Echtzeit überwacht und einschreitet, sobald etwas als potenziell gefährlich kategorisiert wird.

Inhaltlich erinnert dies an Forderungen, die der Leiter des Präventionsprogramms „Kein Täter Werden“ (KTW) Prof. Klaus Beier bei verschiedenen Gelegenheiten in der Vergangenheit gestellt hat. Beier wünscht sich, dass Endgeräte in der Zukunft mit einer künstlichen Intelligenz ausgeliefert werden, welche die Geräte überwacht, Kinderpornografie oder Grooming automatisch erkennt und sofort unterdrückt. Auch an anderer Stelle orientiert sich Fiedler offensichtlich an der Position von Beier, etwa als er 2024 Kindesmissbrauch mit einer Pandemie verglich – eine Sichtweise, die öffentlich bislang hauptsächlich von Beier vertreten wird.

In einer Antwort auf eine Presseanfrage von netzpolitik.org bestätigte Fiedler nun, dass er seine Forderungen für eine massenhafte Inhaltskontrolle unter anderem von KTW übernommen hat. Dort fände die Idee „große Unterstützung“ und werde auch immer wieder auf internationalen Kinderschutzkongressen diskutiert, womit Fiedler seinen eigenen Einsatz für die Idee rechtfertigt.

Grundrechtlich hat der Vorschlag weitreichende Folgen, während gleichzeitig der Nutzen für den Kinderschutz fragwürdig ist. Schon bei der wesentlich weniger invasiven sogenannten „freiwilligen Chatkontrolle“, bei der Diensteanbieter wie Facebook freiwillig hochgeladene Dateien gegen Listen bekannter Kinderpornografie prüfen, ist die Verhältnismäßigkeit umstritten. Die EU-Kommission konnte in einem kürzlich veröffentlichten Bericht keine hinreichenden Daten liefern, die eine Verhältnismäßigkeit begründen würden. Gleichzeitig untergräbt der Vorschlag die Sicherheit privater verschlüsselter Kommunikation, und zudem besteht beim Einsatz von KI-Technologie eine hohe Gefahr für falsche Erkennungen bei eigentlich harmlosen Inhalten, wie im September hunderte Wissenschaftler in einem offenen Brief zur Chatkontrolle anmerkten.