Die Uhr tickt für Online-Plattformen: Ab dem 16. März 2025 sind sie verpflichtet, ihre Dienste auf potenziell illegale Inhalte zu überprüfen, um empfindliche Geldbußen zu vermeiden. Hintergrund ist das Inkrafttreten des neuen Online Safety Act (OSA), das von der Regulierungsbehörde Ofcom durchgesetzt wird. Ofcom hat kürzlich die finalen Verhaltenskodizes zur Bekämpfung illegaler Online-Inhalte veröffentlicht.
Plattformen bleiben lediglich drei Monate, um Risikobewertungen durchzuführen und mögliche Gefahren auf ihren Diensten zu identifizieren. Bei Nichteinhaltung drohen Strafen von bis zu 10 Prozent des weltweiten Umsatzes. Über 40 Sicherheitsmaßnahmen hat Ofcom definiert, die ab März 2025 umgesetzt werden müssen.
Ofcom-Chefin Dame Melanie Dawes erklärte: „Zu lange waren Websites und Apps unreguliert und unzureichend auf das Wohlergehen ihrer Nutzer bedacht. Das ändert sich nun grundlegend.“ Dawes betont, dass die Sicherheitsstandards der Tech-Unternehmen künftig streng überwacht werden. Die Regulierungsbehörde will bei Verstößen konsequent handeln.
Kritische Stimmen monieren jedoch, dass der OSA nicht genügend auf die Risiken für Kinder eingeht. Unter anderem äußerte Andy Burrows von der Molly Rose Foundation Sorge über fehlende konkrete Maßnahmen gegen Inhalte wie Selbstmordaufforderungen und Selbstverletzungsdarstellungen.
Ofcom legt in seinen Kodizes klar dar, dass Plattformen ermitteln müssen, wie illegale Inhalte auf ihren Diensten auftreten können und Wege finden müssen, diese Inhalte vom Nutzer fernzuhalten. Dazu zählen Materialien im Zusammenhang mit sexuellem Missbrauch von Kindern, extremen Gewaltdarstellungen und der Verherrlichung von Selbstverletzung.
Seit Beginn der Konsultationen zu illegalen Inhalten im November 2023 hat Ofcom sein Leitlinienwerk für Tech-Firmen verschärft. Dabei wird auch auf den Umgang mit Missbrauch intimer Bilder und erzwungene Sexarbeit eingegangen.
Um die Sicherheit von Kindern zu gewährleisten, sollen soziale Netzwerke aufhören, Freundschaftsvorschläge zwischen erwachsenen Nutzern und Kinderkonten zu machen. Zusätzlich müssen bestimmte Plattformen Hash-Matching-Technologie einsetzen, um CSAM aufzuspüren - nun auch eine Anforderung für kleinere File-Hosting-Dienste.