OLG Frankfurt: Plattformen müssen eigenständig nach rechtsverletzenden Inhalten suchen und diese entfernen
- 2 Minuten Lesezeit
Das Oberlandesgericht (OLG) Frankfurt am Main hat mit Beschluss vom 4. März 2025 (Az. 16 W 10/25) eine bedeutende Entscheidung getroffen: Hostprovider wie Meta sind nicht nur verpflichtet, gemeldete rechtsverletzende Inhalte zu löschen, sondern müssen auch eigenständig nach sinngleichen Verstößen suchen und diese entfernen.
Hintergrund des Falls
Der bekannte Arzt und Entertainer Dr. Eckart von Hirschhausen wurde Opfer manipulierter Deep-Fake-Videos. In diesen täuschte eine Fälschung vor, er würde ein bestimmtes Abnehmprodukt bewerben. Hierfür wurden manipulierte Ausschnitte aus einer „Markus Lanz“-Sendung verwendet. Dr. von Hirschhausen forderte Meta als Betreiberin von Facebook auf, die Videos zu entfernen.
Entscheidung
Das OLG stellte klar, dass Plattformbetreiber wie Meta nicht nur auf Hinweise reagieren dürfen, sondern proaktiv tätig werden müssen. Konkret bedeutet dies:
✔ Nach Hinweis auf eine Rechtsverletzung muss nicht nur der gemeldete Beitrag gelöscht werden.
✔ Die Plattform ist verpflichtet, eigenständig nach sinngleichen Inhalten zu suchen und diese zu entfernen.
✔ Sinngleiche Inhalte umfassen auch Beiträge mit identischem Text und Bild, aber abweichender Gestaltung (Auflösung, Größe/Zuschnitt, Verwendung von Farbfiltern, Einfassung/hinzugefügte Captions etc.).
Im vorliegenden Fall hatte Meta ein beanstandetes Video nach der Meldung des Klägers entfernt. Ein nahezu identisches zweites Video wurde jedoch erst nach einer erneuten Meldung gelöscht. Das OLG entschied, dass Meta bereits nach dem ersten Hinweis verpflichtet gewesen wäre, das zweite, sinngleiche Video eigenständig zu identifizieren und zu entfernen.
Konsequenzen für Betroffene: Mehr Schutz, weniger Eigenaufwand
Diese Entscheidung ist ein Meilenstein im Schutz Betroffener gegen Deep-Fakes, Fake News und andere rechtsverletzende Inhalte. Betroffene müssen nicht mehr mühsam jedes einzelne rechtsverletzende Video oder Bild selbst aufspüren und melden. Stattdessen liegt die Verantwortung nun klar bei den Plattformen, aktiv nach solchen Inhalten zu suchen und sie zu löschen.
Das bedeutet:
🔹 Erleichterung für Opfer von Fake News, Deep-Fakes und Cybermobbing – Die oft aufwendige Eigenrecherche entfällt.
🔹 Stärkere Haftung der Plattformen – Betreiber können sich nicht mehr darauf berufen, nur auf explizite Meldungen zu reagieren.
🔹 Effektivere Bekämpfung von Desinformation und Rufschädigung – Nachweise von einmal gemeldeten Fake-Inhalten reichen aus, um auch sinngleiche Beiträge entfernen zu lassen.
Erleichterte rechtliche Durchsetzung mit anwaltlicher Unterstützung
Auch wenn diese Entscheidung die Rechte Betroffener stärkt, bleibt die Durchsetzung in der Praxis oft eine Herausforderung. Plattformbetreiber setzen ihre Löschpflichten nicht immer konsequent um oder lehnen Anfragen unberechtigt ab. Hier kann eine anwaltliche Beratung und Vertretung entscheidend sein, um Ihre Rechte effektiv durchzusetzen.
Als spezialisierter Anwalt für IT- und Medienrecht unterstütze ich Sie dabei:
✔ Schnelle und gezielte Rechtsdurchsetzung – Ich setze Ihr Recht auf Löschung rechtsverletzender Inhalte durch.
✔ Durchsetzung von Unterlassungsansprüchen – Ich fordere Plattformbetreiber auf, auch zukünftige Verstöße zu verhindern.
✔ Schadensersatz und Gegendarstellungen – Falls durch rechtswidrige Inhalte finanzielle oder persönliche Schäden entstanden sind.
Falls Sie von rechtsverletzenden Inhalten, Deep-Fakes oder Fake News betroffen sind, nehmen Sie Kontakt mit mir auf – gemeinsam sorgen wir dafür, dass Ihre Rechte gewahrt werden.
Gelten diese Regeln auch für andere Plattformen außer Meta/Facebook?
Ja, die Entscheidung betrifft alle Hostprovider, also auch Plattformen wie Instagram, TikTok, YouTube, Twitter/X und andere soziale Netzwerke. Das Urteil legt eine allgemeine Verpflichtung für Betreiber fest, sich nicht nur auf Meldungen zu verlassen, sondern aktiv gegen Rechtsverletzungen vorzugehen.
Ich bin betroffen – was soll ich jetzt tun?
Falls Sie Opfer vonFake News, Deep-Fakes oder anderen rechtsverletzenden Inhalten geworden sind, sollten Sie:
1️⃣Beweise sichern (Screenshots, URLs, Datum der Veröffentlichung).
2️⃣Den Inhalt der Plattform melden – Nutzen Sie die offiziellen Meldefunktionen.
3️⃣ Anwaltliche Unterstützung einholen, falls die Plattform nicht reagiert oder der Inhalt wieder auftaucht.
Was kann ich tun, wenn eine Plattform sich weigert, Inhalte zu löschen?
Falls eine Plattform trotz Meldung und klarer Rechtslage nicht reagiert, gibt es folgende rechtliche Schritte:
🔹Anwaltliche Abmahnung – Der Plattformbetreiber wird zur Löschung aufgefordert.
🔹Einstweilige Verfügung – Ein schnelles gerichtliches Verfahren kann die Löschung erzwingen.
🔹 Schadensersatzansprüche – Falls durch die rechtsverletzenden Inhalte ein finanzieller oder persönlicher Schaden entstanden ist.
Artikel teilen: