IT & Datenschutz
Vorheriger Beitrag

Sie können (noch) nicht ohneeinander – LG Frankfurt a.M. zur Zusammenarbeit zwischen Mensch und Algorithmus im Rahmen der Bekämpfung rechtswidriger Online-Inhalte

22. Juni 2022 von Lennart Rümmler

Plattformbetreiber sehen sich einer fortschreitenden Ausweitung ihrer Pflichten zum Umgang mit rechtswidrigen Inhalten, die ihre Nutzer über die Plattform veröffentlicht haben, ausgesetzt – diese Pflichten reichen von der Löschung beleidigender Zitate auf Facebook über die Blockierung urheberrechtsverletzender Videos auf YouTube hin zur Sperrung von Angeboten mit markenrechtsverletzenden Fälschungen auf eBay. Zu den Pflichten der Betreiber gehört häufig nicht nur, gemeldete, rechtswidrige Inhalte nach einer entsprechenden Meldung zu sperren, sondern unter Umständen ebenso, proaktiv in einem zumutbaren Ausmaß dafür zu sorgen, dass solche Inhalte zukünftig nicht mehr verfügbar sind. Mit der verstärkten Verbreitung technischer Softwarelösungen zur automatisierten Identifikation von Inhalten stehen den Betreibern immer wirksamere Mittel zur Verhinderung von Rechtsverletzungen zur Verfügung, die folgerichtig Auswirkungen auf den Umfang der proaktiven Pflichten der Plattformbetreiber haben. Doch auch technische Lösungen sind (noch) nicht geeignet, sämtliche rechtswidrigen Inhalte automatisiert aufzufinden und zweifelsfrei zu beurteilen – was im nächsten Gedankenschritt zu der Frage führt, welche Rolle der Mensch als Kontrollinstanz im Zusammenspiel mit Algorithmen spielen muss. Eine Frage, die derzeit noch bemerkenswert wenig Aufmerksamkeit in der deutschen Rechtsprechung gefunden hat.

Namhafte Vertreter der deutschen Rechtswissenschaft sehen in einer Kombination aus einer algorithmischen Vorabkontrolle und einer ggf. erforderlichen, zumutbaren menschlichen Nachprüfung die Ideallösung zum Umgang mit rechtswidrigen Inhalten auf Plattformen (Leistner: Filtertechnologien und das Urheberrecht – Acht Thesen zur Umsetzung des Art. 17 DSM-RL mit einem Vorschlag für ein komplementär menschlich-algorithmisches Durchsetzungssystem für OCSP-Plattformen, ZUM 2020, 505).

Ein Urteil des LG Frankfurt a.M. vom 08.04.2022 (Az. 2 - 03 O 188/21) setzt sich nunmehr mit dieser Frage auseinander. Eine gute Gelegenheit, den Versuch einer Beleuchtung des Zusammenspiels zwischen proaktiven Pflichten eines Plattformbetreibers, dem Einsatz automatisierter Lösungen und der Rolle der menschlichen Unterstützung dieser automatisierten Lösungen zu unternehmen.

I.  Grundsituation des Urteils

Dem Urteil lag der folgende Sachverhalt zugrunde: Auf Facebook erschienen mehrere Postings, die ein Bild von Renate Künast und das Zitat:

„Integration fängt damit an, dass Sie als Deutscher mal türkisch lernen!“

beinhalteten. Unstreitig hat Frau Künast diese Äußerung nicht getätigt, was zur grundsätzlichen Feststellung der Rechtswidrigkeit des Posts führte. Ein bis zu diesem Punkt (leider) alltäglicher Fall eines ehrverletzenden und damit rechtswidrigen Facebook-Posts. Der juristisch gesehen spannendere Punkt liegt allerdings in dem Umstand, dass die Postings mit unterschiedlichen, durch die Nutzer im Facebook-Post hinzugefügten Textzusätze („Caption“) versehen waren. Erst in Zusammenschau mit diesen Captions ergibt sich, ob der Post insgesamt als rechtsverletzend anzusehen ist oder, ob die Äußerung gerade durch die Caption richtiggestellt wird und daher keine Rechtsverletzung gegeben ist.

Mit der Klage begehrte Frau Künast unter anderem, dass Facebook dazu verpflichtet wird, zukünftig alle Posts zu löschen, die das Zitat in rechtsverletzender Art und Weise wiedergeben. Unstreitig ist in dem Verfahren, dass identische und ähnliche Darstellungen des mit dem Zitat versehenen Bildes technisch erkennbar sind. Die Beurteilung, ob ein konkreter Post durch die Caption insgesamt als rechtswidrig anzusehen ist, ist nach den erkennbaren Feststellungen des Urteils allerdings nicht durch eine technische Lösung möglich, sondern muss durch eine menschliche Beurteilung erfolgen.

Im Streit stand folglich die Frage, ob und ggf. in welchem Umfang Facebook dazu verpflichtet werden kann, Personal zur rechtlichen Überprüfung aufgefundener Ergebnisse einzusetzen oder, ob man sich auf den Einsatz der automatisierten Lösung beschränken darf und lediglich solche Inhalte proaktiv zu sperren sind, die unzweifelhaft automatisiert als rechtswidrig erkennbar sind.

II.  Rechtliche Grundlagen

Der EuGH befasste sich mit Urteil vom 03.10.2019 (C-18/18 - Eva Glawischnig-Piesczek/Facebook Ireland Ltd) mit einem zum vorliegenden Fall sehr ähnlich gelagerten Sachverhalt und gab den nationalen Gerichten eine generelle Segelanweisung zur Beurteilung des Einsatzes automatisierter Lösungen. Auch dort ging es um die Verpflichtung Facebooks, beleidigende Postings eine Politikerin zu löschen und zukünftig ähnliche Postings zu sperren.

Der EuGH befasste sich im Rahmen des Urteils mit der Frage, in welchem Umfang das europäische Recht nach Meldung eines konkreten, rechtswidrigen Inhaltes eine proaktive Überwachungspflicht eines Plattformbetreibers bezüglich zukünftiger Uploads dieses Inhalts bzw. ähnlicher Inhalte zulässt. In diesem Zuge stellte er fest, dass eine solche proaktive Überwachungspflicht stets nur so weit gehen darf, als dass der Plattformbetreiber die Rechtswidrigkeit des Inhalts nicht autonom beurteilen muss, sondern anhand des automatisierten Vergleichs mit dem zuvor gemeldeten Inhalt feststellen kann. Diese Ausführungen lassen sich in einfachen Worten zusammenfassen:

    • Inhalte, die ohne automatisierte Technologien nicht identifiziert werden können, sondern eine eigenständige, rechtliche Beurteilung durch den Plattformbetreiber erfordern, sind nicht Gegenstand der proaktiven Prüf- und Sperrpflicht.
    • Inhalte, die durch automatisierte Technologien aufgefunden und zugleich zweifelsfrei als rechtswidrig eingestuft werden können, unterliegen der proaktiven Prüf- und Sperrpflicht – hierbei handelt es sich insbesondere um identische oder nahezu identische Inhalte.

Zukünftiger Streitpunkt in der Umsetzung dieser Vorgaben dürfte – wie auch im vorliegenden Urteil des LG Frankfurt a.M. – insbesondere sein, ab wann man von dem Erfordernis einer „autonomen Beurteilung“ des Inhalts sprechen kann. Sobald dieses Erfordernis erreicht ist, ist auch die Grenze der Zumutbarkeit der Zusammenarbeit zwischen Mensch und Algorithmus erreicht – eine menschliche Nachkontrolle also nicht mehr zumutbar. Nach Argumentation von Facebook war diese Schwelle im Fall der Beurteilung der Caption durch eine menschliche Moderationsentscheidung erreicht.

III.  Entscheidung des Gerichts

Nach rechtlicher Würdigung des Landgerichts kann Facebook unter den Voraussetzungen des konkreten Einzelfalls verpflichtet werden, Inhalte, die zuvor mittels der technischen Lösung aufgefunden wurden, durch eine menschliche Beurteilung als rechtmäßig oder rechtswidrig einzustufen. Eine solche Überprüfung sei Facebook weder wirtschaftlich noch technisch unzumutbar. Die konkret geforderte Kombination zwischen automatisierter, technischer Lösung und autonomer, menschlicher Moderationsentscheidung sei auch mit den Vorgaben des EuGH aus der Rechtssache Glawischnig-Piesczek vereinbar. Wenn es – wie vorliegend – nur darum geht, ob ein grundsätzlich unzutreffendes Zitat in hinreichender Weise richtiggestellt wird, gehe es nicht mehr um eine autonome Beurteilung der Rechtmäßigkeit des Zitats, sondern lediglich noch um eine einfache Nachkontrolle der automatisiert aufgefundenen Inhalte.

Das Landgericht sieht den Einsatz einer technischen Lösung damit gewissermaßen als einen Vorfilter, der eventuell rechtswidrige Ergebnisse für Facebook anzeigt. Eine nachgeschaltete, menschliche Untersuchung dieser angezeigten Ergebnisse kann dann zumutbar sein, wenn es nur noch um die Klärung einer trivialen Rechtsfrage geht.

IV.  Würdigung der Entscheidung – eigene Gedanken zum Umfang einer menschlichen Nachprüfung

Die Entscheidung des Landgerichts ist allein deswegen für den Juristen erfreulich, weil sie sich in offener Art und Weise mit den Vorgaben der europäischen Rechtsprechung auseinandersetzt und somit die Pflichten von Plattformbetreibern konkretisiert.

Ein vertretbares Resultat des Urteils führt dazu, dass diese Freude nicht wieder getrübt wird: Damit ein im Einzelfall gerechtes Ergebnis gefunden werden kann, bietet es sich an, die Schwelle der autonomen Beurteilung des Inhaltes nicht pauschal festzusetzen, sondern stets unter dem Gesichtspunkt der Zumutbarkeit einer menschlichen Nachprüfung zu untersuchen. Einzelfallumstände, die diese Zumutbarkeit beeinflussen können, können insbesondere sein:

    • Komplexität der erforderlichen Nachprüfung;
    • Ausmaß der drohenden Rechtsverletzung;
    • Masse der im Rahmen der Nachkontrolle zu untersuchenden Inhalte;
    • Technische, wirtschaftliche und personelle Mittel, die dem Plattformbetreiber zur Verfügung stehen.

Unter Beurteilung dieser Grundsätze verdient die Entscheidung des Landgerichts im Ergebnis Zustimmung. Die erforderliche Nachprüfung beschränkt sich auf die einfache Fragestellung, ob eine aufhebende Caption ersichtlich ist, die die falsche Zuordnung des Zitats zu Frau Künast entkräftet. Facebook stehen erhebliche finanzielle und personelle Mittel zur Verfügung, um eine solche menschliche Nachprüfung in gewissem Umfang durchzuführen. Zur Masse der gefilterten Inhalte, die einer Nachprüfung zugänglich sind, äußert sich das Landgericht nicht konkret – es führt lediglich aus, dass eine Unzumutbarkeit der Nachprüfung nicht durch Facebook vorgetragen und nicht erkennbar sei. Auch dem Ausmaß der im Falle der weitergehenden Veröffentlichung der Falschzitate ist ein erhebliches Gewicht beizumessen, steht doch zumindest die Verwirklichung des Straftatbestands des § 186 StGB im Raum.

Daher erscheint es im Ergebnis angemessen, zu verlangen, dass Facebook sich nicht lediglich auf eine automatisierte Filterung identischer bzw. automatisiert als rechtswidrig erkennbarer Inhalte beschränkt, sondern Zweifelsfälle einer menschlichen Nachkontrolle unterzieht.

Für die Zukunft wird es interessant sein, zu beobachten, welche Anforderungen die Rechtsprechung an die Zusammenarbeit algorithmischer Lösungen und menschlicher Nachkontrollen stellt. Zu begrüßen wäre es, dass die Gerichte sich hierbei nicht von rechtspolitischen Schnellschüssen leiten lassen, sondern die erforderliche Einzelfallabwägung stets im Blick behalten – nur so kann letztlich klar herausgearbeitet werden, welche Pflichten einen Plattformbetreiber im Umgang mit gespeicherten Inhalten treffen und ein wünschenswertes Maß an Rechtssicherheit geschaffen werden.