EU-Urheberrechtsrichtlinie

Bisher war es das so genannte Providerprivileg, das Plattformen wie Youtube gegen weitergehende Forderungen von Rechteinhaber schützte. Das Providerprivileg ist ein Konzept, das dem des reitenden Boten ähnelt. Für die Nachricht, die der Bote überbringt, ist er selbst nicht verantwortlich, weil er nur der Überbringer ist. Angewendet auf das Internet heißt das, dass der Provider dank des Providerprivilegs davor geschützt wird, für bereit gestellte Inhalte, die er selbst nicht erstellt hat, zur Rechenschaft gezogen zu werden.

 

In der neuen Urheberrechtsrichtlinie soll nun vor allem genau dieses Privileg für bestimmte Arten von Plattformen beseitigt werden.

Der „Verband der unabhängigen Musikunternehmen“ (VUT) führt dies etwas näher aus:

 

„Gemeint sind Online-Content-Sharing-Dienste deren Geschäftsmodell darauf basiert, Inhalte, die von Nutzer_innen hochgeladen wurden, zu optimieren (z.B. zu ordnen, besser auffindbar zu machen etc.) und die so aufbereiteten urheberrechtlich geschützten Inhalte im Internet wieder zum Abruf anzubieten.”

 

Der Streik dieser Tage von Wikipedia sollte also vor allem Solidarität mit den Kritikern der Richtlinie ausdrücken, denn Wikipedia ist selbst von den Änderungen nicht betroffen, denn, so der VUT WEITER:

“Explizit ausgenommen sind Plattformen, die nicht gewinnorientiert arbeiten, beispielsweise NGOs, Online-Enzyklopädien (z.B. Wikipedia) und Plattformen mit anderen Geschäftsmodellen. Hierunter fallen Online-Marktplätze (z.B. Amazon oder Ebay), Cloud-Dienste (z.B. DropBox) und Access-Provider (z.B. Telekom). Auch kleine Netzwerke, deren Hauptgeschäftsfeld nicht darin besteht, große Mengen urheberrechtlich geschützte Inhalte öffentlich zu machen, sind nicht von Artikel 13 betroffen. Für Startups gelten spezielle Ausnahmeregelungen.“ (Hervorhebung von mir)

 

Ein etwas anderes Verständnis hat Joe McNamee, der seine Bedenken auf  netzpolitik.de äußert. Er schreibt, dass niemand bisher so genau wisse, was mit den Formulierungen der Richtlinie gemeint sei. Was genau „optimieren“ und „große Mengen“ bedeuten soll, fragt er sich und gibt zu bedenken, dass dies auszulegen letztlich eine Angelegenheit der Gerichte der 27 EU-Mitgliedstaaten sei. Großes Missfallen verursachen Joe McNamee die wenig konkreten Formulierungen der Urheberrechtsrichtlinie.

 

Aber welche Inhalte sind in dieser Diskussion überhaupt urheberrechtlich relevant?

 

Unterschieden werden können 4 Typen:

 

  1. Inhalte, die von einem Autor/in erstellt wurden, und von diesem Autor/in ins Internet geladen werden,
  2. Inhalte eines Autor/in ohne Lizenz, ohne rechtlichen Schutz, die von anderen Personen frei verwendet werden können,
  3. Inhalte eines Autor/in, der/die diese Inhalte mit einer freien Lizenz (C-C) veröffentlicht, und schließlich die in der Richtlinie allein vorkommenden
  4. Inhalte eines Autor/in, die durch Lizenz geschützt sind, und illegal ins Internet geladen werden.

 

Es ist nun noch nicht einmal so, dass Nutzer-Uploads nur Inhalte des Typ 4 beträfen. Diese Inhalte spielen in der Praxis sogar die geringste Rolle. Der Anteil von Material, das illegal ins Internet geladen wird (Typ 4), beträgt laut den Angaben der linken Bundestagsabgeordneten Anke Domscheit-Berg gerade einmal 0,01%. (siehe golem.de)

 

Die Plattformen hatten wir. Das waren jetzt die Inhalte. Und wie weiter? Mit den Kosten!

 

Anbieter, die im urheberrechtsrichtlinienrelevanten Bereich tätig sind, benötigen in Zukunft die Zustimmung der Rechteinhaber für die bei ihnen zu findenden Inhalte.
Entsprechende Vereinbarungen müssen aber nicht individuell mit jedem einzelnen Rechteinhaber/in, sondern können über die GEMA, VUT, Merlin, Verwertungsgesellschaft Bild+Kunst,…. abgeschlossen werden. Entsprechende Vereinigungen bieten hierfür Rahmenverträge an.
Liegen diese Vereinbarungen nicht vor, kann es Ärger in Form von Schadensersatzforderungen, Abmahnungen und Unterlassenserkärungen (und den entsprechend damit verbundenen Kosten) geben.

 

Will eine Plattform, die mit nutzergenerierten Inhalten bestückt wird, das alles vermeiden, dann muss sie entsprechend der Urheberrechtsrichtlinie bestmögliche Anstrengungen unternehmen, um Inhalte des Typs 4 zu verhindern.

 

Dass diese Anstrengungen für eine (kleinere) Plattform, auf der Urheberrechtsverstöße so gut wie nicht und nur in Einzelfällen vorkommen, unverhältnismäßig hohe Kosten und ungerechtfertigte Einschränkungen mit Auswirkungen auf das Verhalten der Nutzer und Nutzerinnen mit sich bringen, ist eine u.a. von Friedhelm Greis auf netzpolitik.org vorgebrachte Kritik.

 

Es geht aber noch weiter.

 

Befindet sich beispielsweise ein Bild auf einer solchen Plattform, dann muss dem Betreiber/in eine entsprechende Lizenz vorliegen. Tut sie das nicht, dann ist die Lage alles andere als klar, denn es ist die Frage, um was für eine Lizenz es sich handelt. Ein besonderer Fall sind nämlich die im Internetalltag recht häufig vorkommenden Lizenzverstöße beim Umgang mit Bildern, die, unter Berücksichtigung einer freien Lizenz, von Nutzern frei verwendet werden dürfen. Wird aber von einem Nutzer/in nur eine der in einer Creativ-Commons-Lizenz formulierte Bedingung missachtet, so liegt ebenfalls ein (normaler) Urheberrechtsverstoß, für den der Plattformbetreiber/in haftbar gemacht werden kann. Der entsprechende Verstoß gegen das Urheberrecht ergibt sich dabei nicht aus dem Fehlen einer Lizenz, sondern aus deren Vorhandensein.

 

Die Sache wird also immer komplizierter, so dass Lösungen immer fraglicher und umstrittener werden. Allen voran der „Uploadfilter“.

 

Uploadfilter, d.h. Softwareroutinen, wären im Bereich Bild, Foto, Film mit den sich oft wiederholenden Motiven, ähnlichen Bildern, Adaptionen und kreativer Verarbeitungen nicht nur teuer, sondern vor allem unzureichend und fehlerhaft.

 

Julia Reda, als Piratin stellvertretende Vorsitzende der Grünen-Fraktion im EU-Parlament, schreibt dazu: „Alle im Internet hochgeladenen Inhalte durch Filtersysteme überwachen zu lassen, höhlt Grundrechte aus und führt mit Sicherheit zum irrtümlichen Blockieren legaler Inhalte“.

 

Erfahrungen gibt es bereits:

 

  • Die Filter von YouTube behaupteten, dass eine 12-Sekunden-Aufnahme einer schnurrenden Katze Werke enthielt, die von EMI Music urheberrechtlich geschützt waren.
  • Eine Aufzeichnung einer Vorlesung der Harvard Law School zum Thema Urheberrecht wurde vom Copyright-Filter von YouTube gesperrt weil der Professor einige Punkte mit kurzen Ausschnitten aus Popsongs illustrierte.
  • Die Aufzeichnung einer Marslandung durch die NASA wurde als Urheberrechtsverletzung identifiziert, trotz der Tatsache, dass die Aufnahme von der NASA selbst stammte und alles, was die NASA erstellt, öffentlich frei zugänglich ist.
  • Der Uploadfilter von Youtube versuchte Terrorpropadanda dadurch zu verhindern, dass verdächtige Inhalte wie ISIS-Flaggen in Videos gesucht wurden. Das Ergebnis: Zehntausende Videos, die Gräueltaten in Syrien dokumentieren, wurden entfernt und Bemühungen zur Aufdeckung von Kriegsverbrechen zensiert.
  • Der Upload einer Debatte im Europäischen Parlament über Folter wurde wegen angeblicher Verletzung ihrer gemeinschaftlichen Leitlinien beanstandet. Google gab später einem defekten Spamfilter die Schuld.
  • Vor kurzem fanden queere YouTubers ihre Videos blockiert oder versteckt in vermeintlich kinderfreundlichem “eingeschränkten Modus“, was darauf hindeutet, dass die Damen und Herren, die den Filter programmiert haben, irgendwie zu dem Urteil gekommen waren, dass LGBT*-Themen schlecht zu monetarisieren sind und es nicht wert sind, weit verbreitet gesehen zu werden.

 

Siehe auch Blog von Julia Reda unter: https://juliareda.eu/2017/09/when-filters-fail/

 

Eine zweite, nicht weniger beanstandenswerte Maßnahme im Zusammenhang mit den Forderungen der Urheberrechtsrichtlinie ist die Klarnamenpflicht. Mit ihr können Plattformen, die gegen sie gerichteten Vorwürfe an die Nutzer weitergeben und sie mitverantwortlich für ihre Uploads machen. Mit der Klarnamenpflicht ist es darüber hinaus möglich, bestimmte Aktivitäten nur Nutzern zuzugestehen, deren Identität bekannt ist. Erfolgt das aber, dann würde das Datensammler-Herz der großen Internetunternehmen eine großen Sprung machen.

 

Dazu die sehr interessante und vielsagende Entscheidung eines Berliner Gerichts.

 

Dieses entschied Anfang letzten Jahres zur vom Datenhändler Facebook geforderten Klarnamenpflicht, dass diese nicht zulässig sei, denn “indem das Unternehmen seine Nutzer zur Angabe korrekter persönlicher Informationen verpflichte,” – ACHTUNG JETZT KOMMT DER WICHTIGE TEIL! –  “ringe es ihnen zugleich auch die Einwilligung zur Verarbeitung ihrer Daten ab.” Klarnamenpflicht ist also, so seltsam wie es sich anhört, auch eine Pflicht zu Veröffentlichung und Weitergabe der eigenen persönlichen Daten.

 

Der Schutz persönlicher Daten sieht anders aus.

 

Wenn in Zusammenhang mit Hasskommentaren ebenfalls die Identifizierbarkeit des Kommentators gefordert wird, wird damit auch einem Klarnamenzwang das Wort geredet. Union und SPD fordern einen zivilrechtlichen Auskunftsanspruch bei Persönlichkeitsrechtsverletzungen, was, so fügt Markus Reuter von netzpolitik.org in einem aus dem Jahr 2017 stammenden Text hinzu, nichts anderes sei als die “Einführung eines Klarnamen-Internet durch die Hintertüre”.

 

Problematisch also im Zusammenhang der EU-Urheberrechtsrichtlinie ist weniger die Richtlinie selbst als die aus ihr resultierenden negativen Konsequenzen. Allen voran die so genannten Uploadfilter und die zu befürchtende Einführung einer Klarnamenpflicht.

 

Siehe auch
  • https://netzpolitik.org/2016/gute-gruende-fuer-pseudonymitaet-und-gegen-eine-klarnamenpflicht/
  • https://netzpolitik.org/2018/16-beispiele-warum-pseudonymitaet-im-netz-unverzichtbar-ist/
  • https://www.golem.de/news/uploadfilter-der-generalangriff-auf-das-web-2-0-1903-140022.html
  • https://wb-web.de/material/medien/die-cc-lizenzen-im-uberblick-welche-lizenz-fur-welche-zwecke-1.html

Burkhard Heinz
mediatpress®

Datenschutzerklärung alle Rechte vorbehalten / mediatpress®