Warum Uploadfilter in der Urheberrechtsrichtlinie verhindert werden müssen

von , Uhr

Seit 2013 wird in der Europäischen Union über eine Reform des Urheberrechts verhandelt. Das derzeit geltende Urheberrecht der EU stammt im Wesentlichen aus dem Jahr 2001. Seither hat sich der Umgang mit urheberechtlich geschützten Inhalten im Internet stark verändert. Plattformen, auf denen nutzergenerierte Inhalte verbreitet werden, sind aus der digitalen Medienlandschaft nicht mehr wegzudenken. Eine Reform des Urheberrechts ist deshalb dringend nötig. Der aktuelle Richtlinienentwurf, der Ergebnis der Trilogverhandlungen ist und über den das Europäische Parlament am Dienstag abstimmen wird, wird den Anforderungen der digitalisierten Welt an das Urheberrecht aber nicht gerecht. Mit der Abkehr vom Providerprivileg wird das Modell der user-generated-content-Plattform grundsätzlich in Frage gestellt. Das Haftungsregime des Entwurfs zieht zwangsläufig die Einrichtung von Algorithmen, die Inhalte beim Hochladen auf Urheberrechtsverletzungen überprüfen, nach sich – die umstrittenen Uploadfilter. Diese Instrumente werden die Kunst-, Presse-, Meinungs- und Informationsfreiheit stark beschränken. Sie sind schon aus technischer Sicht ungeeignet, um legale Uploads von illegalen zu unterscheiden. Darüber hinaus wird mit dem Entwurf der weiteren Monopolisierung der Digitalwirtschaft Vorschub geleistet.

Dieser Beitrag erläutert, wie Plattformbetreibende unter dem Regime des Artikel 13 (nach aktueller Nummerierung Artikel 17) für hochgeladene Inhalte haften und welche Probleme sich daraus für Freiheitsrechte, die mediale Vielfalt des Internets und den Wettbewerb zwischen Plattformen ergeben.

Artikel 13 (17): Uploadfilter

Die Abkehr vom Providerprivileg

Bisher gilt in der europäischen Union der Grundsatz, dass Plattformbetreibende nur dann für Urheberrechtsverletzungen durch Nutzer haften, wenn sie darauf aufmerksam gemacht werden, dass ein Inhalte rechtswidrig hochgeladen wurde (Providerprivileg). Geregelt ist dieses Haftungsprinzip in der E-Commerce-Richtline (2000/31/EG). Urheberrechtsverletzungen wird mit dem Notice-and-Take-down-Verfahren begegnet. Das bedeutet: Die Rechteinhaber*in wendet sich an die Plattform und teilt mit, dass ein Inhalt ohne Erlaubnis hochgeladen wurde. Daraufhin sperrt die Plattform den Inhalt. Davon weicht der Entwurf der neuen Urheberrechtsrichtlinie grundlegend ab: Artikel 13 Absatz 3 normiert, dass die Betreibenden grundsätzlich für die Inhalte haften, als hätten sie sie selbst hochgeladen. Das widerspricht dem Prinzip der user-generated-content-Plattform fundamental.

3. When an online content sharing service provider performs an act of communication to the public or an act of making available to the public, under the conditions established under this Directive, the limitation of liability established in Article 14(1) of Directive 2000/31/EC shall not apply to the situations covered by this Article. […]“

Neue Kategorie: online content sharing service provider

Der umstrittene Artikel 13 gilt für „online content sharing service provider“. Artikel 2 Absatz 5 des Entwurfs definiert, was unter diesem Begriff zu verstehen ist:

Online content sharing service provider’ means a provider of an information society service whose main or one of the main purposes is to store and give the public access to a large amount of copyright protected works or other protected subject-matter uploaded by its users which it organises and promotes for profit-making purposes. Providers of services such as not-for profit online encyclopedias, not-for profit educational and scientific repositories, open source software developing and sharing platforms, electronic communication service providers as defined in Directive 2018/1972 establishing the European Communications Code, online marketplaces and business-to business cloud services and cloud services which allow users to upload content for their own use shall not be considered online content sharing service providers within the meaning of this Directive.“

Erfasst sein sollen also alle Dienste der Informationsgesellschaft, deren Zweck darin besteht, große Mengen von urheberrechtlich geschützten Werken zu speichern und der Öffentlichkeit Zugang dazu zu gewähren, wenn sie profitorientiert sind.

Urheberrechtlich geschützt sind auch die Werke der Nutzer*innen, nicht etwa nur solche anerkannter Künstler*innen, also auch Fotos, Videos, Texte, Audiodateien und andere Inhalte, die von Privatpersonen hergestellt und hochgeladen werden. Das Kriterium grenzt die Provider nur von solchen ab, die gemeinfreie Werke bereitstellen.

Auch unter den Begriff „profitorientiert“ im Rechtssinne kann eine Plattform schneller als im alltäglichen Wortverständnis fallen: Eine Vielzahl von Plattformen schalten etwa Werbung, um die Kosten für den Betrieb einzuholen. Wenn dabei regelmäßig auch nur geringe Gewinn entstehen, haben die Betreiber*innen bereits zu befürchten, als profitorientiert zu gelten. Einen Rechtsstreit mit unsicherem Ausgang über diese Frage können sich gerade wenig profitable Plattformen nicht leisten.

Betroffen sein können also Audio- und Video-Sharing-Portale, Social Media-Plattformen, Foren oder etwa Portale, in denen kostenlose Lehrmaterialen angeboten werden.

Vom Anwendungsbereich ausgenommen sind nicht profitorientierte Online-Enzyklopädien, nicht profitorientierte Bildungs- und Wissenschaftsarchive, Plattformen, die der Entwicklung und dem Teilen von Open Source Software dienen, Online-Marktplätze, Business-to-business-Cloud-Dienste und Cloud-Dienste, bei denen Benutzer Inhalte für die eigene Verwendung hochladen können.

Während in der öffentlichen Debatte viel über Youtube gesprochen wird, zeigt die Weite des Anwendungsbereiche, dass eine Vielzahl von Diensten betroffen ist, für die die Vorschriften gänzlich unpraktikabel sind.

Die Verpflichtung zum Lizenzerwerb

Artikel 13 Absatz 1 schafft die neue Verpflichtung, eine Autorisierung der Rechteinhaber einzuholen.

1. […] An online content sharing service provider shall therefore obtain an authorisation from the rightholders referred to in Article 3(1) and (2) of Directive 2001/29/EC, for instance by concluding a licencing agreement, in order to communicate or make available to the public works or other subject matter.“

Demnach müssen Plattformen sicherstellen, dass so viele Rechteinhaber*innen wie möglich die Veröffentlichung auf der Plattform genehmigen. Sie müssen also proaktiv in Lizenzverhandlungen mit diesen Akteur*innen treten. Praktisch wird das auf Vereinbarungen mit den Verwertungsgesellschaften hinauslaufen. Dieses Konzept mag etwa für die Verbreitung von Musik auf Youtube nicht ungeeignet sein. Auf viele Kategorien von Inhalten lässt es sich aber kaum anwenden: Woher sollen Plattformen etwa Lizenzen für geleakte Dokumente erhalten?

Best efforts: Uploadfilter

Der Begriff „Uploadfilter“ kommt im Text der Verordnung nicht vor. Ihre Einführung ergibt sich aber aus den Anforderungen, denen Plattformen genügen müssen, um eine Haftung für Inhalte, für die keine Lizenz vorliegt, auszuschließen:

4. If no authorisation is granted, online content sharing service providers shall be liable for unauthorised acts of communication to the public of copyright protected works and other subject matter, unless the service providers demonstrate that they have:
(a) made best efforts to obtain an authorisation, and
(b) made, in accordance with high industry standards of professional diligence, best efforts to ensure the unavailability of specific works and other subject matter for which the rightholders have provided the service providers with the relevant and necessary information, and in any event
(c) acted expeditiously, upon receiving a sufficiently substantiated notice by the rightholders, to remove from their websites or to disable access to the notifiedworks and subject matters, and made best efforts to prevent their future uploads inaccordance with paragraph (b).“

Wird ein Inhalt hochgeladen, für den keine Autorisierung des Rechteinhabers vorliegt, so verbleibt folgende Möglichkeit, der Haftung zu entgehen: Die Plattform muss (a) alle Anstrengungen unternommen haben, um eine Genehmigung zu erhalten. Außerdem (b) muss die Plattform alle Anstrengungen unternommen haben, um die Unverfügbarkeit spezifischer Werke sicherzustellen, deren nötige Identifizierungsinformation die Rechteinhaber den Plattformbetreibenden übermittelt haben. Schließlich (c), muss die Plattform auf eine Meldung des Rechteinhabers unverzüglich reagiert haben. Diese Anforderungen müssen kumulativ erfüllt werden, das heißt, wenn auch nur eine der Voraussetzungen nicht vorliegt, haftet die Plattform für die Urheberrechtsverletzung.

Sonderregelungen gelten für Provider, die seit weniger als drei Jahren in der Union Dienste anbieten, deren Jahresumsatz gleichzeitig unter zehn Millionen Euro liegt und die im vergangenen Jahr weniger als fünf Millionen Besucher im Monat hatten. Sie müssen den Anforderungen unter (b) nicht genügen.

Aus technischer Sicht kann unter diesen „best efforts“ nichts anderes zu verstehen sein als die Einrichtung automatischer Filtersysteme, die urheberrechtlich geschützte Inhalte erkennen und blockieren sollen. Solche Filter werden heute bereits von einigen Plattformen angewendet, ohne dass eine gesetzliche Verpflichtung bestünde. Der bekannteste ist Content-ID von Youtube. Wer sicherstellen möchte, dass seine urheberrechtlich geschützten Werke nicht von Unbefugten über diese Plattformen verbreitet werden, kann Erkennungsinformationen (Fingerprints) zur Überprüfung an Youtube melden. Diese werden dann mit den Fingerprints der hochgeladenen Werke abgeglichen. In der Praxis wird aufwendig entwickelte, „intelligente“ Software verwendet, die mit neuronalen Netzen (deep learning) arbeitet, um Inhalte wiederzuerkennen.

Die Verpflichtung zur Verwendung einer solchen Technologie bringt eine Vielzahl von Problemen mit sich:

1. Uploadfilter bedrohen Freiheitsrechte

Automatische Filtersysteme können nicht entscheiden, wann eine Urheberrechtsverletzung vorliegt. Sie können nicht sicher beurteilen, ob ein Inhalt überhaupt ein menschliches Werk ist. So wurde bereits Katzenschnurren von Filtern als geschütztes Material blockiert. Parodien werden nicht als Weiterverarbeitungen erkannt und als Beifang blockiert. Gleiches gilt für erlaubte Zitate. Zwar statuiert Absatz 5, dass die Möglichkeiten der hochladenden Nutzer*innen zu Zitaten, Kritik, Rezensionen, Karikaturen, Parodien und Persiflagen erhalten bleiben sollen:

5.The cooperation between online content service providers and rightholders shall not result in the prevention of the availability of works or other subject matter uploaded by users which do not infringe copyright and related rights, including where such works or subject matter are covered by an exception or limitation. Member States shall ensure that users in all Member States(*)are able to rely on the following existing exceptions and limitations when uploading and making available content generated by users on online content sharing services:
(a) quotation, criticism, review;
(b) use for the purpose of caricature, parody or pastiche“

Technische Möglichkeiten, Urheberrechtsverletzungen zuversichtlich von solchen Werken abzugrenzen, existieren aber nicht. Julia Reda, Abgeordnete im Europäischen Parlament für die Piratenpartei, hat in ihrem Blog eine Sammlung fehlerhafter Filterungen zusammen gestellt. Beispielweise wurde ein Video einer urheberrechtlichen Vorlesung der Harvard Law School blockiert, in der legitimerweise zu Anschauungszwecken kurze Songausschnitte verwendet wurden. Gerade medienkritische Onlineformate arbeiten häufig mit entlarvenden Sendungsausschnitten, wie das Beispiel einer Montage des Blogs Kobuk zeigt. Solche Beiträge werden über Plattformen kaum noch zu verbreiten sein. Immer wieder werden rechtmäßig hochgeladene Aufnahmen von Musikstücken, deren Autoren schon mehr als 70 Jahre verstorben sind, – nach dieser Zeit erlischt das Urheberrecht – gesperrt. Dazu kann es kommen, wenn etwa ein Label eine bestimmte Aufnahme als urheberrechtlich geschützt gemeldet hat und der Uploadfilter nicht zwischen unterschiedlichen Aufnahmen desselben Musikstücks von verschiedenen Interpreten unterscheiden kann. Wie Martin Kretschmer, Professor für Urheberrecht an der Universität Glasgow erläutert, kann mit den Filtern auch der Upload von kompromittierenden Dokumenten, an denen ein öffentliches Interesse besteht, vom Urheber verhindert werden.

Nun könnte man meinen, in Fällen, in denen der Filter einen Inhalt fehlerhaft blockiert, könnten die wahren Rechteinhaber sich rasch mit einer Beschwerde an die Plattformbetreiber wenden und ihren Inhalt ohne Verluste wieder sichtbar machen. Dieses Argument lässt aber die Logik viraler Verbreitung außer Acht, wie ein Fall der Organisation Pinkstinks, die sich gegen Sexismus und Homophobie einsetzt, deutlich macht: Sie hatten via Youtube das von ihnen gedrehte Video „Not Heidi‘s Girl“ verbreitet, das sich kritisch mit der Fernsehsendung Germany‘s Next Topmodel auseinandersetzt. Nachdem das Video bei RTL im Frühstücksfernsehen lief, legte RTL diese Ausstrahlung bei Youtube als urheberrechtlich geschütztes Material vor, woraufhin Youtube den ursprünglichen Clip von Pinkstinks – die ja die tatsächlichen Urheber*innen waren – wegen Urheberrechtsverletzung blockte. Zwar aktivierte Youtube das Video auf Beschwerde von Pinkstinks wieder – die 700 000 Klicks, die das Video zuvor aufwies und die es vielleicht ermöglicht hätten, ein Millionenpublikum zu erreichen, waren jedoch verloren. Eine Entschädigung für die durch RTLs missbräuchliche Meldung entgangene Aufmerksamkeit hat die Gruppe nicht erhalten. Während in diesem Fall die tatsächliche Urheberschaft nicht strittig war, kann es mitunter für die Uploader*in auch recht problematisch sein, der Plattform glaubhaft zu machen, dass sie zur Verbreitung eines Inhalts berechtigt ist.

Meinungs-, Presse-, Kunst- und Informationsfreiheit sind dadurch stark bedroht: Da im Falle einer Urheberrechtsverletzung das Risiko einer Klage über den Plattformen schwebt, sie hingegen für den Fall, dass Inhalte fälschlich gelöscht werden, keine Konsequenzen zu befürchten haben, ist zu erwarten, dass es zu massivem Overblocking kommt. Das meint, dass die Plattformen aus Vorsicht deutlich mehr Inhalte blockieren als eigentlich nötig. Gerade kleinere Anbieter fürchten Rechtsstreitigkeiten und können es sich kaum leisten, es darauf ankommen zu lassen.

2. Artikel 13 schadet Wettbewerb und Datenschutz

Die Einrichtung von Uploadfiltern ist technisch sehr anspruchsvoll. Youtube hat nach eigenen Angaben 100 Millionen US-Dollar in Content-ID, den leistungsfähigsten Uploadfilter der Welt, investiert. Kleinere und mittlere Plattformen können einen solchen Aufwand nicht betreiben und müssten diese Leistung wahrscheinlich von Youtube einkaufen. Das stärkt die Marktposition der ohnehin schon monopolähnlichen Plattformen weiter und stellt daher auch unter wettbewerbspolitischen Gesichtspunkten ein Problem dar. Viele Plattformen warnen derzeit davor, dass sie sich unter dem Regime von Artikel 13 gezwungen sähen, ihren Betrieb einzustellen, so etwa die Initiative Foren gegen Uploadfilter.

Daraus folgt auch ein wesentliches Datenschutzproblem, auf das der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit, Ulrich Kelber, in einer Presssemitteilung hingewiesen hat: Würde eine Vielzahl von Plattformen die Inhaltsfilterung – so wie es heute schon bei Analysetools gehandhabt wird – an Oligopol-Konzerne auslagern, so würden auch all diese Werkinformationen, möglicherweise mit Daten, die Rückschlüsse auf die hochladende Person zulassen, dort konzentriert werden. Es könnte dann ein guter Teil des ganzen Internettraffics auch über diese Konzerne laufen.

Die Beurteilung, wann eine Urheberrechtsverletzung vorliegt und wann nicht, sollte nicht von Privaten und schon gar nicht von Oligopolen getroffen werden. Auch wenn die Plattformen sich derzeit gegen diese Kontrollverpflichtung wehren, sollte nicht außer Acht gelassen werden, dass ihnen damit eine nicht unerhebliche Machtposition übertragen wird. Die Entscheidungen der Plattformen und der Algorithmen sind nur sehr schwer nachzuvollziehen. Eine demokratische oder juristische Kontrolle der Filter, etwa darauf hin, ob sie diskriminierende Wirkungen entfalten, ist kaum möglich.

3. Eine Zensur findet nicht statt? Vereinbarkeit mit Art. 5 GG

Unter Rechtswissenschaftler*innen ist umstritten, ob staatlich angeordnete Uploadfilter unter den Begriff der Zensur fallen. In Artikel 5 Absatz 1 Satz 2 des Grundgesetzes heißt es „Eine Zensur findet nicht statt.“ Es handelt sich um eine absolute Eingriffsschranke: Während Grundrechte grundsätzlich eingeschränkt werden dürfen, wenn ein legitimer Zweck vorliegt und der Eingriff verhältnismäßig ist, ist eine Zensur immer unverhältnismäßig und damit verfassungswidrig. Was aber ist unter Zensur zu verstehen?

Umfasst ist nur die Vorzensur, das heißt, dass Meinungsäußerungen nur nach vorheriger behördlicher Kontrolle zugelassen werden (Starck, in: Mangoldt/Klein/Starck, Grundgesetz, 5. Auflage 2005. Art. 5 Rn. 170). Grundrechte sind als Abwehrrechte der Bürger*innen gegen den Staat konzipiert. Deshalb wird unter Zensur zunächst die staatliche Kontrolle von Informationen vor deren Publikation verstanden. Mit Artikel 13 würde zwar eine solche Vorkontrolle vorgenommen werden, jedoch nicht von hoheitlichen Stellen selbst, sondern durch Private. Daher meint ein Teil der juristischen Literatur, dass eine solche Filterpflicht keine Zensur sei.

Andererseits wird argumentiert, dass von Privaten unterhaltene Plattformen sich zu bedeutsamen Foren der öffentlichen Meinungsbildung entwickelt haben, weswegen das Zensurverbot grundsätzlich an das veränderte Publikationswesen anzupassen sei (Grabenwarter, in: Maunz/Dürig, Grundgesetzkommentar, 84. EL August 2018, Art. 5 Rn. 119). Wenn Anbieter durch Haftungsregeln zu einzelanlassunabhängigen systematischen Kontrollen und Sperrungen verpflichtet werden, dann käme dies einer Zensur gleich.

Es ist wichtig, sich den Zweck des absoluten Zensurverbots vor Augen zu führen: Das Grundgesetz will jede Möglichkeit zur umfassenden planmäßigen Kontrolle der Kommunikationsinhalte ausschließen. Mögliche Meinungslenkung, eine Lähmung politischen Denkens und voreilendes Anpassungsverhalten der kommunizierenden Bürger*innen sollen ausgeschlossen werden. Meinungslenkung durch Zensur hat sich in der Vergangenheit den technischen Möglichkeiten der Kommunikationsprozesse angepasst: Während etwa die Katholische Kirche bis zur Erfindung des Buchdrucks Nachzensur als ausreichend empfand, führte sie mit Beginn der massenhaften Verbreitung von Druckerzeugnissen die Vorzensur ein (Hoffmann-Riem, in: Kommentar zum Grundgesetz für die Bundesrepublik Deutschland, 3. Auflage 2001, Art 5 Rn. 78). Daran ist abzulesen, dass auch der Zensurbegriff technischen und gesellschaftlichen Veränderungen angepasst werden sollte: Nutzergenerierten Inhalten auf zum Teil monopolartigen Plattformen kommt mittlerweile entscheidende Bedeutung für die Meinungsbildung zu. Der Staat selbst entscheidet zwar nicht im Einzelnen über die Zulässigkeit von Inhalten, ordnet aber die Filterpflicht an. Sind die Filtereinrichtungen einmal geschaffen, so ist – je nach Interessenlage – auch der Kooperation von Plattformbetreibenden mit staatlichen Versuchen, politische unliebsame Beiträge zu unterdrücken, Tür und Tor geöffnet. Dies alles spricht dafür, den Zensurbegriff auf die staatliche Verpflichtung zur anlassunabhängigen Kontrolle sämtlicher Plattforminhalte auszuweiten.

Exkurs: Uploadfilter und Terror Content

Uploadfilter sollen nicht nicht nur den Urheberrechtsschutz stärken, sondern werden auch für einen weitere Anwendungsbereiche diskutiert: Terroristische Online-Inhalte. Die Vorstellung, Terrorpropaganda automatisch löschen oder blockieren zu können, klingt zunächst verlockend. Hier zeigt sich aber ganz besonders die Unfähigkeit der Filtersysteme: Die Plattform Youtube, die sie bereits auf freiwilliger Basis einsetzt, sperrte zehntausende Videos, die Kriegsverbrechen des IS dokumentierten, weil in ihnen IS-Flaggen zu sehen waren.

Nachdem die Innenminister Frankreichs und Deutschlands die EU-Kommission im letzten Jahr aufgefordert hatte, verstärkt gegen Terror-Propaganda im Internet vorzugehen, legte die Kommission im September einen Verordnungsentwurf vor. Mit der Verordnung zur Verhinderung der Verbreitung terroristischer Online-Inhalte sollen alle Dienste, die Inhalte von Personen hochladen lassen und sie speichern, um sie Dritten zur Verfügung zu stellen, auf behördliche Anordnung Inhalte binnen einer Stunde löschen. Davon umfasst ist nach dem Kommissionsentwurf jeder Blog mit Kommentarfunktion. Als „terroristisch“ bezeichnet der Entwurf mit der Formulierung „technische Anleitungen oder Methoden für das Begehen terroristischer Straftaten“ auch Berichterstattung von Journalist*innen oder Menschenrechtsorganisationen. Ebenfalls betroffen wäre ein Aufruf zum „Kapern von Luft- und Wasserfahrzeugen oder von anderen öffentlichen Verkehrsmitteln oder Gütertransportmitteln mit dem Ziel, öffentliche Stellen oder eine internationale Organisation rechtswidrig zu einem Tun oder Unterlassen zu zwingen“ – damit könnten in Zukunft auch Aufrufe zu zivilem Ungehorsam entfernt werden. Die breite Definition wurde unter anderem in einem gemeinsamen Bericht des UN-Sonderberichterstatters für Meinungsfreiheit, des UN-Sonderberichterstatters für das Recht auf Privatheit und der UN-Sonderberichterstatterin für den Grundrechtsschutz im Anti-Terror-Kampf scharf kritisiert. Sie erinnern die EU-Institutionen sogar daran, dass auch Inhalte, die den Staat angreifen, schockieren oder stören, vom Recht auf freie Meinungsäußerung umfasst sind:

„The Special Rapporteurs wish to emphasize that the right to freedom of expression extends‘not only to “information” or “ideas”that are favourably received or regarded as inoffensive or as a matter of indifference, but also to those thatoffend, shock or disturbthe State or any sector of the population. Such are the demands of that pluralism, tolerance and broadmindedness without which there is no “democratic society”“.

Neben der Entfernungsanordnung sollen nationale Behörden auch die Möglichkeit haben, Plattformen zur Einrichtung von Uploadfiltern zu verpflichten. Die Verordnung enthält eine ganze Reihe von Ansatzpunkten, die von nationalen Behörden zur Unterdrückung politisch missliebiger Inhalte verwendet werden können. Ganz besonders mangelt es an adäquaten Rechtsschutzmöglichkeiten für die Personen, deren hochgeladener Inhalt blockiert werden soll. So könnte etwa eine polnische Behörde einen Beitrag sperren lassen, der von Deutschland aus auf eine Plattform gestellt wurde. Wollte die hochladende Person sich juristisch dagegen wehren, so müsste sie vor einem polnischen Gericht gegen die Entfernungsanordnung klagen.

Alternativen für die bessere Entlohnung von Kreativen

Es gibt verschiedene Ansätze zur Gewährleistung der gerechten Entlohnung von Kreativen im digitalen Zeitalter. Das Max-Planck-Institut für Innovation und Wettbewerb hat mehrere Ansätze vorgeschlagen: Die Haftung der Plattformen sollte präzisiert und das Notice-and-take-down-Verfahren harmonisiert werden. Dies soll durch ein sogenanntes Counter-Notice-Verfahren ergänzt werden. Private und nichtkommerzielle Nutzungen sollten von der Haftung nicht umfasst werden. Weiterhin schlagen sie eine verpflichtende Abgabe für die Nutzung von Werken, die von Plattformen gezahlt werden soll, vor. Ein weiterer wesentlicher Bestandteil ist die Vereinfachung der transeuropäischen Lizensierungsmechanismen.

Von anderer Seite wurde eine Kulturflatrate vorgeschlagen, ein Pauschalbeitrag, der von Nutzer*innen von Breitbandanschlüssen entrichtet und an Künstlerinnen verteilt werden soll. Im Gegenzug könnte das Kopieren und die Weitergabe von Werken legalisiert werden. Bei Downloads und Streams im Internet könnte erhoben werden, wie oft ein Beitrag angesehen wird und anhand dessen ein Verteilungsschlüssel aufgestellt werden. Ähnlich werden heute bereits beim Kauf von Leer-CDs und Kopiergeräten Abgaben fällig.

Uploadfilter sind keineswegs geeignet, einen gerechten Interessenaustausch für die Verbreitung und die Entlohnung von Immaterialgütern im Netz zu schaffen. Notwendig sind sie dafür schon gar nicht.

Dieser Artikel ist unter der Creative Commons Lizenz Namensnennung – Weitergabe unter gleichen Bedingungen 3.0 Deutschland (CC BY-SA 3.0 DE) am 25.03.2019 auf digitalgesellschaft.de erschienen. Die Autorin ist Elisabeth Niekrenz.


Ähnliche Beiträge zu diesem Thema