Skip to content
Warum Uploadfilter in der Urheberrechtsrichtlinie verhindert werden müssen
Seit 2013 wird in der Europäischen Union über eine Reform des Urheberrechts verhandelt. Das derzeit geltende Urheberrecht der EU stammt im Wesentlichen aus dem Jahr 2001. Seither hat sich der Umgang mit urheberechtlich geschützten Inhalten im Internet stark verändert. Plattformen, auf denen nutzergenerierte Inhalte verbreitet werden, sind aus der digitalen Medienlandschaft nicht mehr wegzudenken. Eine Reform des Urheberrechts ist deshalb dringend nötig. Der aktuelle Richtlinienentwurf, der Ergebnis der Trilogverhandlungen ist und über den das Europäische Parlament am Dienstag abstimmen wird, wird den Anforderungen der digitalisierten Welt an das Urheberrecht aber nicht gerecht. Mit der Abkehr vom Providerprivileg wird das Modell der user-generated-content-Plattform grundsätzlich in Frage gestellt. Das Haftungsregime des Entwurfs zieht zwangsläufig die Einrichtung von Algorithmen, die Inhalte beim Hochladen auf Urheberrechtsverletzungen überprüfen, nach sich – die umstrittenen Uploadfilter. Diese Instrumente werden die Kunst-, Presse-, Meinungs- und Informationsfreiheit stark beschränken. Sie sind schon aus technischer Sicht ungeeignet, um legale Uploads von illegalen zu unterscheiden. Darüber hinaus wird mit dem Entwurf der weiteren Monopolisierung der Digitalwirtschaft Vorschub geleistet. Dieser Beitrag erläutert, wie Plattformbetreibende unter dem Regime des Artikel 13 (nach aktueller Nummerierung Artikel 17) für hochgeladene Inhalte haften und welche Probleme sich daraus für Freiheitsrechte, die mediale Vielfalt des Internets und den Wettbewerb zwischen Plattformen ergeben. Artikel 13 (17): Uploadfilter Die Abkehr vom Providerprivileg Bisher gilt in der europäischen Union der Grundsatz, dass Plattformbetreibende nur dann für Urheberrechtsverletzungen durch Nutzer haften, wenn sie darauf aufmerksam gemacht werden, dass ein Inhalte rechtswidrig hochgeladen wurde (Providerprivileg). Geregelt ist dieses Haftungsprinzip in der E-Commerce-Richtline (2000/31/EG). Urheberrechtsverletzungen wird mit dem Notice-and-Take-down-Verfahren begegnet. Das bedeutet: Die Rechteinhaber*in wendet sich an die Plattform und teilt mit, dass ein Inhalt ohne Erlaubnis hochgeladen wurde. Daraufhin sperrt die Plattform den Inhalt. Davon weicht der Entwurf der neuen Urheberrechtsrichtlinie grundlegend ab: Artikel 13 Absatz 3 normiert, dass die Betreibenden grundsätzlich für die Inhalte haften, als hätten sie sie selbst hochgeladen. Das widerspricht dem Prinzip der user-generated-content-Plattform fundamental. „3. When an online content sharing service provider performs an act of communication to the public or an act of making available to the public, under the conditions established under this Directive, the limitation of liability established in Article 14(1) of Directive 2000/31/EC shall not apply to the situations covered by this Article. […]“ Neue Kategorie: online content sharing service provider Der umstrittene Artikel 13 gilt für „online content sharing service provider“. Artikel 2 Absatz 5 des Entwurfs definiert, was unter diesem Begriff zu verstehen ist: „Online content sharing service provider’ means a provider of an information society service whose main or one of the main purposes is to store and give the public access to a large amount of copyright protected works or other protected subject-matter uploaded by its users which it organises and promotes for profit-making purposes. Providers of services such as not-for profit online encyclopedias, not-for profit educational and scientific repositories, open source software developing and sharing platforms, electronic communication service providers as defined in Directive 2018/1972 establishing the European Communications Code, online marketplaces and business-to business cloud services and cloud services which allow users to upload content for their own use shall not be considered online content sharing service providers within the meaning of this Directive.“ Erfasst sein sollen also alle Dienste der Informationsgesellschaft, deren Zweck darin besteht, große Mengen von urheberrechtlich geschützten Werken zu speichern und der Öffentlichkeit Zugang dazu zu gewähren, wenn sie profitorientiert sind. Urheberrechtlich geschützt sind auch die Werke der Nutzer*innen, nicht etwa nur solche anerkannter Künstler*innen, also auch Fotos, Videos, Texte, Audiodateien und andere Inhalte, die von Privatpersonen hergestellt und hochgeladen werden. Das Kriterium grenzt die Provider nur von solchen ab, die gemeinfreie Werke bereitstellen. Auch unter den Begriff „profitorientiert“ im Rechtssinne kann eine Plattform schneller als im alltäglichen Wortverständnis fallen: Eine Vielzahl von Plattformen schalten etwa Werbung, um die Kosten für den Betrieb einzuholen. Wenn dabei regelmäßig auch nur geringe Gewinn entstehen, haben die Betreiber*innen bereits zu befürchten, als profitorientiert zu gelten. Einen Rechtsstreit mit unsicherem Ausgang über diese Frage können sich gerade wenig profitable Plattformen nicht leisten. Betroffen sein können also Audio- und Video-Sharing-Portale, Social Media-Plattformen, Foren oder etwa Portale, in denen kostenlose Lehrmaterialen angeboten werden. Vom Anwendungsbereich ausgenommen sind nicht profitorientierte Online-Enzyklopädien, nicht profitorientierte Bildungs- und Wissenschaftsarchive, Plattformen, die der Entwicklung und dem Teilen von Open Source Software dienen, Online-Marktplätze, Business-to-business-Cloud-Dienste und Cloud-Dienste, bei denen Benutzer Inhalte für die eigene Verwendung hochladen können. Während in der öffentlichen Debatte viel über Youtube gesprochen wird, zeigt die Weite des Anwendungsbereiche, dass eine Vielzahl von Diensten betroffen ist, für die die Vorschriften gänzlich unpraktikabel sind. Die Verpflichtung zum Lizenzerwerb Artikel 13 Absatz 1 schafft die neue Verpflichtung, eine Autorisierung der Rechteinhaber einzuholen. „1. […] An online content sharing service provider shall therefore obtain an authorisation from the rightholders referred to in Article 3(1) and (2) of Directive 2001/29/EC, for instance by concluding a licencing agreement, in order to communicate or make available to the public works or other subject matter.“ Demnach müssen Plattformen sicherstellen, dass so viele Rechteinhaber*innen wie möglich die Veröffentlichung auf der Plattform genehmigen. Sie müssen also proaktiv in Lizenzverhandlungen mit diesen Akteur*innen treten. Praktisch wird das auf Vereinbarungen mit den Verwertungsgesellschaften hinauslaufen. Dieses Konzept mag etwa für die Verbreitung von Musik auf Youtube nicht ungeeignet sein. Auf viele Kategorien von Inhalten lässt es sich aber kaum anwenden: Woher sollen Plattformen etwa Lizenzen für geleakte Dokumente erhalten? Best efforts: Uploadfilter Der Begriff „Uploadfilter“ kommt im Text der Verordnung nicht vor. Ihre Einführung ergibt sich aber aus den Anforderungen, denen Plattformen genügen müssen, um eine Haftung für Inhalte, für die keine Lizenz vorliegt, auszuschließen: „4. If no authorisation is granted, online content sharing service providers shall be liable for unauthorised acts of communication to the public of copyright protected works and other subject matter, unless the service providers demonstrate that they have: (a) made best efforts to obtain an authorisation, and (b) made, in accordance with high industry standards of professional diligence, best efforts to ensure the unavailability of specific works and other subject matter for which the rightholders have provided the service providers with the relevant and necessary information, and in any event (c) acted expeditiously, upon receiving a sufficiently substantiated notice by the rightholders, to remove from their websites or to disable access to the notifiedworks and subject matters, and made best efforts to prevent their future uploads inaccordance with paragraph (b).“ Wird ein Inhalt hochgeladen, für den keine Autorisierung des Rechteinhabers vorliegt, so verbleibt folgende Möglichkeit, der Haftung zu entgehen: Die Plattform muss (a) alle Anstrengungen unternommen haben, um eine Genehmigung zu erhalten. Außerdem (b) muss die Plattform alle Anstrengungen unternommen haben, um die Unverfügbarkeit spezifischer Werke sicherzustellen, deren nötige Identifizierungsinformation die Rechteinhaber den Plattformbetreibenden übermittelt haben. Schließlich (c), muss die Plattform auf eine Meldung des Rechteinhabers unverzüglich reagiert haben. Diese Anforderungen müssen kumulativ erfüllt werden, das heißt, wenn auch nur eine der Voraussetzungen nicht vorliegt, haftet die Plattform für die Urheberrechtsverletzung. Sonderregelungen gelten für Provider, die seit weniger als drei Jahren in der Union Dienste anbieten, deren Jahresumsatz gleichzeitig unter zehn Millionen Euro liegt und die im vergangenen Jahr weniger als fünf Millionen Besucher im Monat hatten. Sie müssen den Anforderungen unter (b) nicht genügen. Aus technischer Sicht kann unter diesen „best efforts“ nichts anderes zu verstehen sein als die Einrichtung automatischer Filtersysteme, die urheberrechtlich geschützte Inhalte erkennen und blockieren sollen. Solche Filter werden heute bereits von einigen Plattformen angewendet, ohne dass eine gesetzliche Verpflichtung bestünde. Der bekannteste ist Content-ID von Youtube. Wer sicherstellen möchte, dass seine urheberrechtlich geschützten Werke nicht von Unbefugten über diese Plattformen verbreitet werden, kann Erkennungsinformationen (Fingerprints) zur Überprüfung an Youtube melden. Diese werden dann mit den Fingerprints der hochgeladenen Werke abgeglichen. In der Praxis wird aufwendig entwickelte, „intelligente“ Software verwendet, die mit neuronalen Netzen (deep learning) arbeitet, um Inhalte wiederzuerkennen. Die Verpflichtung zur Verwendung einer solchen Technologie bringt eine Vielzahl von Problemen mit sich: 1. Uploadfilter bedrohen Freiheitsrechte Automatische Filtersysteme können nicht entscheiden, wann eine Urheberrechtsverletzung vorliegt. Sie können nicht sicher beurteilen, ob ein Inhalt überhaupt ein menschliches Werk ist. So wurde bereits Katzenschnurren von Filtern als geschütztes Material blockiert. Parodien werden nicht als Weiterverarbeitungen erkannt und als Beifang blockiert. Gleiches gilt für erlaubte Zitate. Zwar statuiert Absatz 5, dass die Möglichkeiten der hochladenden Nutzer*innen zu Zitaten, Kritik, Rezensionen, Karikaturen, Parodien und Persiflagen erhalten bleiben sollen: „5.The cooperation between online content service providers and rightholders shall not result in the prevention of the availability of works or other subject matter uploaded by users which do not infringe copyright and related rights, including where such works or subject matter are covered by an exception or limitation. Member States shall ensure that users in all Member States(*)are able to rely on the following existing exceptions and limitations when uploading and making available content generated by users on online content sharing services: (a) quotation, criticism, review; (b) use for the purpose of caricature, parody or pastiche“ Technische Möglichkeiten, Urheberrechtsverletzungen zuversichtlich von solchen Werken abzugrenzen, existieren aber nicht. Julia Reda, Abgeordnete im Europäischen Parlament für die Piratenpartei, hat in ihrem Blog eine Sammlung fehlerhafter Filterungen zusammen gestellt. Beispielweise wurde ein Video einer urheberrechtlichen Vorlesung der Harvard Law School blockiert, in der legitimerweise zu Anschauungszwecken kurze Songausschnitte verwendet wurden. Gerade medienkritische Onlineformate arbeiten häufig mit entlarvenden Sendungsausschnitten, wie das Beispiel einer Montage des Blogs Kobuk zeigt. Solche Beiträge werden über Plattformen kaum noch zu verbreiten sein. Immer wieder werden rechtmäßig hochgeladene Aufnahmen von Musikstücken, deren Autoren schon mehr als 70 Jahre verstorben sind, – nach dieser Zeit erlischt das Urheberrecht – gesperrt. Dazu kann es kommen, wenn etwa ein Label eine bestimmte Aufnahme als urheberrechtlich geschützt gemeldet hat und der Uploadfilter nicht zwischen unterschiedlichen Aufnahmen desselben Musikstücks von verschiedenen Interpreten unterscheiden kann. Wie Martin Kretschmer, Professor für Urheberrecht an der Universität Glasgow erläutert, kann mit den Filtern auch der Upload von kompromittierenden Dokumenten, an denen ein öffentliches Interesse besteht, vom Urheber verhindert werden. Nun könnte man meinen, in Fällen, in denen der Filter einen Inhalt fehlerhaft blockiert, könnten die wahren Rechteinhaber sich rasch mit einer Beschwerde an die Plattformbetreiber wenden und ihren Inhalt ohne Verluste wieder sichtbar machen. Dieses Argument lässt aber die Logik viraler Verbreitung außer Acht, wie ein Fall der Organisation Pinkstinks, die sich gegen Sexismus und Homophobie einsetzt, deutlich macht: Sie hatten via Youtube das von ihnen gedrehte Video „Not Heidi‘s Girl“ verbreitet, das sich kritisch mit der Fernsehsendung Germany‘s Next Topmodel auseinandersetzt. Nachdem das Video bei RTL im Frühstücksfernsehen lief, legte RTL diese Ausstrahlung bei Youtube als urheberrechtlich geschütztes Material vor, woraufhin Youtube den ursprünglichen Clip von Pinkstinks – die ja die tatsächlichen Urheber*innen waren – wegen Urheberrechtsverletzung blockte. Zwar aktivierte Youtube das Video auf Beschwerde von Pinkstinks wieder – die 700 000 Klicks, die das Video zuvor aufwies und die es vielleicht ermöglicht hätten, ein Millionenpublikum zu erreichen, waren jedoch verloren. Eine Entschädigung für die durch RTLs missbräuchliche Meldung entgangene Aufmerksamkeit hat die Gruppe nicht erhalten. Während in diesem Fall die tatsächliche Urheberschaft nicht strittig war, kann es mitunter für die Uploader*in auch recht problematisch sein, der Plattform glaubhaft zu machen, dass sie zur Verbreitung eines Inhalts berechtigt ist. Meinungs-, Presse-, Kunst- und Informationsfreiheit sind dadurch stark bedroht: Da im Falle einer Urheberrechtsverletzung das Risiko einer Klage über den Plattformen schwebt, sie hingegen für den Fall, dass Inhalte fälschlich gelöscht werden, keine Konsequenzen zu befürchten haben, ist zu erwarten, dass es zu massivem Overblocking kommt. Das meint, dass die Plattformen aus Vorsicht deutlich mehr Inhalte blockieren als eigentlich nötig. Gerade kleinere Anbieter fürchten Rechtsstreitigkeiten und können es sich kaum leisten, es darauf ankommen zu lassen. 2. Artikel 13 schadet Wettbewerb und Datenschutz Die Einrichtung von Uploadfiltern ist technisch sehr anspruchsvoll. Youtube hat nach eigenen Angaben 100 Millionen US-Dollar in Content-ID, den leistungsfähigsten Uploadfilter der Welt, investiert. Kleinere und mittlere Plattformen können einen solchen Aufwand nicht betreiben und müssten diese Leistung wahrscheinlich von Youtube einkaufen. Das stärkt die Marktposition der ohnehin schon monopolähnlichen Plattformen weiter und stellt daher auch unter wettbewerbspolitischen Gesichtspunkten ein Problem dar. Viele Plattformen warnen derzeit davor, dass sie sich unter dem Regime von Artikel 13 gezwungen sähen, ihren Betrieb einzustellen, so etwa die Initiative Foren gegen Uploadfilter. Daraus folgt auch ein wesentliches Datenschutzproblem, auf das der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit, Ulrich Kelber, in einer Presssemitteilung hingewiesen hat: Würde eine Vielzahl von Plattformen die Inhaltsfilterung – so wie es heute schon bei Analysetools gehandhabt wird – an Oligopol-Konzerne auslagern, so würden auch all diese Werkinformationen, möglicherweise mit Daten, die Rückschlüsse auf die hochladende Person zulassen, dort konzentriert werden. Es könnte dann ein guter Teil des ganzen Internettraffics auch über diese Konzerne laufen. Die Beurteilung, wann eine Urheberrechtsverletzung vorliegt und wann nicht, sollte nicht von Privaten und schon gar nicht von Oligopolen getroffen werden. Auch wenn die Plattformen sich derzeit gegen diese Kontrollverpflichtung wehren, sollte nicht außer Acht gelassen werden, dass ihnen damit eine nicht unerhebliche Machtposition übertragen wird. Die Entscheidungen der Plattformen und der Algorithmen sind nur sehr schwer nachzuvollziehen. Eine demokratische oder juristische Kontrolle der Filter, etwa darauf hin, ob sie diskriminierende Wirkungen entfalten, ist kaum möglich. 3. […]
Mittagsbörse: DAX tendiert freundlich – Fresenius, FMC, Wirecard, RTL Group, MTU, ISRA Vision, Dialog Semiconductor, ElringKlinger im Blick
Die Hoffnung auf eine mögliche Einigung im Handelsstreit zwischen den USA und China sowie positiv aufgenommene Bilanzen von DAX-Schwergewichten sorgen heute für einen festeren DAX. Bereits in den Handel startete der deutsche Leitindex knapp 0,3% höher und kann dieses Plus bislang verteidigen. Aktuell liegt der DAX 0,35% im Plus bei Der Beitrag Mittagsbörse: DAX tendiert freundlich – Fresenius, FMC, Wirecard, RTL Group, MTU, ISRA Vision, Dialog Semiconductor, ElringKlinger im Blick erschien zuerst auf Kapitalmarktexperten.de.
Mittagsbörse: DAX etwas fester – Daimler, KION, RTL, ProSieben Media, Axel Springer, WPP, Aixtron, Siltronic im Blick
Mittagsbörse: DAX etwas fester – Daimler, KION, RTL, ProSieben Media, Axel Springer, WPP, Aixtron, Siltronic im Blick Nach den heftigen Kursverlusten der letzten Tage ging es für den DAX auch zum heutigen Handelsstart weiter kräftig abwärts, bei 11.082 Punkten wurde der tiefste Stand seit Ende 2016 markiert. Allerdings kehrten knapp über der 11.000er Marke wieder… Der Beitrag Mittagsbörse: DAX etwas fester – Daimler, KION, RTL, ProSieben Media, Axel Springer, WPP, Aixtron, Siltronic im Blick erschien zuerst auf Kapitalmarktexperten.de.
VERIMI und netID bringen sich in Stellung
Von Ralf Keuper Sieht ganz danach aus, als würden die Login-Allianzen in Deutschland Fahrt aufnehmen. Wie in Der Schlüssel fürs Netz berichtet wird, hat VERIMI mit der Deutschen Bahn und VW Financial Services zwei neue Partner mit Gewicht gewonnen. Fast zeitgleich gab die andere Login-Allianz in Deutschland, netID, bekannt, im Oktober an den Start zu gehen, wie in Deutsche Login-Plattformen gewinnen prominente Partner zu erfahren ist. Mit dabei sind u.a. 1&1, Pro Sieben, RTL, YES, die Süddeutsche Zeitung und der Otto Versand. […]