25 June 2018

Zensur durch Upload-Filter: Zur umstrittenen EU-Reform des Urheberrechts

Am 20. Juni 2018 hat der Rechtsausschuss des EU-Parlaments (JURI) für den Entwurf einer EU-Richtlinie über das Urheberrecht im digitalen Binnenmarkt gestimmt. Der Beschluss sorgt nicht nur in der EU für viel Aufruhr, denn damit gibt der Ausschuss grünes Licht für den Einsatz von sogenannten Upload-Filtern. Diese sind aufgrund ihres verdachtsunabhängigen und der Veröffentlichung vorgeschalteten Einsatzes höchst umstritten.

Art. 13 des Entwurfs sieht Maßnahmen vor, „um zu gewährleisten, dass die mit den Rechteinhabern geschlossenen Vereinbarungen, die die Nutzung ihrer Werke oder sonstigen Schutzgegenstände regeln, oder die die Zugänglichkeit der von den Rechteinhabern genannten Werke oder Schutzgegenstände über ihre Dienste untersagen, eingehalten werden“, bzw. konkreter: „Maßnahmen wie beispielsweise wirksame Inhaltserkennungstechniken“. Damit sind sogenannte Upload-Filter gemeint, die Inhalte algorithmisch filtern, bevor sie hochgeladen sind, und gegebenenfalls löschen, wenn der Filter eine eventuelle Verletzung von Urheberrechten erkennt. Die neue Richtlinie soll den Schutz geistigen Eigentums im Internet verbessern, wo Film- oder Musikdateien einfach kopiert, hochgeladen, weitergeleitet oder bearbeitet werden können, ohne dass die Zustimmung des Urhebers oder desjenigen, dem die Verwertungsrechte am Werk gehören, vorliegt. Plattformen wie YouTube, Soundcloud & Co sollen dann von Nutzern hochgeladene Inhalte nach Urheberrechtsverletzungen scannen. Finden sie illegales – also nicht freigegebenes – Audio-, Video- oder Bildmaterial, wird der Upload geblockt und womöglich gelöscht. Dies geschieht bereits durch Software, wie das von YouTube bekannte Content-ID-Verfahren, welches riesige Datenmengen analysiert, die im Sekundentakt hochgeladen werden und womöglich gegen die Rechte Dritter verstoßen. Bisher ist der Einsatz von solchen Verfahren eine private Maßnahme der Plattformen, keine gesetzliche Pflicht. Die gesetzliche Störerhaftung greift erst, wenn der Betreiber eines Portals nach dem Hinweis eines Rechteinhabers nicht alles technisch und wirtschaftlich Zumutbare unternimmt, um weitere Rechtsverletzungen im Hinblick auf das konkrete Werk zu verhindern. Dies funktioniert größtenteils nach dem Notice-and-take-down-Verfahren. Dabei wird der rechtsverletzende Inhalt gemeldet und erst im Anschluss, also erst nach der Veröffentlichung, gelöscht.

Upload-Filter hingegen setzen vor der Veröffentlichung an, also während der Inhalt noch im Pufferspeicher liegt. Durch sie wird der gesamte Inhalt, der von Nutzern als User-generated-Content auf die jeweilige Plattform hochgeladen wird, geleitet. Wird ein Rechtsverstoß gefunden, so wird der Inhalt nicht veröffentlicht (anders als bei Re-Upload-Filtern, bei denen der rechtswidrige Inhalt zunächst veröffentlicht und beim zweiten Versuch, ihn hochzuladen, vorab gefiltert wird). Verfassungsrechtlich ist der Entwurf in mehreren Aspekten fragwürdig, insbesondere aber mit Blick auf die Meinungs- und Informationsfreiheit der Bürgerinnen und Bürger: Da das Internet als allgemein zugängliche Quelle eingestuft wird, berührt ein Eingriff das Recht auf Zugang zu Informationen, welche geeignet und bestimmt sind, der Allgemeinheit Informationen zu verschaffen (BVerfGE 103, 44, 60). Ob der freiwillige Einsatz von Upload-Filtern durch IT-Unternehmen als Eingriff in den Schutzbereich von Art. 5 Abs. 1 S. 1 GG gewertet werden kann, bleibt noch abzuwarten. Im Hinblick auf Upload-Filter zur Filterung von Terrorpropaganda im Rahmen der EU-Database of Hashes, stellt sich derzeit die Frage, ab wann ein Handeln des Staates als mittelbarer Eingriff in die Grundrechte gewertet werden kann, wenn die Umsetzung durch Private erfolgt. In der Literatur sprechen sich manche für einen moderneren Eingriffsbegriff aus, der auch solches Verhalten des Privaten umfasst, welches dem Staat aufgrund seiner Intention zugerechnet werden kann – selbst wenn das Verhalten nicht auf einem regulatorischen Rahmen beruht. Sollte es zur gesetzlichen Umsetzung einer Filterpflicht kommen, sind die Voraussetzungen für einen Eingriff in die Informationsfreiheit aber in jedem Fall erfüllt.

Bei Upload-Filtern steht zudem ein Verstoß gegen das Zensurverbot aus Art. 5 Abs. 1 S. 3 GG im Raum. Auch hier ist die Bewertung des Einflusses der öffentlichen Gewalt maßgeblich, weil der klassische Zensurbegriff nur die Vorzensur umfasst, also die Verpflichtung, vor Herstellung oder Verbreitung eines Mediums dieses einer staatlichen Stelle zur Genehmigung der Veröffentlichung vorzulegen (BVerfGE 47, 198, 236; 87, 209, 230). Die Erweiterung auf private Akteure ist umstritten und wird grundsätzlich abgelehnt. Auch hier ist ein Umdenken angezeigt, denn die digitalen Kommunikationsräume sind überwiegend in privater Hand und der Upload-Filter setzt genau an der Stelle an, die unter den Zensurbegriff fällt: die Äußerung wird vor der Veröffentlichung einer Prüfung unterzogen und beim Vorliegen eines bestimmten Inhalts verboten. Ob es noch zeitgemäß ist, dass Adressaten des Zensurverbots nur staatliche Stellen sein können, ist im Hinblick auf die Gewährleistung der Meinungs- und Informationsfreiheit im Internet und auf den Schutzzweck des Zensurverbots daher zu hinterfragen. Das Zensurverbot soll den Prozess der freien Meinungs- und Willensbildung schützen und sollte als Schranken-Schranke hier unbedingt beachtet werden.

Hinzukommt, dass sich der EuGH in den Vorlageentscheidungen Scarlet/SABAM und SABAM/Netlog bereits deutlich gegen solche Mechanismen wie Upload-Filter ausgesprochen hat. In SABAM/Netlog befand der EuGH die „Einrichtung eines Systems zur Filterung dieser Informationen, um die urheberrechtsverletzende Zurverfügungstellung von Dateien zu verhindern“, für rechtswidrig, weil die Anordnung, ein Filtersystem einzurichten, nicht nur zu einer „qualifizierten Beeinträchtigung der unternehmerischen Freiheit des Hosting-Anbieters“ führe, sondern die nach „Art. 8 und 11 der Charta geschützten Rechte auf den Schutz personenbezogener Daten und auf freien Empfang oder freie Sendung von Informationen“ beeinträchtige. Das Gericht erkannte sehr genau die Gefahr für die Informationsfreiheit (s. Rn 50), unter anderem weil die Technik noch nicht den Unterschied zwischen zulässigem und unzulässigem Inhalt erkennen und es deswegen zur Sperrung von zulässigem Content kommen kann. Das massenhafte Scannen von Online-Content ohne konkreten Verdacht auf der Suche nach möglichen Urheberrechtsverstößen ist nach EuGH-Rechtsprechung definitiv rechtswidrig.

Wie Art. 13 des Entwurfs, sollte er in der vorliegenden Form verabschiedet werden, in Deutschland umgesetzt wird, ist noch unklar. Die GroKo hat sich im Koalitionsvertrag gegen Upload-Filter ausgesprochen: „Eine Verpflichtung von Plattformen zum Einsatz von Upload-Filtern, um von Nutzern hochgeladene Inhalte nach Urheberrechtsverletzungen zu „filtern“, lehnen wir als unverhältnismäßig ab.“ Auch der Entwurf der Richtlinie sieht in den Erwägungsgründen vor: „ The measures taken by the online content sharing service providers should be without prejudice to the application of exceptions and limitations to copyright, including in particular those which guarantee the freedom of expression of users “ (Rn 39b, S. 35). Es muss verhindert werden, dass die Informationsfreiheit durch einen verdachtsunabhängigen Filteralgorithmus beeinträchtigt wird. Es bedarf daher einer adäquaten verfassungsrechtlichen Einordnung der eingesetzten Technologien, die der heutigen Stellung von Intermediären im Meinungsbildungsprozess entspricht: als unumgehbare Verbindung zwischen Inhalten und Rezipient. Soweit Intermediäre zu einzelanlassunabhängigen Kontrollen und Sperrungen entsprechender Inhalte des Internets verpflichtet werden, kommen solche (mittelbaren) Eingriffe in die Meinungs- und Informationsfreiheit der Nutzer einer Zensur gleich und sind verfassungswidrig.


SUGGESTED CITATION  Heldt, Amélie: Zensur durch Upload-Filter: Zur umstrittenen EU-Reform des Urheberrechts, VerfBlog, 2018/6/25, https://healthyhabit.life/zensur-durch-upload-filter-zur-umstrittenen-eu-reform-des-urheberrechts/, DOI: 10.17176/20180625-181223-0.

10 Comments

  1. scientia Tue 26 Jun 2018 at 14:07 - Reply

    Leider adressiert der Beitrag eine veraltete Entwurfsfassung des Artikels 13 aus Kommissionsentwurf von 2016, die nicht Gegenstand der Abstimmung im Rechtsausschuss des EP am 20.6.18 war.

    Weder das Verhandlungsmandat des Rates vom 25.5.18 (https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CONSIL:ST_9134_2018_INIT&from=EN) noch der wohl vom Rechtsausschuss verabschiedete Text (https://www.politico.eu/wp-content/uploads/2018/06/V8-Voss-copyright-amendments.pdf) (falls es eine noch aktuellere Fassung gibt, bitte posten!) sprechen noch ausdrücklich von “Content recognition technologies”. Insbesondere geht Recital 39 Unterabsatz 2 in der Fassung des Rechtsausschusses auf diese Frage ein und sieht ziemlich eindeutig gerade keine allgemeine Überwachungspflicht, stattdessen aber eine einzelfallbasierte, spezifische Pflicht auf Grundlage einer Beschwerde (“specific and duly notified works”) vor, geschützte Werke nicht verfügbar zu machen. Das Risiko, dass damit letztlich doch noch die sog. Uploadfilter erzwungen werden, ist damit natürlich nicht aus der Welt; es stellt sich aber auf dieser Grundlage nun einmal anders, und zwar in geringerem Maße dar, als noch im Kommissionsentwurf. Das Verhandlungsmandat des Rates lässt ein solches Risiko noch weniger zu, dessen Ansatz m.E. auf ein seiner Art nach durchaus geläufiges, abgestuftes Haftungssystem hinausläuft, das eine Privilegierung an bestimmte Voraussetzungen knüpft.

    Damit ist natürlich noch nicht gesagt, dass die finale Regelung keinerlei Risiken bergen wird, wie sie im Beitrag skizziert werden. Die zuletzt kursierenden Entwürfe stellen jedoch eine weitgehende Konzession an die Kritik gegenüber dem Kommissionsentwurf von 2016 dar. Es wäre wünschenswert, wenn das in der aktuellen Debatte klar würde, damit man zumindest weiß, worüber man spricht.

  2. Seb Mon 2 Jul 2018 at 23:17 - Reply
  3. Seb Mon 2 Jul 2018 at 23:18 - Reply
  4. Andrea Koeth Thu 14 Feb 2019 at 22:58 - Reply

    @ all

    Keine Panik! Der Artikel 13 ist per EUGH gestoppt! Klage rollt!!

    https://fm4.orf.at/stories/2959642/

    [bitte keine kompletten Artikel von fremden Autoren hier in der Kommentarspalte posten! Wir werden abgemahnt, das kann teuer werden. D.Red.]

  5. Andrea Koeth Thu 14 Feb 2019 at 23:02 - Reply

    @ all

    Außerdem geht es dabei ueberhaupt NICHT um bessere Bezahlung oder sowas. Nein, es geht in Wahrheit um dass hier:

    https://fm4.orf.at/stories/2896057/

  6. Andrea Koeth Thu 14 Feb 2019 at 23:04 - Reply

    @ all

    Zusätzlich an alle: streicht euch en 23.Märzt 2019 dick rot im Kalender an und kommt alle zur Giga-Demo!!

    https://netzpolitik.org/2019/uploadfilter-jetzt-hilft-nur-noch-protest-auf-der-strasse/

  7. Andrea Thu 6 Jun 2019 at 11:59 - Reply

    Leutz,
    keine Angst mehr vor dieser verpfuschten Reform. Warum?? Weil dieses Ding vor dem EUGH einen leise wimmernden Tod stirbt! Ja, Nichtigkeitsklage ist raus!!

    https://www.golem.de/news/uploadfilter-polen-klagt-gegen-eu-urheberrecht-1905-141498.html

    und hier:

    https://www.wbs-law.de/urheberrecht/klage-gegen-eu-urheberrechtsreform-polen-zieht-vor-den-eugh-80339/

    Und damit ist dieses Ding nämlich schon ab Inkrafttreten tot!! Dieses Ding hat KEINRLEI Wirkung!! Aus, vorbei fuer diese verpfuschte Reform, bei der wir User um unsere Mehrheit bei den Änderungsanträgen betrogen wurden:

    https://www.tagesschau.de/ausland/abstimmung-urheberrecht-europaparlament-101.html

    [gelöscht. Erneut: bitte keine kompletten Artikel als Kommentar posten, das kann uns große rechtliche Probleme bereiten! Wir erwarten von Kommentatoren, sich an das geltende Urheberrecht zu halten. Wenn das noch mal vorkommt, sperren wir Sie als Kommentatorin. D.Red.]
    __________________________________________

    Tja und mit dieser Nichtigkeitsklage bleibt dieses Ergebnis eben NICHT und damit ist diese Reform TOT!!

  8. Andrea Thu 6 Jun 2019 at 12:18 - Reply

Leave A Comment

WRITE A COMMENT

1. We welcome your comments but you do so as our guest. Please note that we will exercise our property rights to make sure that Verfassungsblog remains a safe and attractive place for everyone. Your comment will not appear immediately but will be moderated by us. Just as with posts, we make a choice. That means not all submitted comments will be published.

2. We expect comments to be matter-of-fact, on-topic and free of sarcasm, innuendo and ad personam arguments.

3. Racist, sexist and otherwise discriminatory comments will not be published.

4. Comments under pseudonym are allowed but a valid email address is obligatory. The use of more than one pseudonym is not allowed.




Explore posts related to this:
Copyright, EU, Informationsfreiheit, Upload-Filter


Other posts about this region:
Deutschland, Europa