Zensurmaschine

Gastbeitrag | von Thomas Elbel

Warum die Copyright-Richtlinie keine Zensur einführt, die Meinungsfreiheit nicht zerstört und auch sonst mit dem Grundgesetz im Einklang ist.

Der Professor für Öffentliches Recht und Schriftsteller Thomas Elbel über die verfassungsrechtlichen Implikationen des heiß umkämpften Artikels 13 im Gesamtkontext der EU-Urheberrechtsrichtlinie.

Thomas Elbel
Thomas Elbel. Foto: Harry Schnitger

Der Vorwurf der ZENSUR

Überall heißt es, die Copyright-Richtlinie führe zu Zensurmaschinen. Jetzt steht natürlich jedem sein eigener Zensurbegriff frei, aber die Bezeichnung macht nach meinem Verständnis nur dann Sinn, wenn sie zu Recht auf den verfassungsrechtlichen Zensurbegriff des Art. 5 Abs. 1 S. 3 des Grundgesetzes gründet. Schon Internet-Doyen Sascha Lobo hat in einer Kolumne auf SPON vom 2.1.19 („Blocken in sozialen Medien ist Freiheit, keine Zensur“) darauf hingewiesen, dass eine Überdehnung des Zensurbegriffes unsinnig ist. Er wird dadurch am Ende zu einer sinnfreien Leerformel, der keine Bezeichnungsmacht mehr zukommt. Die Uploadfilter, von denen in der Debatte um die Copyright-Richtlinie die Rede ist, sind aber aus zwei Gründen niemals Zensur.

Ich will jetzt gar nicht davon anfangen, dass der umstrittene Art. 13 der Copyright-Richtlinie Filter gar nicht zwingend vorschreibt. Der Hase liegt nämlich woanders im Pfeffer. Das vergleichsweise schwächere Argument wäre zunächst einmal, dass wenn ein solcher Filter z.B. von YouTube (soll jetzt mal stellvertretend für die betroffenen Plattformen stehen) eingerichtet würde, dieser ja ein privates Instrument wäre.

Der verfassungsrechtliche Zensurbegriff erfasst aber nur staatliche Eingriffe in den Meinungsmarkt.

Wäre auch ein privater Eingriff Zensur, wäre ja jede Ausübung der Richtlinienkompetenz eines Zeitungsverlegers ein Fall von Zensur.

Man könnte natürlich insoweit gegenargumentieren, dass die Filter hier indirekt vom Staat vorgegeben wären, jedenfalls wenn man in der Richtlinie eine entsprechende Verpflichtung mittelbar erkennen will, aber selbst dann fehlt für Zensur noch ein weiterer wichtiger Aspekt, nämlich die Gezieltheit des Eingriffs. Zensur im Sinne des Grundgesetzes ist nämlich nicht jeder beliebige staatliche Eingriff in den Meinungsaustausch, sondern nur ein solcher, der gezielt in einen bestimmten Teil des Meinungsspektrums eingreift, z.B. ein Verbot aller Gegenäußerungen zur Copyright-Richtlinie. Ein unterschiedsloser Eingriff in alle Meinungen aber, egal ob nun links, rechts, liberal oder was auch immer, ist keine Zensur. Diese Interpretation des Zensurbegriffes ergibt sich aus der Zusammenschau des Art. 5 Abs. 1 S. 3 GG mit Abs. 2 derselben Vorschrift, wo es heißt, dass die Rechte aus Abs. 1 unter der Schranke der „allgemeinen Gesetze“ stehen. Der Staat darf also durchaus in die Meinungsfreiheit eingreifen, so lange der Eingriff lediglich „allgemein“ oder im Sinne meiner vorangegangenen Begriffsbildung „ungezielt“ ist.

Diese Auslegung des Zensurbegriffs ergibt sich z.B. aus folgendem Zitat aus einem Urteil des Bundesverfassungsgerichts:

„Unzutreffend ist die Annahme des Beschwerdeführers, das Verbot der Verbreitung komme einer Vorzensur gleich. Art. 5 GG, der das Zensurverbot aus Absatz 1 Satz 3 neben die Schrankenbestimmung des Absatzes 2 stellt, verdeutlicht schon durch dieses Nebeneinander, dass das Zensurverbot nicht betroffen ist, wenn zur Durchsetzung eines in einem allgemeinen Gesetz geschützten Rechtsguts die dort vorgesehenen Rechtsschutzmöglichkeiten genutzt werden. Eine auf die Unterlassung einer konkreten Persönlichkeitsverletzung zielende gerichtliche Entscheidung steht der behördlichen Vorprüfung oder Genehmigung des Inhalts einer Veröffentlichung nicht gleich (zum Zensurverbot vgl. BVerfGE 33, 52 <71 ff.>).“; aus: https://www.bundesverfassungsgericht.de/SharedDocs/Entscheidungen/DE/2006/05/rk20060502_1bvr050701.html

Uploadfilter können also in diesem Sinne auch deswegen keine Zensur sein, da sie unterschiedslos das gesamte Meinungsspektrum betreffen.

Trotzdem findet sich das besagte Mem von den Uploadfiltern als Zensurmaschinen in gefühlt jedem zweiten kritischen Beitrag zur Copyright-Richtlinie, so z.B. auch in einem Beitrag vom 28.2.19 auf dem Blog des von urheberrechtskritischen Stimmen seit Jahren immer wieder gern zitierten Münchner Anwalts Thomas Stadler. Der sehr stimmgewaltige Herr Stadler wird einem ob seiner vielfachen Äußerungen zu allen möglichen Themen des Medienrechts darum auch immer wieder gerne als Experte präsentiert. Leider scheint der Gedanke weniger populär, dass derartige Anwaltsblogs ja in erster Linie auch Werbeplattformen sind, die sich inhaltlich primär an die jeweilige Mandantschaft richten. Schaut man sich die Tätigkeitsschwerpunkte von Herrn Stadler auf dessen Anwaltswebsite an, so fällt auf, dass er vornehmlich um Mandantschaft wirbt, die aus medienrechtlichen Vorschriften in Haftung genommen wird. Es ist nicht weiter verwunderlich, wenn er in seinen öffentlichen Äußerungen diesem Klientel sympathische Positionen einnimmt. Da müsste man doch derartige Äußerungen eigentlich mit einem Körnchen Salz nehmen. Aber in der öffentlichen Debatte wirkt es mitunter, als ob Herr Stadler, oder sein auch sehr gern zitierter Kollege Solmecke in ihren Blogs quasi neutrale und wissenschaftlich fundierte Fachartikel zum Besten geben.

Der Vorwurf der EINSCHRÄNKUNG DER MEINUNGSFREIHEIT

Aber das ist nicht der einzige Behauptungsfehler der Richtliniengegner. Ein weiteres Beispiel: Eine der Kernaussagen der Gegnerschaft von Art. 13 ist ja sinngemäß: Uploadfilter führen zu einer unverhältnismäßigen Einschränkung der Meinungsfreiheit, weil sie eine immense Anzahl so genannter „False Positives“ produzieren werden. Denn eine KI kann z.B. nicht erkennen, dass statt einer Urheberrechtsverletzung nur eine gesetzlich erlaubte Parodie oder ein Zitat vorliegt (letzteres hat mich übrigens nie überzeugt; warum sollte eine KI nicht den Unterschied zwischen Original und Teilmenge des Originals erkennen, aber wie auch immer).

Was mich an dieser Behauptung stört ist, dass sie aus einer Kette von Axiomen, also beleglosen Tatsachenbehauptungen („KI kann nicht erkennen, dass …“) und ebenso beleglosen oder letztlich sinnfreien, weil referenzlosen Bewertungen („immense Anzahl von False Positives“) zusammengesetzt ist.

Ich möchte etwas näher ausführen, wie ich das meine. Dazu möchte ich so tun, als sei Art. 13 bereits erlassen und findige Gegner versuchten nun, der Vorschrift auf dem Rechtsweg den Garaus zu machen, denn das ist ja auch kein völlig unrealistisches Szenario. Ich hoffe, die geneigten Leserinnen und Leser interpretieren es nicht allzu sehr als berufliche Eitelkeit, wenn ich behaupte, dass eine derartige juristische Betrachtungsweise hilft, der obigen Behauptung den Nebel auszutreiben. Dazu beginne ich mit einem Beispielssachverhalt:

Der deutsche Staatsbürger Ulrich Uploader (U) lädt die berühmte Würgeszene mit Darth Vader und Moff Tarkin aus Star Wars IV auf YouTube hoch. Der Szene ist eine für eine halbe Sekunde sichtbare Tafel mit dem Text „Groko-Kabinett-Besprechung“ vorgeschaltet. U will das als Kritik an der momentanen Regierung und ihrer Liebe zu „imperialer Politik“ verstanden wissen.

Unterstellen wir für Zwecke des Falles mal, dass der Filmrechteinhaber der betreffenden Szene ein europäisches Unternehmen wäre. Dieses Unternehmen hat YouTube keine Lizenz zum Zeigen des Films oder von Ausschnitten davon gegeben. Selbstverständlich sind alle bekannten Schranken des deutschen Urheberrechts (Zitat, Parodie etc.) anwendbar. YouTube hat sich entschieden, das Problem des Hochladens nichtlizenzierter Filme – wie jeher – durch sein Filtersystem ContentID zu lösen, das seit Einführung des Art. 13 flächendeckend eingesetzt wird.

ContentID identifiziert das von U hochgeladene Video trotz der vorgeschalteten Texttafel als schlichten Filmausschnitt und löscht ihn daher noch vor Abschluss des Hochladevorgangs.

U beschwert sich bei YouTube über das von der Richtlinie vorgesehene Beschwerdeverfahren (Art. 13 Abs. 8 des aktuellen Entwurfes). Würde YouTube dem nun stattgeben und den Content hochladen, wäre der Fall hier bereits zu Ende, da U ja bekommen hätte, was er will. Gehen wir also davon aus, dass YouTube – im Rahmen der Nachkontrolle, die nunmehr logischerweise von einem echten Menschen durchgeführt wird – nicht abhilft, weil man dort der Meinung ist, die Szene stelle allein aufgrund der vorgeschalteten Tafel keine Parodie im Sinne der auf U anwendbaren deutschen Schrankenbestimmungen und ihrer europäischen Ausgangsnormen dar.

Was kann U jetzt noch machen?
Richtig. Klagen

Erster Teil: Rechtsstreit U vs. YouTube – 1. Instanz

Es stellt sich die Frage: Wo würde U eigentlich klagen? Da es sich hier im Kern um einen Rechtsstreit über die Reichweite einer deutschen Urheberrechtsschrankenbestimmung – also Zivilrecht – handelt, und beide Parteien, YouTube und U sich auf Augenhöhe begegnen, mithin der Verwaltungsrechtsweg nicht eröffnet ist, geht der Rechtsstreit zur ordentlichen Gerichtsbarkeit. Meinen eigenen Recherchen zufolge ist in so einem Fall eine Überschreitung der Streitwertgrenzen für einen Rechtsstreit beim Landgericht durchaus denkbar. Gehen wir also mal davon aus, die 1. Instanz findet vor der Zivilkammer eines deutschen Landgerichts statt. Gewinnt U, ist der Rechtsstreit wiederum zu Ende, da er bekommen hat, was er will. YouTube müsste den Clip dann hochladen. Also gehen wir davon aus, dass das Landgericht YouTubes Argumentation aus dem Beschwerdeverfahren folgt und den Clip als von den deutschen Schrankenbestimmung nicht erfasst ansieht.

Zweiter Teil: Berufung

Genauso geht es dann vor dem Oberlandesgericht weiter.

Dritter Teil: Revision

Und schließlich – wenn die Revision zugelassen wird (was ich angesichts der Tatsache, dass Streits um die Reichweite urheberrechtlicher Schrankenbestimmungen heutzutage wohl kaum grundsätzliche Bedeutung haben dürften, allerdings für eher unwahrscheinlich halte) – auch vor dem BGH, der sich dann, damit es mit unserer Betrachtung weitergehen kann, ebenfalls YouTubes Sicht anschließt, es handele sich nicht um eine Parodie.

Sodele.

Und jetzt käme (jedenfalls in Abwesenheit einer auch von den Untergerichten initiierbaren so genannten konkreten Normenkontrolle i.S.v. Art. 100 GG) überhaupt erst und auch nur eventuell das BVerfG ins Spiel. Nämlich dann, wenn der U – seinen Misserfolg bis hierhin unterstellt – Verfassungsbeschwerde gegen das Urteil des BGH erhebt.

Nun muss man allerdings wissen, dass das BVerfG – anders als z.B. der US Supreme Court – keine „Superrevisionsinstanz“ ist. D.h. es würde sicher nicht nur deshalb tätig, weil z.B. der BGH bei der Auslegung der urheberrechtlichen Schrankenbestimmung etwas zu engstirnig war.

Ich halte es daher für wahrscheinlich, dass das BVerfG eine derartige Beschwerde gar nicht erst zur Entscheidung annehmen würde.

Aber unterstellen wir aber mal „for the sake of the argument“, das BVerfG würde den Rechtsstreit zur Überprüfung annehmen. Dann wäre Prozessstoff aber wiederum nur die Frage der Weite der urheberrechtlichen Schrankenbestimmung zur Parodie und ob YouTube in diesem Sinne zur Löschung berechtigt war oder nicht.

Die Richtlinie würde in diesem Rechtsstreit also gar keine direkte Rolle spielen. Sie könnte daher m.E. auch nicht Gegenstand der verfassungsgerichtlichen Überprüfung sein.

Und selbst wenn sie das wäre und U sich irgendwie – ich weiß nicht wie, aber unterstellen wir einfach, es ginge – darauf beriefe, dass der Einsatz der Filter durch YouTube in seinem Fall sein Grundrecht auf Meinungsfreiheit verletzt. Was wäre denn dann?

Nun dann würde zuerst mal die Frage im Raum stehen, ob die Meinungsfreiheit im Verhältnis zwischen U und YouTube überhaupt Anwendung findet, denn die Grundrechte unserer Verfassung binden laut Art. 1 Abs. 3 Grundgesetz primär nur den deutschen Staat und nicht irgendwelche amerikanischen Unternehmen.

Etwas anderes könnte höchstens gelten, wenn wir der Lehre des BVerfG von der Einstrahlungswirkung der Grundrechte in privatrechtliche Rechtsverhältnisse folgen und die Frage stellen, welche Auswirkung die Meinungsfreiheit auf die Entscheidung YouTubes hätte, Uploadfilter zum Einsatz zu bringen. Und damit wir jetzt irgendwie – ich weiß nicht genau wie – zur Frage der Verfassungsmäßigkeit der Richtlinie kommen, um die es den Art.-13-Gegnern ja eigentlich geht, nehme ich an, müsste YouTube nun die recht gewagte Argumentation aufmachen, dass die Richtlinie YouTube zur Anwendung von Uploadfiltern quasi zwingt.

Darauf würde ich als Verfassungsrichter fragen, wo denn in der besagten Richtlinie irgendetwas von Uploadfiltern steht. YouTube würde kurz rot anlaufen und dann irgendetwas von ökonomisch einzig handhabbarer Lösung faseln. Der Verfassungsrichter würde dem dann aber möglicherweise entgegenhalten, dass ein Unternehmen mit geschätzten 8 Milliarden Werbeeinnahmen im Jahre 2019 das Problem der Filterung doch eventuell auch mit einer Kombination aus künstlicher UND humanoider Intelligenz lösen könne. Der YouTube-Anwalt würde sich nun mächtig aufplustern und geltend machen, dass man da ja angesichts von 400h Uploads pro Minute ganze Armeen von Personal anstellen müsste. Die Richter würden wiederum einwenden, die Tatsache, dass stattdessen eine rein automatisierte Filterung angewandt werden solle, sei ökonomisch sicherlich nachvollziehbar, aber letztendlich eben doch eine autonome Entscheidung des Konzerns und könne nicht dem Gesetzgeber angelastet werden, was man ja auch daran sehe, dass ContentID auch schon vor Erlass der Richtlinie angewandt wurde. Gewinnschmälerungen, die wiederum durch eine grundrechtsfreundlichere Variante verursacht würden, müssten vom Konzern dann eben hingenommen werden. Außerdem, so würde ein besonders findiger Verfassungsrichter einwenden, sei es ja kein Naturgesetz, dass Youtube-Postings immer schon wenige Augenblicke nach dem Upload veröffentlicht sein müssten. Eine gewisse Wartezeit sei aus Sicht der User sicherlich auch vor dem Hintergrund der Meinungsfreiheit hinnehmbar. Wer einen papiernen Leserbrief an die Zeitung schreibe, müsse ja auch damit rechnen, dass dieser erst ein paar Tage später veröffentlicht werde. Manchmal sei eine gewisse Entschleunigung in einer Debatte ja vielleicht sogar qualitätsfördernd, würde der Richter mit süffisantem Lächeln hinzufügen.

Was es abzuwägen gilt

Warum dieser detaillierte Ausblick des Verlaufs der Klage eines Bürgers gegen eine von ihm behauptete False-Positive-Löschung? Um zu demonstrieren, dass der Streitstoff hier nicht die platte Frage „Uploadfilter, ja oder nein“ sein wird, sondern eher die Frage, ob YouTube den beiden Vorgaben der Richtlinie „best efforts“ gegenüber den Rechteinhabern und „Verhältnismäßigkeit“ gegenüber den Nutzern gerecht geworden ist. Dabei spielen YouTubes ökonomische Erwägungen m.E. nur eine untergeordnete Rolle, denn es kann von einem Unternehmen erwartet werden, dass es jeden erdenklichen Aufwand auf sich nimmt, wenn es darum geht zu gewährleisten, dass sein Geschäftsmodell die Rechte Dritter nicht verletzt.

Alte Bekannte: Von Störern und Tätern

An dieser Stelle ist vielleicht ein kleiner Exkurs ganz passend: Haben Sie, liebe Leser, im Zusammenhang mit der Urheberrechtsdebatte auch schon den Begriff der Störerhaftung gehört und sich gefragt, was damit gemeint ist? Vor zwei bis drei Jahren war damit im Zusammenhang mit der Haftung von privaten Betreibern offener W-LANs viel die Rede. Damals hieß es oft, den armen W-LAN-Betreibern solle etwas völlig Exotisches übergeholfen werden. Ich als Jurist habe mir da nur die Augen gerieben, denn die Störerhaftung ist im deutschen Zivilrecht eigentlich der Default. Auf ihren abstrakten Kern zurückgeführt, bedeutet Störerhaftung, dass ich Ihnen dafür hafte, wenn mein Eigentum schädlich auf Ihr Eigentum einwirkt. Wenn also meine Brieftaubenzucht dazu führt, dass ihre Hauszufahrt immer voller Taubenkot ist, hafte ich ihnen auf Entfernung.

Störerhaftung erfasst darüber hinaus aber auch noch den Fall, dass mein Eigentum so konfiguriert ist, dass es Dritten die Möglichkeit gibt, schädlich auf Ihr Eigentum einzuwirken. In diesem Fall hafte ich – etwas vergröbert ausgedrückt – dann, wenn ich (a) davon weiß, (b) nicht gegen die Dritten einschreite und wenn (c) eine direkte Inanspruchnahme der Dritten durch Sie nicht erfolgversprechend ist. Beispiel: Ich veranstalte in meiner Schreberlaube regelmäßig Partys, bei denen meine Gäste den Müll auch in ihren angrenzenden Garten entsorgen. Ihre Tulpenzucht leidet massiv. Auf entsprechenden Hinweis von Ihnen gebe ich zu Protokoll, dass Partys nun mal zum Leben dazu gehören. Außerdem bin ich aus Datenschutzgründen nicht bereit, Ihnen die Namen meiner Gäste zu verraten. In solch einem Fall hätten Sie gute Chancen, sich die Instandsetzungskosten bei mir gerichtlich zu erklagen.
Zurück zu YouTube und den anderen UGC-Plattformen: Im Sinne des Konstrukts der Störerhaftung müsste YouTube eigentlich sowieso für die Rechtsverletzungen haften, die die Nutzer vermittelst der Plattform an den Urheberrechten Dritter verursachen. Dass dem heute nicht so ist, liegt daran, dass YouTube durch das so genannte Providerprivileg des § 10 TMG von der Störerhaftung ausgenommen ist. Das muss man sich für die Zwecke der aktuellen Debatte mal deutlich vor Augen führen: Die Störerhaftung ist der Default, das Providerprivileg die Ausnahme.

Wie kam es eigentlich dazu? Weil in den 90er-Jahren eine gewisse gelb-blaue Partei der ultimativen Freiheit mit an der Regierung war. Diese hat damals das Argument geäußert, dass sich, wenn für die Netzwirtschaft dasselbe Haftungsregime gälte wie für Otto Normalverbraucher, das noch junge Internet nie mit Angeboten bevölkern würde. Heute wissen wir, dass das Internet bis an die Halskrause „bevölkert“ ist, aber Bitkom, Eco und wie sie alle heißen, krallen sich – aus ökonomischer Perspektive völlig verständlich – an ihrem Privileg fest. Die Copyright-Richtlinie ist insoweit auch ein Versuch, den Normalzustand der Haftung wieder herzustellen. Man könnte polemisch ausgedrückt konstatieren, dass die Urheber auf Grundlage der derzeit noch geltende Privilegierung die offensichtlich in eternam perpetuierte Startup-Phase der großen Internetplattformen mitfinanzieren.

Aber zurück zu den prozessualen Möglichkeiten, die Copyright-Richtlinie überprüfen zu lassen:

Nun kann man sich fragen, wie man denn dann zu einer Direktüberprüfung der (in der Richtlinie eigentlich gar nicht statuierten) Uploadfilter-„Pflicht“ durch die Verfassungsbeschwerde eines Einzelnen kommen würde, wenn es auf dem bereits beschriebenen Weg nicht so richtig klappt?
Die Antwort wäre: indem der WIRKLICHE Direktbetroffene gegen die Richtlinie klagt und das wäre im Ausgangsfall eben nicht U, sondern YouTube (oder eine andere betroffene Plattform).

Überprüfung der RL, Option a: Klage der Plattform

Jetzt könnte man gleich die Frage stellen, wogegen YouTube denn klagen würde, weil es in dem Ausgangsfall selbst ja gar nicht beschwert wäre und das deutsche Recht kennt keine Popularklage, wo man quasi gegen anderer Leute Elend zu Felde zieht. Eine Klage YouTube vs. Copyright-Richtlinie wäre daher nur dann denkbar, wenn YouTube z.B. gegen eine sanktionsbewehrte Pflichtnorm aus dem deutschen Umsetzungsgesetz verstoßen würde.
Beispiel: YouTube verweigert sich sowohl der Lizenzierung als auch irgendwelcher Form der vorauseilenden oder nachträglichen Löschung nichtlizenzierter Inhalte und wird daher mit einer Ordnungswidrigkeitenstrafe belegt.

Dann könnte YouTube gegen den betreffenden Verwaltungsakt erst mal Beschwerde vor den ordentlichen Gerichten (in diesem Fall Strafgerichtsbarkeit) erheben und bei Nichterfolg dann damit vor das Verfassungsgericht ziehen.

In diesem Fall wäre es in der Tat denkbar, dass das Verfassungsgericht die Pflichten von YouTube unter dem deutschen Umsetzungsgesetz zur Richtlinie beleuchtet. Allerdings geht es dann auf YouTubes Seite vorrangig gar nicht mehr um das Grundrecht auf Meinungsfreiheit, sondern – wie auch auf Urheberseite – um die Grundrechte der Berufsfreiheit und der Eigentumsfreiheit (bzw. noch genauer das Grundrecht am eingerichteten und ausgeübten Gewerbebetrieb). Denn YouTube versteht sich ja bekanntlich ausschließlich als „Plattform“. D.h. YouTube möchte sich den Inhalt hochgeladener Clips auf gar keinen Fall zu eigen machen und würde sich in dem beschriebenen Fall daher sicherlich nie auf die Meinungsfreiheit berufen. Noch weniger könnte YouTube eine Beschränkung der Meinungsfreiheit seiner Nutzer geltend machen, denn das wäre wiederum ein Fall der oben beschriebenen und in Deutschland nicht vorgesehenen Popularklage (s.o.).

Auch auf diesem Wege kommt man also nicht zu dem Ziel einer Überprüfung von Art. 13 Abs. 4 der Copyright-Richtlinie („ensure the unavailability“) im Lichte des Grundrechts der Meinungsfreiheit.

Überprüfung der RL, Option b: Normenkontrollklage

Eine weitere realistische Möglichkeit wäre eine so genannte abstrakte Normenkontrollklage, die z.B. von der Opposition erhoben werden könnte. Argumente für eine Verfassungswidrigkeit der Richtlinie bzw. des deutschen Umsetzungsgesetzes müsste nach den schon auf das römische Recht zurückgehenden Regeln des streitigen Parteienprozesses in diesem Fall allerdings zuerst einmal der Antragsteller und nicht die verteidigende Bundesregierung bringen. Klingt trivial, ist aber bedeutsam. Man könnte salopp sagen: Das deutsche Prozessrecht legt Rollen fest. Der Kläger (z.B. die klagende Opposition) ist der Angreifer, der Beklagte (die Bundesregierung, die den Gesetzentwurf verantwortet) ist der Verteidiger. Nach den prozessualen Regeln muss der Angreifer erst einmal Argumente für seine These liefern, das Gesetz sei verfassungswidrig.

Und dann müssten die Gegner endlich Butter bei die Fische tun.

Es reicht ab diesem Punkt eben nicht mehr aus, mit Leerformeln wie „desaströs“ zu arbeiten.

Selbstverständlich wird es bei unterstelltem Einsatz von Uploadfiltern „False Positives“ geben. Aber im Verfassungsrecht gilt das Prinzip der praktischen Konkordanz. Und das bedeutet, der de lege ferenda durch False Positives entstehende Schaden für die Meinungsfreiheit müsste gegen den de lege lata bereits existierenden und jeden Tag wachsenden Schaden für die Eigentumsfreiheit der Urheber abgewogen werden. Letzterer ist auch unter dem Begriff Value Gap bekannt und wissenschaftlich schon recht gut untersucht (Bsp.: https://link.springer.com/chapter/10.1007/978-3-658-20265-1_12).

Zu dem erwarteten Schaden durch False Positives gibt es hingegen nur eine Menge belegfreie Glaskugelei der Art.-13-Gegner. Wobei Glaskugelei schon zu viel gesagt ist, denn der Schaden wird ja einfach nur behauptet, ohne ihn irgendwie zu konkretisieren oder zu begründen.

FAZIT: Entwarnung

Ich persönlich vermute, dass das Problem maßlos überschätzt wird und will auch erklären, warum. Man stelle sich eine gigantische Torte vor. Diese Torte ist der globale zwischenmenschliche Austausch über alle denkbaren Kanäle von Buschtrommeln bis Satellitenhandy. Von dieser Torte ist m.E. nur ein eher kleiner Teil internetgestützt. Von diesem internetgestützten Teil entfällt wiederum nur ein kleiner Teil auf die von Art. 13 Copyright-Richtlinie erfassten Plattformen. Von diesem kleineren Stück eines kleineren Stücks beinhaltet jetzt wiederum nur ein kleiner Bruchteil Drittcontent. Von diesem Bruchteil eines Bruchteils eines Bruchteils werden die gefürchteten Filter wiederum nur einen Bruchteil erfassen und nur ein Bruchteil davon wird letztendlich tatsächlich „False Positives“ aufweisen.

Unter dem Strich wird durch False Positives also nur ein verschwindend geringer Teil der globalen Gesamtkommunikation erfasst. Ein Verfassungsgericht, welches diesen Schaden gegenüber dem Schaden des Value Gap abwägt, wird auch in Rechnung ziehen, dass das Kommunikationshindernis durch Filterung ja kein endgültiges ist, denn der von einer solchen Filterung Betroffene hat andere Möglichkeiten seine Meinung zu äußern, nämlich

  1. den in der Richtlinie vorgesehenen Redress-Mechanismus (Art. 13 Abs. 8);
  2. den Rechtsweg;
  3. die Möglichkeit, seine Meinung ohne das für die Filter problematische Beiwerk auf demselben Wege noch mal zu posten (der U aus unserem Ausgangspunkt schreibt dann eine Videotafel mit dem Inhalt die „GroKo ist imperialer als der Todesstern“ und lädt sie hoch) oder
  4. die Veröffentlichung seiner Meinung über einen anderen Kanal (nicht von Art. 13 erfasste Plattform oder außerhalb des Internets).

Zieht man hierzu auch noch die diversen Safeguards der Richtlinie in Betracht, wie z.B. den Verweis auf das Verhältnismäßigkeitsprinzip (Art. 13 Abs. 4 a), die ausdrückliche Ausnahme von Schrankenbestimmungen zu Zitat, Parodie etc. (Art. 13 Abs. 5), das Verbot genereller Überwachung (Art. 13 Abs. 7) und die Ausnahmen für Startup-SMEs, kann ich mir ehrlich gesagt kaum vorstellen, dass der zu erwartende Schaden für die Meinungsfreiheit als so „desaströs“ eingeschätzt wird, dass er durch die Eindämmung des „Value Gap“ nicht aufgewogen wird.

Dabei wird möglicherweise auch eine Rolle spielen, dass die Bundesverfassungsrichterinnen und –richter alle in einem Alter sind, welches es ihnen ermöglicht, sich daran zu erinnern, dass es auch schon vor dem Internet möglich war, Meinungsaustausch zu betreiben. Und ich kann mir nicht vorstellen, dass die Richterschaft sich von dem so gern vorgebrachten Argument beeindrucken lässt, es handele sich bei ihr um einen Haufen alter Menschen, die das Internet nicht verstanden haben. Für mich übrigens nebenbei gesagt eine besonders platte und bösartige Form von Ageismus. Man könnte genauso gut oder vielmehr schlecht behaupten, netzaffine, junge Menschen hätten die Fähigkeit verloren, über den Tellerrand des Internets hinauszuschauen.

Leider ist eine Debatte in dieser analytischen Tiefe derzeit nicht mehr möglich und zwar spätestens seit MdEP Julia Reda auf die geniale Idee verfallen ist, mit platten Lügen wie „Memes werden verboten“ Teenager zur politischen Beeinflussung ihrer Eltern zu instrumentalisieren.

____

TL;DR: Alle Gegner des Art. 13 reden von Zensur und den „desaströsen“ Auswirkungen der zu erwartenden Uploadfilter, dabei

  • ist die Frage der Einrichtung wie auch der genauen Konfiguration der Filter (nur Maschine oder Mensch & Maschine) letztlich eine autonome Entscheidung der Plattformen;
  • ist die angebliche Desaströsität für die Meinungsfreiheit nicht nur völlig unbelegt, sondern auch noch kontraintuitiv und
  • würde diese bei einer verfassungsrechtlichen Überprüfung mit den Schäden durch den Value Gap abgewogen werden;
  • sind Uploadfilter beim besten Willen keine Zensur im rechtlichen Sinne.

_________ [edit, mh 4,3,2019] ___________

Liebe Kommentierende,

leider lassen es meine Familie und meine beiden Brotberufe nicht zu, mich angemessen mit Ihren Kommentaren auseinanderzusetzen. Ich bitte daher um Verständnis, wenn ich nicht mehr selbst in die Debatte eingreife. Ich freue mich aber, dass mein Beitrag offensichtlich zu weiterem Nachdenken angeregt hat. Bitte missverstehen Sie mein Schweigen nicht als mangelnde Wertschätzung Ihrer Kommentare.

Mit freundlichen Grüßen,

Thomas Elbel

Autor: Matthias Hornschuh

I compose. I reflect. I teach. I talk.

21 Gedanken zu „Zensurmaschine“

  1. Hallo Herr Hornschuh, hallo Herr Elbel,

    in dem Beitrag wurde der Vergleich mit der Party gemacht, bei der die Nachbarn geschadet werden. Die aktuelle Rechtssituation sähe so aus, dass der Gastgeber die Ansprüche der Nachbarn einfach vollkommen abblockt. Ich hatte bisher das Verständnis, dass wenn wir bei dem Bild bleiben, der Gastgeber aktuell nicht haften muss, die Randalierenden Gäste aber zurück pfeifen und bei der Durchsetzung des Rechtsanspruches des Nachbarn nicht im Weg stehen darf.

    Ist es nicht so, dass Plattformen wie YouTube durchaus auch jetzt schon zur Rechenschaft gezogen werden können, wenn ein Rechteinhaber ankommt und auf einen Verstoß aufmerksam macht und YouTube einfach nicht reagiert? Muss YouTube nicht nach geltendem Recht jetzt schon die Inhalte entfernen?

    Wenn ich Artikel 13 richtig verstanden habe, müssen Plattformen wie YouTube danach eine Lizenz zum Zeigen von Inhalten beim Rechtinhaber erwerben, oder? Das kann z. B. die ARD für den Tatort sein, oder die GEMA für größere Musiker. Wenn ich Videos von den Bergen beim wandern mache, bin ich ja Urheber und da ich in keiner Verwertungsgemeinschaft bin ich auch der Rechteinhaber. Muss dann YouTube von mir auch eine Lizenz erwerben? Der Großteil der Inhalte bei YouTube, Facebook, Twitter, Mastodon-Instanzen, Flickr, 500px, … wir von Nutzern hochgeladen, die in keiner Verwertungsgesellschaft sind. Die ihre eigenen Fotos von Geburtstagen, Sonnenuntergängen und Co dort hoch laden. Muss YouTube da mit jedem von denen einen Lizenzvertrag abschließen? Und wie kann YouTube das kontrollieren, dass die Nutzer wirklich ihre eigenen Urheber sind?

    Noch verrückter wird es, wenn ich nicht meine eigenen Inhalte, sondern die von Freunden oder bekannten hoch lade. Eine Freundin malt gerne. Wenn ich sie frage, ob ich das in meinem Facebook-Profil teilen kann, und sie mir diese Erlaubnis erteilt, woher weiß Facebook dann, wer der Urheber und Rechteinhaber dieser Zeichnung ist?

    Ich bin mir sicher, dass Google, Facebook und co genug Budget haben, um solche Fragen mit Rechtsanwälten zu klären. Aber wie ist das mit kleineren Firmen? Wie ist das mit „Hobby“-Projekten? Wie ist das mit Non-Profit-Projekten wie Wiki Media Commons? Diese sind, meines Wissens nach nicht ausgenommen, wenn sie älter als 3 Jahre sind.

    Der Artikel 13 mag vielleicht nicht zensieren, das Overblocking ist vielleicht auch nicht das große Problem. Das größte Problem, das ich sehe, ist dass kleine Plattformen schließen werden, aus Angst für etwas verklagt zu werden, was sie defakto nicht kontrollieren bzw. verhindern können. Sollte das nicht der Fall sein, lasse ich mich aber auch gerne vom Gegenteil überzeugen.

    Mit freundlichen Grüßen
    Nico Düsing

    1. Hallo Herr Düsing,

      es ist, wie Sie selber andeuten, nicht so, dass Sie – abseits der Störerhaftungsfrage, die Thomas Elbel Ihnen sicher gerne beantworten wird – auf den Text reagieren, sondern Sie formulieren ja eher die Standardzweifel. Daher maße ich mir an, als Nichtjurist ein, zwei Dinge zu Ihren Fragen zu sagen.

      Zunächst einmal unterliegen Sie einem Irrtum, wenn Sie meinen, bislang hätte der Urheberstatus privater Uploader eigener Inhalte keine Bedeutung: Mit jedem Upload akzeptieren Sie die AGBs der jeweiligen Plattform; damit erklären Sie, im vollständigen Besitz aller Rechte an allem, was Sie hochladen zu sein. Sollte das tatsächlich Ihr eigenes Repertoire sein, dann dürfen Sie das; sollte das ein Roman von Tomas Elbel oder eine Musik von mir sein, dann wohl eher nicht. Sie haften dafür in vollem Umfang, was solang kein Problem ist, wie Sie tatsächlich Rechteinhaber sind, was aber zu einem erheblichen Problem werden kann, sobald Sie etwas verwenden, das Sie nach dem Recht nicht verwenden dürfen.

      Die Richtlinie entscheidet nun definitorisch, dass es die Plattform ist, die die „Veröffentlichung“ vornimmt – und nicht etwa Sie. Damit passiert etwas, das seit langem immer wieder gefordert wurde: Das Recht bleibt im Kern unbeschädigt, wird aber in seiner Anwendung um die User herumgeführt. Sie dürfen machen, was Sie wollen und brauchen sich um die Rechtskonsequenzen nicht weiter zu kümmern.

      Wie das vom Prinzip her funktionieren kann und soll, das habe ich an anderer Stelle bereits formuliert. Ich kopiere ich Ihnen erstmal eine ungefähre Erklärung der Konstruktion hierher.

      >> A13 definiert die Tätigkeit der Plattformen als „communication to the public“ (in etwa: „öffentliche Zugängigmachung“), woraus sich für die Plattformbetreiber eine Lizenzierungs- und Vergütungspflicht für die Inhalte auf der Plattform ergibt. Konkret geht es hier um die von Privatuploadern hochgeladenen Inhalte, also User Uploaded Content.

      Die Plattformen werden aufgefordert, umfassende Pauschallizenzen bei den zuständigen Verwertungsgesellschaften (VG) zu erwerben, so wie es im Rundfunk seit Jahrzehnten erprobte Praxis ist.
      Wenn die Plattform haftet, dann tut es der Privatuploader nicht mehr; er ist also rechtssicher in dem Sinne, dass er vor Abmahnungen und Schadenersatzforderungen geschützt ist.

      Nur für den Fall, dass solche Lizenzen nicht vorliegen, entsteht überhaupt eine Verpflichtung der Plattform Inhalte auf Vorliegen einer Lizenz zu überprüfen. Es darf übrigens nicht mehr als das Vorliegen einer Lizenz geprüft werden – also nichts Inhaltliches -, es dürfen auch keine personenebezogenen Daten des Uploaders erhoben werden.

      An der Stelle steht die Frage im Raum: Wie soll das denn gehen; es gibt doch jede Menge Repertoire, das von VGs gar nicht vertreten wird? Richtig.

      Und an der Stelle muss man A13 verlassen und sich Artikel 9a zuwenden. Der implementiert nämlich das Prinzip des sog. EXTENDED COLLECTIVE LICENSING, und demzufolge dürfen VGs das von ihnen nicht repräsentierte Repertoire so mit lizenzieren, als ob sie die Rechte daran hielten (das geht übrigens deutlich weiter als im Parallalelfall der Rundfunklizenzierung) .
      Den Urhebern der fraglichen Werke bleibt die Möglichkeit unbenommen, ihre Werke von der Plattform entfernen zu lassen – dann allerdings ohne Anspruch auf Schadenersatz etc. Ihnen entsteht allerdings selbstverständlich ein Vergütungsanspruch der zuständigen VG gegenüber.

      Und weil das so ist, ist es richtig, dass es KEINE VERPFLICHTUNG ZU UPLOADFILTERN gibt. Wer Anderes behauptet, hat die Systematik der Gesamtregelung der RL nicht verstanden. Was angesichts der Tatsache, dass 99% der Kritiker keine Urheberrechts- oder gar Lizenzierungs- und Abrechnungsspezialisten sind, nicht erstaunt.

      Was aber erstaunlich ist, das ist, dass die Experten (Juristen, Kaufleute, IT), die derartiges tagtäglich europaweit handhaben, nicht zu Gehör kommen. Die wüssten dazu nämlich einiges zu sagen.

      Das alles gesagt habend steht ein Szenario im Raum, in dem
      – die Plattform die rechtliche und wirtschaftliche Verantwortung für den User Uploaded Content von Privatuploadern übernimmt,
      – womit die Rechteinhaber (Urheber sind ebenso Rechteinhaber wie Interpreten aka Musiker und ihre administrativen Partner) einen Anspruch auf angemessene Vergütung erhalten,
      – während die Plattform zu einem Freiraum für kulturelle Entfaltung wird, in dem ganz selbstverständlich Memes, Parodien, Zitate und ungeheure Mengen wichtiger und unterhaltsamer Inhalte genutzt werden können.
      – Damit müssten gleichzeitig diejenigen Unternehmen, die sich heute an die Regeln halten, also Apple, Spotify, Deezer etc.. nicht mehr gegen einen Wettbewerber anstinken, der für die Inhalte, die sie vergüten, nichts zahlen muss.<<

      1. Sie haben die Frage nach den kleinen Plattformen nicht beantwortet.
        Angenommen ich betreibe als Hobby ein Online-Forum zum Thema Fotografie, wo sich Fotografen gegenseitig austauschen können.
        Die Plattform ist älter als 3 Jahre und generiert durch Werbung 50€ im Monat um die Serverkosten zu decken.

        Nach definition von Artikel 13 fällt dieses Forum voll unter das Gesetz.
        Mir bleiben dadurch nun drei Möglichkeiten:

        1. Ich schließe Pauschalverträge mit VG Bild, VG Wort und GEMA – Denn es könnte ja ein Bild dabei sein, dass nicht vom Fotografen selbst stammt, oder es könnte jemand einen Fachartikel einstellen oder ein Video mit geschützter Hintergrundmusik.
        — Dieses Szenario halte ich für unrealistisch, da ich einmal davon ausgehe, dass die Kosten für Pauschalverträge bei gleich 3 VGs mehr kosten würden als ich mir durch die Werbeeinnahme leisten kann.

        2. Ich lizensiere einen Upload-Filter von einem der großen IT-Firmen
        — Ebenfalls unwahrscheinlich, dass ich mir das leisten kann und dazu nicht konform mit der DSGVO. Außerdem zu fehleranfällig und daher rechts-unsicher.

        3. Ich schließe mein Forum, da mir das Risiko der Haftung zu groß ist.

        Und genau aus dem Grund bin ich strickt gegen diese Reform, da sie kleine Betreiber überhaupt nicht berücksichtigt und dadurch die Diversität im europäischen Internet kaputt macht.

        1. Hallo Herr Schmidt,
          wo und von wem wurde denn diese Frage gestellt?

          Es gibt jedenfalls eine Antwort und ich kann Ihnen versichern, dass Sie sich keine allzu großen Sorgen machen müssen. Ich zitiere hier mal den Urheberrechtsjuristen Till Völger:

          >> ‪Die Antwort darauf ist ziemlich einfach: Artikel 13 richtet sich ausschließlich an sog. „online content sharing service provider“. Was ein solcher Provider ist, wird haarklein in Artikel 2 Abs. 5 der Richtlinie definiert:‬

          ‘online content sharing service provider’ means a provider of an information society service whose main or one of the main purposes is to store and give the public access to a large amount of copyright protected works or other protected subject-matter uploaded by its users which it organises and promotes for profit-making purposes. Providers of services such as not-for profit online encyclopedias, not-for profit educational and scientific repositories, open source software developing and sharing platforms, electronic communication service providers as defined in Directive 2018/1972 establishing the European Electronic Communication Code, online marketplaces and business-to business cloud services and cloud services which allow users to upload content for their own use shall not be considered online content sharing service providers within the meaning of this Directive.‬

          ‪Da ist der erste Satz entscheidend.
          – Ein Forum dürfte erstens meist nicht kommerziell tätig sein.
          – Zweitens ist es nicht darauf ausgerichtet, der Öffentlichkeit eine große Zahl urheberrechtlich geschützter Werke zur Verfügung zu stellen, die durch die Nutzer hochgeladen werden.
          Damit fallen Sie schon DEM GRUNDE NACH nicht unter den Anwendungsbereich.‬

          ‪Das mit den 3 Jahren sind ZUSÄTZLICHE Einschränkungen für Plattformen, die dem Grunde nach unter den Anwendungsbereich fallen, aber eben (für einen gewissen Zeitraum) noch nicht der Höhe nach.‬ << Kurz zusammengefasst: Sie müssten schon ein ‘online content sharing service provider’ sein, um überhaupt auf Vorliegen der übrigen Kriterien prüfen zu müssen.

          1. Hallo Herr Hornschuh,

            Inwiefern ein Forum i. d. R. kommerziell tätig ist oder eben nicht, dazu kann ich nicht wirklich etwas sagen. Schon alleine, da ich nicht wüsste, ab wann es denn als „kommerziell“ zählen würde.

            Aber nehmen wir an es handelt sich um eine Seite, die dafür gedacht ist, dass Fotografen u. a. ihre Bilder teilen und veröffentlichen können. Der Zweck wäre damit offensichtlich, der Öffentlichkeit eine große Zahl urheberrechtlich geschützter Werke (die Bilder) zur Verfügung zu stellen.

            Unterstellen wir dann noch, dass diese Seite in kleinem Rahmen kommerziell ist (hier ist mir wie gesagt nicht bekannt, wo die Grenze wäre), würde diese Seite als „online content sharing service Provider“ gelten.

            Womit wir hier auch wieder bei den von Herrn Schmidt aufgeführten Folgen wären, aufgrund welcher diese Seite aller Wahrscheinlichkeit nach schließen würde.

          2. Hallo Frau Becker,

            was soll ich sagen: Es geht nicht um Foren, das war nie das Ziel der Richtlinie und es wäre auch vollkommen blödsinnig. Es geht bei Artikel13, auf den Sie sich ja offensichtlich beziehen, ganz ausdrücklich um eine Heilung des sog. VALUE GAP, also der Wertschöpfungslücke, die sich daraus ergibt, dass auf einer Plattform erhebliche Wertschöpfung stattfindet, an der diejenigen, die die verwerteten Werke geschaffen haben, nicht oder unwesentlich beteiligt werden.
            Ich kann nicht erkennen, dass Ihr Beispiel damit in irgendeiner Weise in Verbindung zu bringen wäre.

            Nun können Sie sich gerne an Ihrer Angst festhalten, dass irgendetwas in dieser Richtlinie nicht so definiert ist, wie Sie es sich vorstellen. Und natürlich können Sie auch prophylaktisch Ihr Forum zumachen.

            Oder aber Sie warten einfach ab, bis die Richtlinie in deutsches Recht umgesetzt wird, mit allen Präzisierungen, die dann vonnöten (aber eben auch möglich) sind und allen Details, die sich dann klären werden – und entscheiden dann.

          3. Julia Reda sagt, dass Artikel 9a eine Nebelkerze ist:
            https://twitter.com/Senficon/status/1100870805787938819

            „‘online content sharing service provider’ means a provider of an information society service whose main or one of the main purposes is to store and give the public access to a large amount of copyright protected works or other protected subject-matter uploaded by its users which it organises and promotes for profit-making purposes. “

            Trifft perfekt auf jedes Forum zu. Der Hauptzweck eines Forums liegt darin urheberrechtlich geschütztes Material zu veröffentlichen. Viele Texte die gepostet werden, unterliegen dem Urheberrecht (jeder Schreiber ist selbst Urheber). Genauso die Fotos die gepostet werden. Ein Forum besteht NUR aus User generated Content = large amounts of copyright protected works.

            „Ein Forum dürfte erstens meist nicht kommerziell tätig sein.“

            Fast alle Foren sind kommerziell tätig. Ein Affiliate-Banner um die Serverkosten reinzuholen reicht um gewerblich zu handeln. Somit sind so gut wie alle betroffen. foren-gegen-uploadfilter.eu

            „Zweitens ist es nicht darauf ausgerichtet, der Öffentlichkeit eine große Zahl urheberrechtlich geschützter Werke zur Verfügung zu stellen, die durch die Nutzer hochgeladen werden.
            Damit fallen Sie schon DEM GRUNDE NACH nicht unter den Anwendungsbereich.‬“

            Völlig falsch, wie oben erklärt. Ein Forum ist, genau wie Youtube, nur eine Art System-Provider. Auf beider Art Plattformen kann der User geschütztes Material hochladen. Texte sind ebenfalls geschützt! Auch die Texte die man bei Youtube unter die Videos posten kann. Ebenso die zahlreichen Fotos die in Foren gepostet werden. Vielleicht merkst du an, dass manche Postings im Forum keine Schöpfungshöhe erreichen. Das kann sein, aber etliche erreichen sie. Wie will der Forenbetreiber hier die prozentuale Verteilung berechnen (Schöpfungshöhe erreicht und nicht erreicht) um feststellen zu können ob er noch unter dem Bereich „large amounts“ liegt? Wieviele Fotos im Forum darf man maximal zulassen (man braucht ja eine exakte Zahl um kein Risiko einzugehen)? Die Schöpfungshöhe wird bei längeren Beiträgen schnell erreicht.
            Das Gesetz ist absolut praxisfern. Alle Befürworter unterliegen dem Wunschdenken. „Wir möchte gerne dass es so funktioniert und glauben ganz ganz feste dran“, trotz etlicher Warnung zahlreicher EXPERTEN in dem Bereich. Verlieren all die kleinen Seiten ihre Existenzgrundlage, Eltern ihre Jobs, heisst es hinter wohl einfach nur: Ups! Naja, wenigstens ist noch Google,Facebook und Youtube übrig geblieben. So schlimm ist das ja auch nicht, wenn die Youtube-Privatrichter über die Rechtmäßigkeit eines Uploads entscheiden bei Unklarheiten, man kann ja immernoch vor Gericht ziehen, wenn Youtube aus Eigenschutz zur Sicherheit overblockt. Nach einem Jahr und hohen Kosten bekommt man dann recht und kann sein veraltetes Video posten.

      2. „während die Plattform zu einem Freiraum für kulturelle Entfaltung wird, in dem ganz selbstverständlich Memes, Parodien, Zitate und ungeheure Mengen wichtiger und unterhaltsamer Inhalte genutzt werden können.“

        Klingt gut, nur leider realitätsfern. Weil sich die Privatrichter der Plattformen bei allem unklarem Material, für Overblocking entscheiden werden. Die Grenze zu erlaubt/nicht erlaubt ist auch für ordentliche Gerichte oft schwer zu treffen, wieviel schwerer ist das dann für Privatrichter? Der User hat dann nur die Möglichkeit den Rechtsweg zu bestreiten (teuer, lang).
        Da haben wir die Zensur.

        „Wenn die Plattform haftet, dann tut es der Privatuploader nicht mehr; er ist also rechtssicher in dem Sinne, dass er vor Abmahnungen und Schadenersatzforderungen geschützt ist.“

        Der Privatuploader hat aber doch den AGB der Plattform zugestimmt, kein geschütztes Material hochzuladen. Den kann die Plattform doch dann trotzdem in Regress nehmen je nach AGB.

  2. „Und an der Stelle muss man A13 verlassen und sich Artikel 9a zuwenden. Der implementiert nämlich das Prinzip des sog. EXTENDED COLLECTIVE LICENSING, und demzufolge dürfen VGs das von ihnen nicht repräsentierte Repertoire so mit lizenzieren, als ob sie die Rechte daran hielten (das geht übrigens deutlich weiter als im Parallalelfall der Rundfunklizenzierung) .
    Den Urhebern der fraglichen Werke bleibt die Möglichkeit unbenommen, ihre Werke von der Plattform entfernen zu lassen – dann allerdings ohne Anspruch auf Schadenersatz etc. Ihnen entsteht allerdings selbstverständlich ein Vergütungsanspruch der zuständigen VG gegenüber.

    Und weil das so ist, ist es richtig, dass es KEINE VERPFLICHTUNG ZU UPLOADFILTERN gibt.“

    Dazu eine Frage: Angenommen, ich – nicht von einer VG vertreten – widerspreche der Veröffentlichung meiner Werke bei z.B. YT. Dies teile ich YT und der VG mit, hol mir meine Vergütung bei der VG ab und bin ab da „mein eigener Herr“. Wie stellt YT aus Ihrer Sicht nun sicher, dass sie nicht durch eine unrechtmäßige (Verwendung +) Veröffentlichung meiner Werke durch dritter haftbar werden, ohne Uploads nach meinem explizit „verbotenem“ Werk zu filtern? Oder wäre YT Ihrer Meinung nach dann vom Haken, weil die es ja versucht hätten und somit von Haftung befreit/vermindert haftbar wären?

    Vielen Dank,
    Matthias

  3. Hallo Herr Eibel,

    ich finde es gut, dass Sie sich auf einer sachlichen Ebene mit der geplanten Urheberrechtsreform auseinander setzen. Das ist ja leider zunehmend selten geworden… Ich hoffe, ich kann mit diesem Kommentar zu einer sachlichen Diskussion beitragen.

    „Denn eine KI kann z.B. nicht erkennen, dass statt einer Urheberrechtsverletzung nur eine gesetzlich erlaubte Parodie oder ein Zitat vorliegt (letzteres hat mich übrigens nie überzeugt; warum sollte eine KI nicht den Unterschied zwischen Original und Teilmenge des Originals erkennen, aber wie auch immer). “

    Ich habe Informatik studiert und beschäftige mich beruflich fast rund um die Uhr mit dem Web bzw. den Technologien dahinter. Ich will versuchen, Ihnen grob zu erklären, weshalb es für eine KI so schwierig (bzw. unmöglich?) ist, Parodien zu erkennen. Nehmen wir gerne Ihr Beispiel der Darth Vader-Szene, die bei YouTube als Teil eines längeren Videos hochgeladen wurde:
    Wenn ich ein Video hochlade, egal in welchem Format oder in welcher Auflösung, Länge, Qualität etc. schicke ich letztendlich haufenweise Bits (also Nullen und Einsen) an YouTube. Das können schnell mal mehrere Hundert Megabytes werden (insbesondere, wenn Videos in 4k oder noch besserer Auflösung hochgeladen werden).
    Nehmen wir einmal den Extremfall und eine naive Lösung an: Jemand lädt den kompletten Original-Film hoch aus dem die betreffende Szene stimmt. Wenn wir davon ausgehen, der Film hätte eine Länge von 2h Dauer, dann ergäbe sich schätzungsweise eine Größe von 86,8GB (ich habe für die Berechnung https://www.digitalrebellion.com/webapps/videocalc verwendet mit dem Format H.264 1080 und einer Frame rate von 30). Rechnet man das in Bits um, ergäbe sich ungefähr die Zahl 6,944*10^11 (also ~ 694.400.000.000 Bits). In einer Datenbank, die der Rechteinhaber YouTube zur Verfügung gestellt hat (oder weil der genaue Film vorher schon einmal gemeldet wurde) würden jetzt genau diese Bits drinstehen. Was YouTube jetzt machen müsste, wäre jeden einzelnen dieser Bits zu vergleichen (oder zumindest so lange alle Bits der Reihe nach zu vergleichen, bis eine ausreichend hohe Abweichung gefunden wurde). Selbst mit den modernsten Highend-Prozessoren ist das nicht in realistischer Zeit machbar. Zumal: YouTube müsste jedes hochgeladene Video mit jedem in der Datenbank für geschützte Inhalte vergleichen. Die Thematik, dass unterschiedliche Codecs/Container-Formate etc. unterschiedliche Bit-Streams erzeugen, sei an der Stelle einmal komplett außen vor – das Problem ist auch so schon unlösbar.
    Damit solche Aufgaben realistisch durchführbar sind, verwendet man eine andere Herangehensweise: Sogenannte Hashfunktionen (https://de.wikipedia.org/wiki/Hashfunktion). Die grobe Idee dahinter ist, dass man aus einer sehr großen Menge Bits eine relativ kleine, pseudo-eindeutige Menge Bits erzeugt, mit denen man das Original eindeutig identifizieren kann. Aus den 694.400.000.000 Bits könnten so z.B. 40 Zeichen werden (in Bits wäre das entsprechend etwas mehr). Pseudo-eindeutig bedeutet, dass es technisch möglich ist, 2 Dateien zu haben, aus denen der exakt gleiche Hash-Wert erzeugt wird. Da die Hashfunktion allerdings nicht umkehrbar ist (also ich kann nicht von dem resultierenden Hash auf die Eingabe-Datei schließen) ist es quasi unmöglich, eine Datei so lange zu manipulieren, bis man den gewünschten Hash 2x erhält. Mit einer geschickt gewählten Datenstruktur ist es dadurch in realistischer Zeit möglich, zu überprüfen, ob das hochgeladene Video in der Datenbank für geschützte Inhalte vorhanden ist.

    Soweit so gut. Problem daran ist nur folgendes: Verändere ich nur ein einziges Bit der Eingabe-Datei, ist der resultierende Hash ein komplett anderer. Das können Sie z.B. mit https://de.infobyip.com/hashcalculator.php testen. Gängige Algorithmen sind z.B: SHA1 oder SHA256. WICHTIG: Nicht alle der Algorithmen auf der verlinkten Seite würden sich für ein Szenario wie YouTube eignen. Wäre die Eingabe z.B. „Hallo 123“, wäre der SHA1-Hash dazu: 95f7f7f081c5b4d060d2cd12452b1af9a1ecd3d9. Ändere ich die Eingabe zu „Hallo 124“, ist der SHA1-Hash 8a67483e4417e6a38404a4557b004743c5b10606. Also ein komplett anderer Wert, obwohl ich nur eine Kleinigkeit geändert habe. Damit wären wir beim nächsten Problem: Wenn ich nur einen einzigen Frame bei einer Frame-Rate von 30 FPS (Frames per Second) verändere, hätte ich also einen komplett anderen Hash und ich könnte das eigentlich nicht erlaubte Werk wieder hochgeladen.

    Ab hier muss ich ein wenig spekulieren, weil ich die genaue Umsetzung von YouTube’s Content ID (oder ähnlichen Systemen) nicht kenne. Mein nächster Schritt wäre es, nicht den kompletten Film durch eine Hash-Funktion zu jagen sondern nur einen Teil davon. Also z.B. den Film in 1-Sekunde-Abschnitte zu unterteilen und jede Sekunde entsprechend zu hashen. Ich vermute, dass YouTube da entsprechend schlaue Metriken entwickeln hat. Bei Zugriff auf die weltbesten Programmierer und einem Budget von kolportierten 100 Millionen Euro ist es wahrscheinlich, dass YouTube entsprechend komplexe Technologien entwickelt hat. Die Grundidee des Hashings bleibt aber. „In Content ID haben 8000 Rechteinhaber Hashwerte hinterlegt, anhand derer Lieder, Musikvideos oder Spielfilme sofort erkannt werden. Youtube erklärt, man scanne „hunderte Jahre“ Videomaterial am Tag.“ (https://www.sueddeutsche.de/digital/upload-filter-das-netz-der-schwarzen-listen-1.3835794).

    Das Problem dabei ist jetzt, dass ich einen Filmausschnitt von ausreichender Länge in meinem Video eingebettet haben könnte, der eigentlich erlaubt wäre als Parodie, aber von den Filtern als Teil eines größeren Films erkannt werden würde. Man könnte so Ansätze wie „Wenn nicht x Sequenzen hintereinander kommen, dann ist der Upload erlaubt“ versuchen, aber dann könnte ich auch nach jeder Sekunde Film z.B. einen Frame lang den vorherigen Frame verdoppeln und hätte wieder andere Hashwerte ohne dass der Filmgenuss signifikant eingeschränkt wäre. Ich gehe davon aus, dass YouTube entsprechende Analysen macht und mit Machine Learning arbeitet um die Fehlerquote möglichst gering zu halten. Das ist sicherlich machbar für ein Multi-Milliarden-Dollar-Unternehmen. Für das 2-Mann-Startup von nebenan leider nicht…

    Aus einem persönlichen Gespräch mit dem Büro von Helga Trüpel weiß ich, dass YouTube derzeit wohl etwas über 90% der Uploads korrekt erkennt (laut Aussage der CEO von YouTube). Was aber auch heißt, dass fast jeder 10. Upload falsch erkannt wird. Ich habe dazu leider keine schriftliche Quelle, bin mir aber sicher, dass das Büro Ihnen diese Aussage bestätigt bei Bedarf.

    Sie haben zu Recht darauf hingewiesen, dass man gegen entsprechende Falschklassifizierungen Einspruch erheben kann. Das funktioniert allerdings z.B. nicht mehr bei Live-Übertragungen! Selbst wenn ich ein paar Stunden oder Tage später doch noch die Erlaubnis bekomme, das Video der Live-Übertragung zu zeigen, wäre der Mehrwert davon nicht mehr vorhanden. Damit wären manche Plattformen, die davon leben, in Echtzeit Inhalte zu verteilen und mit den Zuschauern zu interagieren (wie z.B. Twitch) quasi per Gesetz zur Geschäftsaufgabe oder kompletten Änderung des Geschäftsmodells gezwungen.

    Vermutlich können Sie das aus juristischer Sicht besser einschätzen. Ich würde aus meiner Erfahrung mit größeren Unternehmen davon ausgehen, dass viele Anwälte eher dazu raten würden, zu viel als zu wenig zu blocken, wenn die Plattformen auf einmal für Urheberrechtsverstöße haften würden. Ähnliches haben wir beim Netzwerkdurchsetzungsgesetz oder dem eigentlich unnötigen Anzeigen von Cookie-Bannern schon gesehen (wenn z.B. gar keine Cookies verwendet werden).

    Mal ganz abgesehen davon, dass ich mir nicht sicher bin, ob alle Benutzer von Plattformen wie YouTube den Weg durch sämtliche juristischen Instanzen gehen würden um ein Video am Ende doch hochladen zu dürfen.

    Für YouTube oder Facebook könnte Artikel 13 sogar vorteilhaft sein. Aus dem simplen Grund, dass diese großen Plattformen über die personellen und finanziellen Kapazitäten verfügen, entsprechende Filtersysteme zu entwickeln bzw. diese Systeme bereits besitzen. Als neues Startup fehlt mir all das. Dafür gibt es ja extra die Ausnahme, dass man erst nach 3 Jahren entsprechende Filtersysteme braucht. Wenn man bereits seit 10 Jahren eine kleine Plattform unterhält, mit der man jeden Monat 200€ verdient, hilft einem das aber auch nicht. Ich glaube unabhängig davon aber auch nicht, dass es irgendein Startup schaffen würde, neben der eigentlichen Geschäftsidee auch noch entsprechende Filtersysteme zu realisieren in nur 3 Jahren. Das Resultat wäre daher wohl, dass die entsprechenden Plattformen entweder geschlossen werden oder die entsprechenden Filtersysteme teuer bei anderen (vermutlich amerikanischen) Firmen einkaufen müssten – z.B. YouTube oder Facebook. Wie das mit der DSGVO vereinbar sein soll, weiß ich nicht. Die vielfach vorgetragene Befürchtung, dass Artikel 13 zu einer weiteren Monopolisierung der großen Plattformen führen würde, halte ich daher für durchaus nachvollziehbar.

    „Der YouTube-Anwalt würde sich nun mächtig aufplustern und geltend machen, dass man da ja angesichts von 400h Uploads pro Minute ganze Armeen von Personal anstellen müsste. Die Richter würden wiederum einwenden, die Tatsache, dass stattdessen eine rein automatisierte Filterung angewandt werden solle, sei ökonomisch sicherlich nachvollziehbar, aber letztendlich eben doch eine autonome Entscheidung des Konzerns und könne nicht dem Gesetzgeber angelastet werden, was man ja auch daran sehe, dass ContentID auch schon vor Erlass der Richtlinie angewandt wurde.“. Ich könnte genauso fordern, dass ab sofort das Abitur nur noch auf dem Mars geschrieben wird. Das könnte ich auch in ein Gesetz packen. Realistischer wird es dadurch leider auch nicht… Selbst wenn ich die Hälfte aller Videos durch Menschen überprüfen ließe, würde mir das nicht garantieren, dass ich nicht etwas übersehe. Mal ganz abgesehen davon, dass es das für kleinere Plattformen nochmal unmöglicher machen würde, ein entsprechendes Konkurrenzprodukt zu entwickeln. Oder um es mit einem Zitat aus dem Kleinen Prinz zu sagen: „»Wenn ich befehle«, sagte er gewöhnlich, »wenn ich einem General befehle, sich in einen Seevogel zu verwandeln, und wenn der General nicht gehorcht, wäre es nicht die Schuld des Generals. Es wäre meine Schuld.«“.

    Um es ganz klar zu sagen: Ich bin nicht gegen das Urheberrecht. Im Gegenteil. Ich bin nur gegen die vorgeschlagene Umsetzung in Form von Artikel 13 (und gegen Artikel 11 und 12, aber darum geht es hier ja nicht). Julia Reda hat auf ihrer Webseite eine Reihe von alternativen Vorschlägen zusammengefasst: https://juliareda.eu/2018/09/showdown-urheberrecht/.

    Mit freundlichen Grüßen,
    Tim Kraut

    1. Hallo Herr Kraut,

      von Thomas Elbel soll ich Ihnen folgendes ausrichten:
      Liebe Kommentierende,
      leider lassen es meine Familie und meine beiden Brotberufe nicht zu, mich angemessen mit Ihren Kommentaren auseinanderzusetzen. Ich bitte daher um Verständnis, wenn ich nicht mehr selbst in die Debatte eingreife. Ich freue mich aber, dass mein Beitrag offensichtlich zu weiterem Nachdenken angeregt hat. Bitte missverstehen Sie mein Schweigen nicht als mangelnde Wertschätzung Ihrer Kommentare.
      Mit freundlichen Grüßen,
      Thomas Elbel

      Ich selber freue mich – wie Sie – über die Sachlichkeit der Debatte und danke Ihnen dafür.

      Mir sind die meisten Aspekte, die Sie anführen, bewusst. Niemand hat behauptet, das Ganze werde ein Kindergeburtstagsspaziergang. Ganz im Gegenteil: Wir alle werden uns ziemlich reinhängen müssen. Aber es geht ja auch um etwas.

      Ich kann Ihnen aus der Praxis berichten, dass bereits jetzt ziemlich ausgereifte Musikerkennungssysteme im Einsatz sind, etwa bei den öffentlich-rechtlichen Rundfunkanstalten, die in Zusammenarbeit mit der GEMA und unter Rückgriff auf Drittanbietersoftware, etwa von BMAT oder SoundMouse, wesentliche Schritte machen in Richtung automatisierter Musikerkennung des Programms. Das, was also zukünftig zu detektieren wäre, wird keineswegs alleine plattformseitig zu lösen sein.

      1. Das ist das gute Recht von Herrn Eibel. Ich finde es allerdings persönlich etwas schwach, erst einen langen Artikel zu schreiben ohne dass man sich mit der technischen Materie auseinander gesetzt hat und dann zu implizieren, man hätte im Gegensatz zu anderen nicht die Zeit, sich lange Erklärungen durchzulesen. Ich habe genauso einen „Brotberuf“ wie Herrn Eibel und habe gestern einen beachtlichen Teil meiner Freizeit investiert um diese Erklärung zu schreiben. Aber so kann man natürlich auch einer Diskussion aus dem Weg gehen…

        1. Ja, es ist schade, wenn ernstgemeinte Versuche einer Verständigung am Zeitkontingent der Beteiligten scheitern. Zumal es zu oft Situationen gibt, in denen Leute offensichtlich jede Menge Zeit haben – aber keine Bereitschaft auf einander einzugehen.
          Ich kann und will nicht für Thomas Elbel sprechen, aber ich kann Ihnen sagen, dass die aktuelle aufgeheizte Situation für uns engagierte Autoren, anders als für die meisten, die sich jetzt einklinken, schon Jahre andauert. Es gibt ganz einfach natürliche Grenzen fürs Ehrenamt: Familie, Geld, Kraft, Glaube an die Menschheit …

          Zur Sache: Es geht in Thomas‘ Artikel nicht um Technik, sondern um eine verfassungsmäßig Einordnung und Abwägung.
          Ich hatte bereits darauf hingewiesen, dass es durchaus eine ganze Reihe von Technikprofis gibt, die sich mit den von Ihnen aufgeworfenen Fragen längst auseinandersetzen.
          Im Übrigen sehe ich persönlich es so, dass die Aufgabe der Techniker ist, die Vorgaben des Gesetzgebers umzusetzen. Und nicht die Aufgabe des Gesetzgebers, HEUTE Regeln für MORGEN zu schaffen, die auf der Technologie von GESTERN beruhen. Und schon deswegen MUSS eine EU-Richtlinie, welche zunächst in nationales Recht zu übertragen ist, Ermessensspielräume und Gestaltungsmöglichkeiten aufweisen – genau das, was derzeit als Unschärfe kritisiert wird.

          1. Ich wäre einfach vorsichtig mit gewissen Aussagen, wenn ich die Technik hinter etwas nicht verstehe. Ich habe mir Mühe gegeben, die technischen Notwendigkeiten für Nicht-Informatiker zu beschreiben, aber den Eindruck, dass das Nichtverständnis der Technik mit einem gewissen Nichtverstehenwollen korreliert, werde ich nicht los.

            Es ist zwar korrekt, dass Techniker bzw. Informatiker in diesem Fall die Gesetzesvorgaben umsetzen müssen. Allerdings muss das ganze realistisch umsetzbar sein. Mit den heute verfügbaren Algorithmen und Rechenkapazitäten sind fehlerfreie Uploadfilter nicht realisierbar. Und das wird sich auch in absehbarer Zeit nicht ändern. Wenn Politiker da einfach jegliche Verantwortung von sich weisen und „DAS ist EUER Problem“ postulieren, machen sie es sich da etwas zu einfach.

          2. Herr Kraut, bevor wir uns jetzt im Kreise drehen:
            Sie sagen: Das geht technisch nicht.
            Ich erwidere: Das ist ja auch nicht nötig zur Umsetzung der RL.
            Und dann sagen Sie wiederum: Ja, aber das geht technisch nicht.

            Merken Sie was?

            Ich sage jetzt mal: Ich wäre vorsichtig mit gewissen Aussagen, wenn ich das Recht hinter etwas nicht verstünde und daher die Notwendigkeit bestimmter Technikanwendungen nicht beurteilen könnte.
            Das scheint aber zugegebenermaßen derzeit eine eher unpopuläre Position zu sein.

  4. „Das Resultat wäre daher wohl, dass die entsprechenden Plattformen entweder geschlossen werden oder die entsprechenden Filtersysteme teuer bei anderen (vermutlich amerikanischen) Firmen einkaufen müssten – z.B. YouTube oder Facebook. “

    Es ist nicht gesagt, dass diese Plattformen überhaupt bereit wären ihre Filter zu lizensieren. Davon kann man nicht ausgehen. Alle „Kleinen“ können solche Filter aber nicht betreiben.

  5. „Mir sind die meisten Aspekte, die Sie anführen, bewusst. Niemand hat behauptet, das Ganze werde ein Kindergeburtstagsspaziergang. Ganz im Gegenteil: Wir alle werden uns ziemlich reinhängen müssen. Aber es geht ja auch um etwas.“

    Von diesen Sprüchen können sich die totgeweihten kleineren Plattformen auch nichts kaufen. Sobald die Reform steht, haben sie schon verloren.

    „Ich kann Ihnen aus der Praxis berichten, dass bereits jetzt ziemlich ausgereifte Musikerkennungssysteme im Einsatz sind“

    Wenn es allein um Musik ginge, hätte kaum einer etwas einzuwenden! Seine Meinung drückt man doch eher durch Video/Foto/Text aus. Da liegt die Gefahr der Zensur.

  6. Jetzt haben Sie mich aber neugierig gemacht. Wenn das nicht nötig ist zur Umsetzung, wie könnte eine Umsetzung dann konkret aussehen? Ich denke die beiden Optionen „Plattform schließt“ und „Plattform stellt Zehntausende menschliche Uploadfilter ein“ scheiden aus.

  7. Lieber Herr Hornschuh,

    auch von meiner Seite vielen Dank dafür, daß Sie Ihr Blog für eine vertiefende Diskussion dieser teilweise komplizierten, in den Mainstream-Medien nur sehr verkürzt zur Sprache kommenden und doch extrem folgenreichen Materie zur Verfügung stellen.
    Und Dank auch an die anderen Diskutanten – insbesondere Tim Kraut, der in seiner lehrreichen Darstellung der technischen Schwierigkeiten, die der rechtskonformen (einschl. Art. 13 Abs. 5) Erfüllung der in Art. 13 Abs. 4 den Plattformen auferlegten Prüfpflichten und Haftungsbedingungen entgegenstehen, deutlich gemacht hat, warum die Haftungsregelung (Art. 13 Abs. 1 und 3) aller Voraussicht nach dazu führen dürfte, daß die allermeisten Plattformen, die ihren Nutzern seit einiger Zeit das Hochladen und öffentliche Zugänglichmachen eigener Inhalte ermöglichen, diese Art von Dienst in Zukunft nicht mehr würden anbieten können, sollte Art. 13 in der vorl. Form den Rahmen der Urheberrechtsgesetzgebung in Europa bestimmen.

    Sollte es dazu kommen – und ich habe in der Debatte, die ich, wie Sie seit Jahren intensiv verfolge, noch kein überzeugendes Argument vernommen, wie es sich sollte vermeiden lassen –, dann würde dies zu einer erheblichen Einschränkung unserer Meinungsfreiheit in ihren beiden Aspekten führen: einerseits zu einer Einschränkung der faktischen Möglichkeiten der allermeisten Unionsbürger, ihre Meinung in Wort, Schrift oder Bild frei zu äußern und über das Internet zu verbreiten, andererseits (und infolgedessen) zu einer Einschränkung unserer Freiheit zur Meinungsbildung aus allgemein zugänglichen Quellen, weil das Spektrum der dann noch allgemein zugänglichen Quellen merklich schmaler werden dürfte. (Diese Befürchtungen werden noch verstärkt durch die zu erwartenden Auswirkungen des Leistungsschutzrechts für Presseverlage aus Art. 11, aber das ist hier nicht Gegenstand der Debatte.)

    Daß Thomas Elbel die Diskussion über das mit der in Art. 13 der vorgeschlagenen Richtlinie verbundene Zensur-Problem aus der Perspektive des öffentlichen Rechts bzw. des deutschen Verfassungsrechts angeht, erscheint bei seiner Profession naheliegend. Doch trifft seine (negative) Einschätzung der Anwendbarkeit des Zensurbegriffs aus Art. 5 Abs. 1 GG auf die Einschränkungen, denen Nutzer von privatwirtschaftlich betriebenen Online content sharing services (im Folgenden vereinfacht: „Plattformen“) aufgrund von Art. 13 (4) des nun dem Parlament zur abschließenden Beschlußfassung vorgelegten Richtlinienentwurfs unterworfen sein werden, das Problem?

    Anders als Herr Elbel voraussetzt und empfiehlt, ist es historisch keineswegs so, daß Zensur ausschließlich von staatlichen Instanzen ausgeübt worden wäre oder daß nur Zensur durch staatliche Zensoren ein Problem für die Meinungsfreiheit, Kunst- und Wissenschaftsfreiheit darstellte. Je nach Machtkonstellation operierten oder operieren Zensoren im Namen der Kirchen, der Sorbonne, der Al-Azhar-Universität, selbsternannter Sittenwächter, der Buchhändlergilde, der Filmwirtschaft oder der Anti-Diskriminierungsbeauftragten (um nur einige klassische oder rezente Beispiele zu nennen).
    Immerhin, darauf legen wir Wert: Im Rechtsstaat muß es dem von einer Einschränkung seiner Meinungs- und Artikulationsfreiheit Betroffenen möglich sein, diese Entscheidung auf dem Rechtsweg anzufechten. Hellhörig sollten wir spätestens dann werden, wenn ein Zensor zu verhindern sucht, daß die Zensur öffentlich als Zensur bezeichnet werden kann.
    (Für eine gründlichere Diskussion über die unterschiedlichen Formen von Zensur, ihre Problematik und mögliche Legitimationen, darf ich auf einen Aufsatz im aktuellen Jahrbuch für Recht und Ethik verweisen: Eberhard Ortland, „A Moral Need for Censorship, Access Restrictions, and Surveillance? The Ethics of Copying and the Freedom of Communication“, Jahrbuch für Recht und Ethik 26 [2018], 125-179.)

    Aus der Perspektive des einfachen Internet-Nutzers, der auf einer öffentlich zugänglichen, kommerziell finanzierten Plattform anderen Nutzern etwas zugänglich machen möchte – um sich an einer öffentlichen Diskussion zu beteiligen, eigene Werke mit anderen zu teilen oder auch nur seine Begeisterung für ein Bild, einen Augenblick, einen Witz, ein Kochrezept, eine Tango-Performance oder was auch immer mit anderen zu teilen –, erscheint es erstmal gleichgültig, ob er in seiner Freiheit, seine Meinung in Wort, Schrift oder Bild zu äußern und diese Meinungsäußerung über das Internet zu verbreiten, sowie in seiner Freiheit, sich aus allgemein zugänglichen Quellen zu informieren, eingeschränkt wird durch einen in staatlichem Auftrag agierenden Zensor (wie die Bundesprüfstelle für jugendgefährdende Medien), durch eine privatwirtschaftliche Agentur (wie die Freiwillige Selbstkontrolle der Filmwirtschaft), durch einen Content Manager der Plattform seiner Wahl oder durch einen anonymen, in seinen Entscheidungen nicht transparenten Algorithmus:
    Ein Kommunikationsversuch, in dem zu einem bestimmten Zeitpunkt einem unbestimmten Kreis erwarteter oder auch unerwarteter Adressaten etwas zugänglich gemacht werden sollte, wird erstmal unterbrochen; ob er realisiert werden kann oder nicht, liegt nicht in der Macht dessen, der sich zu äußern versuchte, sondern bei einer ungreifbaren dritten Instanz.
    Es fühlt sich an wie Zensur. Es ist Zensur. Die Nutzer, die solchen Eingriffen in ihre Äußerungsfreiheit unterliegen, verhalten sich, wenn sie trotz der zu erwartenden Eingriffe des Zensors bestimmte Kommunikationsabsichten verfolgen, gerade so wie Leute, denen bewußt ist, daß sie einem Zensurregime unterliegen.
    Auch aus der Perspektive des Nutzungsinteressenten, der im Internet nach etwas sucht, wird das eingeschränkte Spektrum der zugänglichen Informationen und Materialien als zensierte Öffentlichkeit erfahren. Ein Versuch, an einer netzvermittelten Kommunikation teilzunehmen, wird unter Umständen enttäuscht, weil irgendwelche für den Nutzungsinteressenten nicht erkennbare Akteure im Hintergrund aus oft nicht nachvollziehbaren Gründen dafür gesorgt haben, daß der betreffende Inhalt gar nicht oder nur zu prohibitiven Konditionen im Netz gefunden werden kann.

    Wie weit reicht das Zensurverbot bzw. die kontrafaktisch-normative Behauptung aus Art. 5 Abs. 1 S. 3 GG: „Eine Zensur findet nicht statt“? Handelt es sich, wie Prof. Elbel in der Spur von Art. 1 Abs 3 GG die Bestimmung auslegt, ausschließlich um eine Einschränkung des Spielraums staatlicher Instanzen zur Kontrolle der öffentlich zugänglichen Informationen? Immerhin verpflichtet Art. 5 Abs. 1 GG den Staat zur aktiven Gewährleistung der Pressefreiheit, der Freiheit der Berichterstattung und der Meinungsfreiheit. Gemäß Art. 5 Abs. 2 GG gilt diese Freiheit nicht unbegrenzt; ausdrücklich werden der Jugendschutz und der Schutz der persönlichen Ehre gegen üble Nachrede bzw. Verleumdung als Grenzen der Meinungs- und Äußerungsfreiheit erwähnt. Aber welche weiteren allgemeinen Gesetze müssen als notwendige Einschränkungen der Meinungs-, Äußerungs- und Pressefreiheit akzeptiert werden? Und welche möglichen oder vorgeschlagenen Gesetze wären unzulässig, weil sie mit der Garantie aus Art. 5 Abs. 1 GG oder den (nicht der Einschränkung aus Art. 5 Abs. 2 unterliegenden) bereichsspezifischen Garantien der Kunst- und der Wissenschaftsfreiheit kollidieren?
    Das sind grundlegende politische Fragen, über die der Gesetzgeber unter Beachtung der verfassungsrechtlichen Ordnung zu entscheiden hat. Ob die Entscheidung des Gesetzgebers für eine bestimmte Einschränkung der Meinungs- und Äußerungsfreiheit oder der Kunstfreiheit mit dem Grundgesetz vereinbar ist, kann unter Umständen zum Gegenstand eines Rechtsstreits und ggf. einer gerichtlichen Überprüfung vor dem Bundesverfassungsgericht werden und bei der europarechtlichen Dimension des vorliegenden Richtlinienentwurfs letztlich wohl vor dem Europäischen Gerichtshof.
    Auf einige Schwierigkeiten einer verfassungsrechtlichen Überprüfung des befürchteten (bzw. dann wohl eingetretenen) Eingriffs in Grund- und Freiheitsrechte hat Prof. Elbel in seinem Beitrag dankenswerterweise aufmerksam gemacht. Andere Fallkonstellationen wären denkbar, ohne daß hier der Ort wäre, in eine ausführlichere Diskussion möglicher Fälle einzutreten.

    Doch inwiefern ist überhaupt damit zu rechnen, daß aufgrund der vorgeschlagenen Richtlinie für die Nutzer spürbare Einschränkungen ihrer Freiheit, sich im Internet zu äußern und aus dem Internet zu informieren, eintreten werden?
    Das in der Diskussion zu Art. 13 Abs. 5 des Richtlinien-Entwurfs wiederholt aufgebrachte (und durch den Beitrag von Tim Kraut unterfütterte) Argument, keine Filter-Software sei in der Lage, zu erkennen, daß statt einer (mit Recht zu unterbindenden) Urheberrechtsverletzung tatsächlich eine gesetzlich erlaubte Parodie oder ein Zitat vorliegt, versucht Elbel abzutun mit der schlichten Frage: „warum sollte eine KI nicht den Unterschied zwischen Original und Teilmenge des Originals erkennen“. – Das weckt Zweifel nicht nur am Verständnis des Autors für die technischen Schwierigkeiten der maschinellen Klassifikation großer Datenkorpora, sondern auch daran, ob er den Begriff des (nach § 51 UrhG und Art. 9 Abs. 2 RBÜ und dementsprechend auch nach Art. 13 Abs 5 des zur Abstimmung stehenden Richtlinientextes) zustimmungsfrei zulässigen Zitats überhaupt verstanden hat.

    Nicht jede Teilmenge (bzw. Teilkopie) eines Originals ist ein Zitat und nicht jedes Zitat ist eine Teilmenge bzw. Teilkopie eines Originals. Wenn im Radio aus einer Aufnahme einer Aufführung einer klassischen Symphonie nur der 3. Satz gespielt wird, ist auch das zwar eine Teilkopie bzw. partielle Wiedergabe, aber kein Zitat, während es andererseits durchaus Zitate früherer Musikstücke in späteren Musikstücken gibt, die in unterschiedlicher Weise in das aufnehmende Stück integriert sein können – als nachgespielte Melodie, rhythmische Anspielung, Sound-Sample in einer elektronischen Komposition oder auf andere Weise.
    Nicht alles, was zitiert wird, ist überhaupt ein „Original“ in irgendeinem nachvollziehbaren Sinn des Wortes. Juristen z.B. zitieren ständig rechtliche Normen, aber wenn sie das Grundgesetz zitieren, dann nicht nach dem Original von 1949, sondern nach der gültigen Fassung. Vieles, was wir zitieren, ist Gemeingut unklarer Provenienz, usw.
    Nicht jedes Zitat gibt von der zitierten Vorlage nur einen Teil wieder. Es gibt auch Ganz-Zitate, z.B. von Bildern, die im Rahmen eines kunstkritischen oder kunstwissenschaftlichen Aufsatzes zur Veranschaulichung dessen, wovon in dem Text die Rede ist, abgebildet werden.
    Ob etwas, das eine Musterabgleich- oder Plagiatsprüfungs-Software als Vorkommnis bzw. Kopie oder Teilkopie einer bekannten Buchstaben- oder Pixel-Konfiguration einstuft, ein Zitat der Vorlage ist – und ob es ggf. ein genehmigungsfrei zulässiges Zitat im Sinne von § 51 UrhG ist –, läßt sich nicht anhand quantitativer Verhältnisse automatisiert entscheiden. Es kann nur auf dem Weg einer Beurteilung des fraglichen Textes und Kontextes durch einen kompetenten Leser (Betrachter, Hörer…) ermessen werden. (Zur Diskussion über Zitat und Teilkopie vgl. Thomas Dreier, „The Ethics of Citation and Partial Copying“, ebenfalls im Jahrbuch für Recht und Ethik [26 / 2018]).
    Die Gefahr des Overblocking durch Filteralgorithmen scheint demnach, wenn die Plattformen sich rechtlich genötigt sehen, sie einzusetzen, kaum vermeidbar.

    Auch die „Entwarnung“, die Herr Elbel am Schluß seines Beitrags zu geben versucht, liest sich in der Sache wenig beruhigend – eher wie ein Versuch, die Kritiker des Richtlinienentwurfs einzuschüchtern: Das BVerfG müßte im Streitfall die grundrechtlich geschützten Interessen, deren Verletzung die Beschwerdeführer monieren könnten (hier Art. 5 Abs. 1 GG), abwägen gegen die ebenfalls grundrechtlich geschützten Interessen der Rechteinhaber an einer effektiveren Verwertung der Urheberrechte (unter Verweis auf Art. 14 Abs. 1 GG), und angesichts der Zusammensetzung des Gerichts sei zu erwarten, daß es den Nutzen für die Rechteinhaber gegenüber dem Schaden, der den Beschwerdeführern zugemutet wird, als das höhere Rechtsgut einschätzen werde.

    Erst Sie, Herr Hornschuh, versuchen dankenswerter Weise zu erklären, warum die Sorgen der meisten, die fürchten, Art. 13 werde das Ende des freien Internet herbeiführen, unbegründet seien. Wie Gerhard Pfennig und andere Unterstützer des Richtlinien-Entwurfs v.a. aus dem Kreis der Verwertungsgesellschaften geben Sie zu bedenken (3. März 2019 um 22:56 Uhr), wenn man nur einmal die Reichweite von Art. 9a verstanden hätte, könnte man einsehen, daß die von den Kritikern des Richtlinien-Entwurfs vorgetragenen Einwände und Zensurbedenken gegenstandslos seien: Die Schwierigkeit, zu jedem Bild, jedem Musiksample, jedem Textschnipsel, das irgend jemand hochladen möchte, (1) ggf. die Quelle und (2) die Rechteinhaber zu ermitteln sowie (3) eine Lizenz zu erwerben oder (4) ggf. zu sperren, was nicht lizensiert werden konnte, werde einfach dadurch entfallen, daß die Verwertungsgesellschaften nach Art. 9a ermächtigt werden, sehr weitreichende (im Preis vmtl. der Reichweite und den wirtschaftlichen Möglichkeiten der jeweiligen Lizenznehmer angepaßte) Pauschallizenzen für alle möglichen Inhalte (oder zumindest für alle Inhalte, die nicht im Katalog von der großen Medienkonzerne gelistet sind) zu verkaufen, ohne daß die VG noch im einzelnen nachweisen müßten, daß sie durch die Inhaber der Urheberrechte an den betreffenden Werken mandatiert sind („extended collective licensing“).

    Art. 9a, der – teilweise aufbauend auf der bereits in Art. 7 des Kommissionsentwurfs im Hinblick auf die Lizensierung verwaister Werke eingeführten Legitimationskonstruktion – erst im Mai 2018 durch die im Rat der EU vertretenen Regierungen in den Gesetzgebungsprozeß eingebracht wurde (doc. 9134/18, S. 51 f.), ist in der Tat ein weitreichender Coup.
    Ich wundere mich ein wenig, daß die sonst so aufmerksame Julia Reda (in ihrem von Kommentator „unglaublich“ verlinkten Tweet vom 27. 2.) die Reichweite der Bestimmung nicht erkannt zu haben scheint bzw. bestreitet und ihre Anwendbarkeit in dem von Ihnen skizzierten Sinn nicht einmal diskutiert.

    In einer längeren urheberrechtsgeschichtlichen Perspektive könnte man eine Parabel skizzieren: Vom territorial begründeten Privileg der frühen Neuzeit über das individualistische, autor- bzw. werkzentrierte Urheberrecht des 19. und 20. Jh. mit (im 20. Jh. durchgesetzter) transnationaler Geltung nun in gewissem Sinn zurück zur territorialen Lizenz, allerdings nicht mehr für einzelne Werke, sondern als pauschale Marktzutrittsgebühr für Online Distributionsanbieter. Der Weg des „extended collective licensing“, der hier konsequent weiterverfolgt wird, ist kein völliges rechtliches Neuland, sondern ansatzweise bereits seit den 1960er Jahren mit der Leercassettenabgabe und den weiteren sukzessive eingeführten Abgaben auf Kopiergeräte, Speichermedien usw. eingeleitet worden.

    So sehr mir das Anliegen der Finanzierung von Künstlern und Autoren persönlich am Herzen liegt, kann ich doch als Rechtsphilosoph eine gewisse Schwierigkeit nicht verhehlen, die Legitimität der Ansprüche, die von den Verwertungsgesellschaften gem. Art. 9a gegenüber den OSP geltend sollen gemacht werden können, einzusehen. Denn das Gut, das die Verwertungsgesellschaften bewirtschaften, wird durch diese rechtliche Konstruktion unter der Hand ein anderes: Ursprünglich waren Verwertungsgesellschaften Vereine von Urhebern bzw. Rechteinhabern zur kollektiven Durchsetzung ihrer Rechte gegenüber Nutzern, mit denen je im einzelnen Verträge abzuschließen für den einzelnen Urheber zu kompliziert und zeitraubend wäre (Modell SACEM). Doch wenn ihnen durch den Gesetzgeber das Recht zugewiesen wird, von allen Computer- oder Smartphone-Käufern und nun auch von allen OSP pauschale Abgaben zu erheben, die nicht auf konkrete Ansprüche aus einzelnen Nutzungshandlungen bestimmter Werke von Mitgliedern der Wahrnehmungsgesellschaft durch die mit der Abgabe belegten Nutzer zurückgeführt werden können und müssen, dann bewegen wir uns nicht mehr auf der Grundlage des Urheberrechts (im Sinne der Verwertungsrechte des Urhebers an seinen Werken) und auch nicht mehr in einem Bereich, der – wie metaphorisch auch immer – auf Eigentumsrechte im Sinn von Art. 14 GG bezogen werden kann, sondern es scheint sich um eine andere Art von Regime zu handeln, das eher in Begriffen der zur Erhebung von Steuern berechtigten Gebietskörperschaften oder vielleicht einer neofeudalen Ständeordnung erfaßt werden kann.

    Die Vertreter der Verwertungsgesellschaften geben gern an, sie verträten ca. 60 oder gar 70 % der Urheber von Werken der Klasse, für die sie sich jeweils für zuständig erklären. Im Bereich der Komponisten und Textdichter mag das für die GEMA zutreffen, für die VG Wort und die VG Bild-Kunst in den Bereichen, für die sie Zuständigkeit und Alleinvertretungsansprüche reklamieren, kaum und auch bei der GVL, die sich um die Ansprüche aus Leistungsschutzrechten der ausübenden Musiker, Schauspieler, Musikproduzenten usw. kümmert, wäre ich skeptisch, freilich ohne eine valide Erhebung zu kennen. Grundsätzlich muß man sich klar machen, daß in den Verwertungsgesellschaften in Deutschland vielleicht 800000 Urheber bzw. Künstler oder deren Erben vertreten sind, während urheberrechtlich geschützte Werke durch das Schreiben von Texten oder simples Drücken des Kamera-Auslösers auf dem Smartphone wie auch durch künstlerisch oder wissenschaftlich anspruchsvollere Tätigkeiten täglich millionenfach geschaffen werden. Die durch die Verwertungsgesellschaften vertretenen Künstler und Urheber stellen weniger als 1% der urheberrechtlich geschützte Werke schaffenden Personen und weniger als 10 % der aktiv von Upload-Funktionen Gebrauch machenden Internet-Nutzer dar, mag es sich auch um eine qualifizierte Minderheit mehr oder weniger professioneller Künstler bzw. Autoren handeln, deren wirtschaftliche Lage in vielen Fällen prekär ist und häufig in keinem Verhältnis zur kulturellen Relevanz ihres Schaffens steht.

    Der Plan der Verwertungsgesellschaften – und nun auch der Befürworter des Richtlinien-Entwurfs – läuft darauf hinaus, die Rechte aus Art. 9a in Verbindung mit Art. 13 zu nutzen, um flächendeckend Lizenzgebühren auch für all die Sachen einzutreiben, die bisher von ihren unprofessionellen oder auf Creative Commons-Lizenzen setzenden Urhebern unentgeltlich bereitgestellt worden sind. Sollte es so kommen, wie von den Verwertungsgesellschaften und vielen ihrer Mitglieder erhofft, schiene in der Tat eine sprunghafte und substanzielle Steigerung der Einnahmen realistisch, so daß es möglich sein sollte, aus dem derart gesteigerten Kuchen einerseits für die in den Verwertungsgesellschaften organisierten mehr oder weniger professionellen Künstler bzw. Autoren eine merkliche Steigerung ihrer Ausschüttungsbeträge zu erreichen, andererseits (Art. 12) auch die Verlage wieder zu beschenken, die nach geltender Rechtslage seit der Reprobel-Entscheidung des EuGH keinen Anspruch auf die nur den Urhebern zustehenden Ausschüttungen der Verwertungsgesellschaften haben, und last not least auch den Mitarbeitern der Verwertungsgesellschaften die Arbeit erheblich zu erleichtern und höhere Gehälter zu gewähren.

    Die Aufgabe, die die Uploadfilter dann noch bewältigen müssen, scheint unter dem von Ihnen skizzierten Modell nicht mehr völlig unlösbar, weil der Abgleich mit der nicht existierenden und nie zu vervollständigenden Datenbank aller urheberrechtlich geschützten Werke sowie mit der ebenfalls nicht existierenden und nie zu vervollständigenden Datenbank aller gemeinfreien Werke und Materialien nicht mehr erforderlich wäre. Es genügt der Abgleich mit dem Katalog der Werke, für die ggf. mit einem Major-Medienunternehmen (Disney, Time-Warner, Fox, Sony, BMG…) gesonderte Lizenzverträge mit nutzungsabhängiger Vergütung bestehen oder abgeschlossen werden müßten, sowie mit der Negativliste der Werke, von denen bekannt ist, daß die Rechteinhaber eine Verbreitung über diese Plattform untersagt haben. Der Rest fiele ohne Einzelfallprüfung unter die Lumpensammler-Pauschallizenzen für Musik (GEMA), Text (VG Wort), Bild (VG Bild-Kunst), Performer (GVL), Bewegtbild (da könnte es schwierig werden, den zu privilegierenden Nationallizenz-Kontrahenten auszukegeln, aber vielleicht haben die auch ihre Turfs längst abgesteckt und einigen sich auf einen Verteilungsschlüssel, mit dem sie alle am großen Kuchen beteiligt werden können) und VG Media (Art. 11).

    Das Problem der Zensur durch Uploadfilter reduzierte sich unter einem derartigen System auf die Fälle, wo einzelne Werke (oder auch umfangreichere Kataloge von Werken) durch die Rechteinhaber ausdrücklich aus der Pauschallizenz ausgenommen wurden und wo die Rechteinhaber die Plattform benachrichtigt haben, daß die betreffenden Werke nicht durch die Plattform öffentlich zugänglich gemacht werden dürfen, bei Androhung empfindlicher Schadensersatzforderungen. Wo der Nutzer kein Recht hat, das fremde geschützte Werk hochzuladen, hat er auch kein Recht, sich über eine Einschränkung seiner Kommunikationsfreiheit zu beklagen.
    Von Zensur kann und muß man jedoch in den Fällen sprechen, wo die Uploadfilter Sprechakte bzw. Veröffentlichungshandlungen unterbinden oder erschweren, zu denen die betreffenden Nutzer tatsächlich von Rechts wegen berechtigt gewesen wären. Auch bei rechtlich zulässigen Bezugnahmen auf Werke, deren Verbreitung über die Plattform untersagt ist, im Rahmen des Zitatrechts, der Parodie-Schranke oder anderer Schranken des Urheberrechts ist nach dem, was Tim Kraut ausgeführt hat, Overblocking wahrscheinlich.

    Ein ernstzunehmendes Problem sind zudem die Mißbrauchspotentiale durch unberechtigte Löschanträge, die bereits bei den Löschpflichten nach NetzDG oder auch im „Notice-and-take-down“-System nach US-amerikanischem DMCA beobachtet wurden und in letzter Zeit anscheinend verstärkt Probleme bereiten.

    Das von Kritikern des Regelungsansatzes aus Art. 13 monierte Problem der Vorzensur ist demnach realistisch, wenn es auch im Umfang nicht so verbreitet sein mag, wie manche befürchten.
    Die Beschwerde- und Abhilfe-Mechanismen, die die Plattformen nach Art. 13 Abs. 8 für Nutzer, deren Inhalte zu Unrecht blockiert wurden, bereithalten müssen, können da nur einen schwachen Trost bieten, zumal es in der Online-Kommunikation oft sehr darauf ankommt, zu welchem Zeitpunkt welches Angebot an welcher Stelle zu finden ist.

    Die aller Voraussicht nach größte Beeinträchtigung der Meinungsfreiheit, die zu befürchten ist, falls Art. 13 im EU Parlament beschlossen werden sollte, dürfte jedoch weniger in der Zensur einzelner hochgeladener Dateien liegen, als vielmehr darin, daß die meisten Plattformen, die unter die Kriterien aus Art. 2 Abs. 5 fallen, wirtschaftlich und organisatorisch nicht in der Lage sein dürften, den Pflichten aus Art. 13 Abs. 4 zu genügen, was zur Folge haben wird, daß sie entweder den Betrieb ganz einstellen oder zumindest ihren Nutzern die Möglichkeit, bestimmte Inhalte öffentlich mit anderen zu teilen, nicht mehr anbieten können. Auf diese Konsequenz der Beschlußvorlage hat auch hier im Forum schon Paul Schmidt (4. März 2019 um 12:28 Uhr) hingewiesen.

    Deshalb sollte – trotz der verständlich erscheinenden großen Hoffnungen und Begehrlichkeiten unter den Vertretern und etlichen Mitgliedern der Verwertungsgesellschaften, die sich auf den europäischen Regelungsansatz zur Plattformregulierung richten – Art. 13 in der vorliegenden Form abgelehnt werden; die zu erwartenden Schäden stehen bei nüchterner Abwägung in keinem Verhältnis zu den zu erwartenden Verbesserungen.

    Mit besten Grüßen
    Eberhard Ortland

    1. Hallo Herr Ortland,

      danke für Ihren Kommentar. Ich habe ihn mit Gewinn gelesen, stimme Ihnen gleichwohl in einigen zentralen, ausschlaggebenden Punkten nicht zu.
      Ich will gerne versuchen, das in den kommenden Tagen zu formulieren, stecke jedoch mitten in den Aufnahmen zu einer Filmmusik und werde daher möglicherweise ein bisschen Zeit brauchen.

      Viele Grüße
      Matthias Hornschuh

      1. Lieber Herr Hornschuh,

        für Ihre Filmmusik wünsche ich Ihnen viel Erfolg!

        Zur Vertiefung der Debatte über die Problematik von Art. 13 fand ich einstweilen diese Seite des „Science Media Center“ mit Stellungnahmen von sieben Medienrechtlern bzw. IT-Fachleuten recht aufschlußreich:

        Sie mögen vielleicht einwenden, daß die eine oder andere Einschätzung, die da vorgetragen wird, auf einem Mißverständnis beruhe; in manchen Punkten würde ich Ihnen sogar recht geben, an anderen vermutlich weniger. Aber liegt es an der mangelnden Sorgfalt der Kritiker, wenn sie den Text der Vorlage widersprüchlich, unklar oder bedenklich finden – oder daran, daß die Vorlage elementaren Anforderungen normativer Klarheit nicht genügt?

        Auch der Sonderberichterstatter der Vereinten Nationen für Meinungs- und Äußerungsfreiheit, Prof. David Kaye, hat am 11. 3. zu dem Entwurf für eine neue europäische Richtlinie Stellung genommen:
        “Article 13 of the proposed Directive appears destined to drive internet platforms toward monitoring and restriction of user-generated content even at the point of upload. Such sweeping pressure for pre-publication filtering is neither a necessary nor proportionate response to copyright infringement online.”
        “In the long run, this would imperil the future of information diversity and media pluralism in Europe, since only the biggest players will be able to afford these technologies.”

        Deshalb sollte das Parlament die Zusammenarbeit mit einschlägig qualifizierten „digital rights groups, artists, journalists and other representatives of civil society“ suchen, um die angesprochenen Probleme zu vermeiden und anschließend eine Richtlinie beschließen zu können, die die Menschenrechte der europäischen Bürger nicht in dieser Weise mißachtet.

        Den hier nochmal eingeforderten Konsultationsprozeß gab es im Vorfeld des Kommissionsvorschlags. Die genannten Stakeholder hatten, wie auch die Lobbyisten der betroffenen Industrien, in den letzten 2 Jahren hinreichend Gelegenheit, ihre Vorstellungen, Wünsche und Kritikpunkte einzubringen.

        Nun ist es an den Abgeordneten, zu entscheiden. Wir müssen darauf hoffen, daß hinreichend viele unter ihnen sich die Mühe machen, zu verstehen, womit sie es hier zu tun haben, und eine Lösung zu erarbeiten, die allen Beteiligten Rechtssicherheit bietet und die Meinungs-, Äußerungs-, Kunst- und Wissenschaftsfreiheit respektiert, statt diese (vielleicht unbeabsichtigterweise) verheerende Vorlage – mit „Bauchschmerzen“ oder im festen Glauben, etwas Gutes zu tun – durchzuwinken.

        Die Einpeitscher im Parlament sagen: Nach dem Abschluß des Trilogs kann an der Vorlage nichts mehr geändert werden. – Dann muß man sie ablehnen.

        Im Anschluß daran wird die Arbeit an einer besseren Regelung der anstehenden Fragen im Urheberrecht wieder aufgenommen werden müssen, möglicherweise mit einem nach der Wahl im Mai neu zusammengesetzten Parlament.

        Mit besten Wünschen
        Eberhard Ortland

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

I accept that my given data and my IP address is sent to a server in the USA only for the purpose of spam prevention through the Akismet program.More information on Akismet and GDPR.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.