Het idee van een open “wereldwijd” internet blijft maar onderhevig aan aanvallen – en de ergste vijand is niet eens China of Rusland, maar de Europese Unie. We hebben al vaker zaken besproken zoals de EU-auteursrechtrichtlijn en de verordening over terrorismebestanden, maar het lijkt wel of er elke dag iets nieuws en belachelijkers moet komen – en dat laatste is weer eens afkomstig van het Hof van Justitie van de EU.
Het idee van een open “wereldwijd” internet blijft maar onderhevig aan aanvallen – en de ergste vijand is niet eens China of Rusland, maar de Europese Unie. We hebben al vaker zaken besproken zoals de EU-auteursrechtrichtlijn en de verordening over terrorismebestanden, maar het lijkt wel of er elke dag iets nieuws en belachelijkers moet komen – en dat laatste is weer eens afkomstig van het Hof van Justitie van de EU (HvJEU), dat steeds vaker een bolwerk blijkt te zijn van overdreven wetten (met vèrstrekkende gevolgen) met betrekking tot het internet, en soms (te vaak, helaas) lijken dingen echt, ècht verkeerd te gaan (bijvoorbeeld het “recht om te worden vergeten” dat zou moeten worden toegepast op zoekmachines – inderdaad een verschrikkelijk voorbeeld).
Een artikel over hoe er in de EU gedacht wordt over informatie op het internet – met veel ambtelijke teksten (dat wel), maar met een verrassende (anti-)climax.
En nu heeft de advocaat-generaal van het Hof van Justitie van de EU een aanbeveling gedaan in een nieuwe zaak die enorm problematisch zou zijn voor het idee van een wereldwijd open internet – een internet dat lijkt te worden kapotgemaakt met censuurfilters.
De aanbevelingen van de advocaat-generaal zijn vooralsnog slechts dàt: aanbevelingen voor het HvJEU, om te overwegen alvorens een definitieve uitspraak te doen. Zoals we echter in het verleden hebben opgemerkt volgt het HvJ vaak de aanbevelingen van de advocaat-generaal vaak op. Niet altijd. Maar wel vaak.
De zaak waar het hier om gaat (document hier, in veel talen vertaald maar niet in het nederlands) betreft een poging om Facebook ertoe aan te zetten kritieke informatie van een politicus in Oostenrijk te verwijderen, onder de Oostenrijkse wetgeving. In de VS zijn socialemediabedrijven natuurlijk niet verplicht om dergelijke informatie te verwijderen. De inhoud zèlf wordt meestal beschermd door het Eerste Amendement van de Grondwet en de platforms worden dan beschermd door Sectie 230 van de “Communications Decency Act” (CDA 230), waardoor ze niet aansprakelijk kunnen worden gesteld, zelfs als de inhoud in kwestie de wet overtreedt (hoewel, belangrijker, de meeste platforms zullen dergelijke inhoud nog steeds verwijderen als door een rechtbank is vastgesteld dat de wet is overtreden).
In de Europese Unie is de aansprakelijkheid tussen personen aanzienlijk zwakker geregeld, en daarnaast kennen wij (helaas) niet zoiets als het “First Amendment”.
Volgens de regels van de E-commerce richtlijn is er een uitzondering op aansprakelijkheid, maar het is veel meer vergelijkbaar met de veilige havens van de DMCA voor auteursrechtelijk inbreukmakend materiaal in de VS.
Dat wil zeggen, de vrijstellingen van aansprakelijkheid komen alleen voor als het platform geen kennis heeft van de “illegale activiteit” en als zij dergelijke kennis opdoet moet zij de inhoud verwijderen. Er is ook een verbod op een vereiste “algemene bewaking” (bijvoorbeeld filters).
In de betreffende zaak had iemand op Facebook een link geplaatst naar een artikel over een Oostenrijkse politica, Eva Glawischnig-Piesczek, en een paar opmerkingen daar aan toegevoegd, samen met de link. Concreet publiceerde die Facebook-gebruiker ook, in verband met dat artikel, een begeleidende minachtende opmerking over de aanvrager die haar ervan beschuldigde een “waardeloze verrader van het volk” te zijn, een “corrupte lafaard” en een lid van een “fascistische partij”.
That user also published, in connection with that article, an accompanying disparaging comment about the applicant accusing her of being a ‘lousy traitor of the people’, a ‘corrupt oaf’ and a member of a ‘fascist party’.
Vrij vertaald:
Die gebruiker publiceerde ook, in verband met dat artikel, een begeleidende minachtende opmerking over de aanvrager die haar ervan beschuldigde een “waardeloze verrader van het volk” te zijn, een “corrupte lafaard” en een lid van een “fascistische partij”.
In de VS – sommige idiote rechtszaken daar gelaten – zouden dergelijke verklaringen duidelijk worden beschermd door het Eerste Amendement. Maar blijkbaar niet in Oostenrijk. En dan is er ook nog de kwestie van de verantwoordelijkheid van Facebook.
Een Oostenrijkse rechtbank heeft Facebook gelast de inhoud te verwijderen, waaraan zij heeft voldaan door de toegang ertoe aan iedereen in Oostenrijk te ontzeggen. De oorspronkelijke eis was dat Facebook moet voorkomen dat “gelijkwaardige inhoud” ook verschijnt.
In hoger beroep legde een rechtbank het verzoek van Facebook dat het alleen in Oostenrijk aan de uitspraak hoefde te voldoen, naast zich neer, waarbij Facebook ook zei dat dergelijke “gelijkwaardige inhoud” alleen kon worden beperkt tot gevallen waarin iemand Facebook op de hoogte bracht van de “gelijkwaardige inhoud” die werd gepost (en dat er voor Facebook dus geen algemene monitoringvereiste gold).
Van hieruit ging de zaak naar het Hof van Justitie van de EU, die werd gevraagd om te bepalen of een dergelijke blokkering algemeen moet zijn en hoe met de vraag met betrekking tot “gelijkwaardige inhoud” moet worden om gegaan.
En dan begint eigenlijk alles uit de hand te lopen. Allereerst lijkt de advocaat-generaal te denken dat – zoals veel misleide mensen met betrekking tot CDA 230 – er een soort van “neutraliteitsvereiste” is voor internetplatforms en dat het houden van enige vorm van toezicht hun “veilige havens” kan verliezen omdat die niet langer neutraal zouden zijn.
Zo dom…. daar kunnen we met de pet niet bij.
It should be observed that Article 15(1) of Directive 2000/31 prohibits Member States from imposing a general obligation on, among others, providers of services whose activity consists in storing information to monitor the information which they store or a general obligation actively to seek facts or circumstances indicating illegal activity. Furthermore, it is apparent from the case-law that that provision precludes, in particular, a host provider whose conduct is limited to that of an intermediary service provider from being ordered to monitor all (9) or virtually all (10) of the data of all users of its service in order to prevent any future infringement.
If, contrary to that provision, a Member State were able, in the context of an injunction, to impose a general monitoring obligation on a host provider, it cannot be precluded that the latter might well lose the status of intermediary service provider and the immunity that goes with it. In fact, the role of a host provider carrying out general monitoring would no longer be neutral. The activity of that host provider would not retain its technical, automatic and passive nature, which would imply that that host provider would be aware of the information stored and would monitor it.
Opgemerkt zij dat artikel 15, lid 1, van richtlijn 2000/31 de lidstaten verbiedt een algemene verplichting op te leggen aan onder meer aanbieders van diensten waarvan de activiteit bestaat in het opslaan van informatie om toezicht te houden op de informatie die zij opslaan of een algemene verplichting om feiten of omstandigheden te zoeken die duiden op illegale activiteiten. Bovendien blijkt uit de rechtspraak dat deze bepaling met name een aanbieder van hosts verbiedt waarvan het gedrag zich beperkt tot dat van een intermediaire dienstverlener om alle (9) of vrijwel alle (10) gegevens te controleren van alle gebruikers van zijn dienst om toekomstige inbreuken te voorkomen.
Indien, in afwijking van deze bepaling, een lidstaat in het kader van een verbodsactie een algemene monitoringverplichting aan een hostprovider zou kunnen opleggen, kan niet worden uitgesloten dat laatstgenoemde de status van intermediaire dienstverlener en de bijbehorende immuniteit zou verliezen. In feite zou de rol van een host-provider door die algemene monitoring niet langer neutraal zijn. De activiteit van die host-provider zou zijn technische, automatische en passieve aard niet behouden, wat zou inhouden dat die host-provider op de hoogte zou zijn van de opgeslagen informatie en deze zou controleren.
En nu? Het klopt dat algemene monitoring volgens de wet niet verplicht is (en expliciet wordt verworpen), maar het logische gevolg dat het besluit om algemene monitoring uit te schakelen uw “veilige havens” vernietigt is…. waanzin. Hier zegt de advocaat-generaal feitelijk dat we geen algemene monitoringverplichting kunnen hebben (wat een goede zaak is), omdat dit strijdig zou zijn met de eis van platforms om neutraal te zijn (wat raar is).
Admittedly, Article 14(1)(a) of Directive 2000/31 makes the liability of an intermediary service provider subject to actual knowledge of the illegal activity or information. However, having regard to a general monitoring obligation, the illegal nature of any activity or information might be considered to be automatically brought to the knowledge of that intermediary service provider and the latter would have to remove the information or disable access to it without having been aware of its illegal content. (11) Consequently, the logic or relative immunity from liability for the information stored by an intermediary service provider would be systematically overturned, which would undermine the practical effect of Article 14(1) of Directive 2000/31.
In short, the role of a host provider carrying out such general monitoring would no longer be neutral, since the activity of that host provider would no longer retain its technical, automatic and passive nature, which would imply that the host provider would be aware of the information stored and would monitor that information. Consequently, the implementation of a general monitoring obligation, imposed on a host provider in the context of an injunction authorised, prima facie, under Article 14(3) of Directive 2000/31, could render Article 14 of that directive inapplicable to that host provider.
I thus infer from a reading of Article 14(3) in conjunction with Article 15(1) of Directive 2000/31 that an obligation imposed on an intermediary service provider in the context of an injunction cannot have the consequence that, by reference to all or virtually all of the information stored, the role of that intermediary service provider is no longer neutral in the sense described in the preceding point.
Toegegeven, artikel 14, lid 1, onder a), van richtlijn 2000/31 maakt de aansprakelijkheid van een intermediaire service provider afhankelijk van de feitelijke kennis van de illegale activiteit of informatie. Gelet echter op een algemene monitoringverplichting, kan het onwettige karakter van een activiteit of informatie worden beschouwd als automatisch ter kennis gebracht aan die intermediaire dienstverlener en deze laatste zou de informatie moeten verwijderen of de toegang ertoe moeten uitschakelen zonder zich bewust te zijn van zijn illegale inhoud. (11) Bijgevolg zou de logica of relatieve immuniteit van aansprakelijkheid voor de door een intermediaire service provider opgeslagen informatie systematisch worden vernietigd, hetgeen de praktische gevolgen van artikel 14, lid 1, van richtlijn 2000/31 zou ondermijnen.
Kortom, de rol van een host-provider die dergelijke algemene monitoring uitvoert, zou niet langer neutraal zijn, aangezien de activiteit van die host-provider niet langer zijn technische, automatische en passieve karakter zou behouden, wat zou impliceren dat de host-provider op de hoogte zou zijn van de opgeslagen informatie en die informatie zou controleren. Bijgevolg zou de toepassing van een algemene monitoringverplichting, opgelegd aan een host-provider in de context van een bevel dat op het eerste gezicht wordt toegestaan op grond van artikel 14, lid 3, van richtlijn 2000/31, ertoe kunnen leiden dat artikel 14 van die richtlijn niet van toepassing is op die host provider.
Uit een lezing van artikel 14, lid 3, in samenhang met artikel 15, lid 1, van richtlijn 2000/31 leid ik dus af dat een verplichting die een intermediaire service provider in het kader van een bevel is opgelegd, niet tot gevolg kan hebben dat, door verwijzing naar alle of vrijwel alle opgeslagen informatie, de rol van die intermediaire service provider niet langer neutraal is in de zin zoals beschreven in het vorige punt.
Dus de advocaat-generaal komt tot een goed resultaat, maar wel door gruwelijk slechte redeneringen.
Hoewel de advocaat-generaal de algemene bewaking verwerpt, gaat de advocaat-generaal verder met te vertellen waarom meer specifieke monitoring en censuur waarschijnlijk prima en netjes is, met een beetje vreemd zijstraatje over hoe de “duur” van de monitoring het goed kan maken. Het belangrijkste punt is echter dat de advocaat-generaal er geen moeite mee heeft om te zeggen dat zodra iets als “inbreukmakend” wordt beschouwd, het op het internetplatform een vereiste kan zijn om nieuwe informatie van dezelfde inhoud te verwijderen:
In fact, as is clear from my analysis, a host provider may be ordered to prevent any further infringement of the same type and by the same recipient of an information society service. (24) Such a situation does indeed represent a specific case of an infringement that has actually been identified, so that the obligation to identify, among the information originating from a single user, the information identical to that characterised as illegal does not constitute a general monitoring obligation.
To my mind, the same applies with regard to information identical to the information characterised as illegal which is disseminated by other users. I am aware of the fact that this reasoning has the effect that the personal scope of a monitoring obligation encompasses every user and, accordingly, all the information disseminated via a platform.
Nonetheless, an obligation to seek and identify information identical to the information that has been characterised as illegal by the court seised is always targeted at the specific case of an infringement. In addition, the present case relates to an obligation imposed in the context of an interlocutory order, which is effective until the proceedings are definitively closed. Thus, such an obligation imposed on a host provider is, by the nature of things, limited in time.
Zoals uit mijn analyse blijkt, kan namelijk een host-provider worden gelast om elke verdere inbreuk van hetzelfde type en van dezelfde ontvanger van een informatiedienst te voorkomen. (24) Een dergelijke situatie vertegenwoordigt inderdaad een specifiek geval van een daadwerkelijk vastgestelde inbreuk, zodat de verplichting om van de informatie afkomstig van een enkele gebruiker de identieke informatie te identificeren als die welke als illegaal wordt gekenmerkt, geen algemene bewakingsplicht vormt.
Naar mijn mening geldt hetzelfde voor informatie die identiek is aan de informatie die als illegaal wordt aangemerkt en die wordt verspreid door andere gebruikers. Ik ben me bewust van het feit dat deze redenering tot gevolg heeft dat de persoonlijke reikwijdte van een monitoringverplichting alle gebruikers omvat en, bijgevolg, alle informatie die via een platform wordt verspreid.
Niettemin is een verplichting om identieke informatie te zoeken en te identificeren die door de aangezochte rechter als illegaal is aangemerkt, altijd gericht op het specifieke geval van een inbreuk. Bovendien heeft de onderhavige zaak betrekking op een in het kader van een tussenvonnis opgelegde verplichting, die van kracht is totdat de procedure definitief is afgesloten. Een dergelijke verplichting die aan een host-provider wordt opgelegd, is dus naar zijn aard beperkt in de tijd.
En dan, gebaseerd op helemaal niets, komt de advocaat-generaal met de “magische software zal dit werk doen”-redenering, waarbij hij erop staat dat software-tools ervoor zullen zorgen dat de juiste inhoud correct wordt gecensureerd:
Furthermore, the reproduction of the same content by any user of a social network platform seems to me, as a general rule, to be capable of being detected with the help of software tools, without the host provider being obliged to employ active non-automatic filtering of all the information disseminated via its platform.
Bovendien lijkt de reproductie van dezelfde inhoud door elke gebruiker van een sociaal netwerkplatform in het algemeen te kunnen worden opgespoord met behulp van software-tools, zonder dat de host-provider verplicht is tot actieve niet-automatische filtering van alle informatie die verspreid is via zijn platform.
Deze verklaring klopt toch niet? Ten eerste wordt er gezegd dat het gebruik van software om te scannen naar dezelfde inhoud op de een of andere manier geen filter is. Maar dat is het wel. En vervolgens laat het zien dat er een echt misverstand bestaat over de effectiviteit van filters (en het vermogen van sommige om filters te misleiden). En er wordt niet gesproken over valse positieve zaken.
We bedoelen dat in dit geval er een politicus een corrupte lafaard genoemd. Hoe moet Facebook nu gedwongen worden om dat te blokkeren. Wordt vooortaan elk gebruik van de uitdrukking “corrupte lafaard” nu geblokkeerd? Misschien zou het “corrupte lafaard” wel juist zijn en zou de politicus, Eva Glawischnig-Piesczek, moeten worden geblokkeerd. Maar betekent het in dat geval dat dit artikel zèlf niet op Facebook kan worden geplaatst?
Vragen, vragen, vragen…
De advocaat-generaal dringt er dan op aan dat dit op de een of andere manier niet te belastend is (op basis van wat, precies?) en hij lijkt de fout te maken van veel niet-technische mensen, die denken dat filters (a) veel beter zijn dan ze zijn, en (b ) die niet altijd te maken hebben met grote grijze gebieden.
First of all, seeking and identifying information identical to that which has been characterised as illegal by a court seised does not require sophisticated techniques that might represent an extraordinary burden.
Allereerst vereist het zoeken en identificeren van informatie die identiek is aan hetgeen door een rechtbank als illegaal is aangemerkt, geen geavanceerde technieken die een buitengewone last kunnen vormen.
Misschien klopt dat wel voor Facebook – maar het zou zeker een veel grotere last kunnen zijn voor veel andere, kleinere providers.
Op het moment dat de advocaat-generaal klaar is met zeggen dat het filteren gemakkelijk is, blijkt uit de aanbeveling dat (oh ja!) context óók belangrijk kan zijn:
Last, such an obligation respects internet users’ fundamental right to freedom of expression and information, guaranteed in Article 11 of the Charter, in so far as the protection of that freedom need not necessarily be ensured absolutely, but must be weighed against the protection of other fundamental rights. As regards the information identical to the information that was characterised as illegal, it consists, prima facie and as a general rule, in repetitions of an infringement actually characterised as illegal. Those repetitions should be characterised in the same way, although such characterisation may be nuanced by reference, in particular, to the context of what is alleged to be an illegal statement.
Ten slotte eerbiedigt een dergelijke verplichting het grondrecht van de internetgebruikers op vrijheid van meningsuiting en informatie, gewaarborgd in artikel 11 van het Handvest, voor zover de bescherming van die vrijheid niet noodzakelijkerwijs absoluut moet worden gewaarborgd, maar moet worden afgewogen tegen de bescherming van andere fundamentele rechten. Wat de informatie betreft die identiek is aan de informatie die als onwettig werd aangemerkt, bestaat deze op een eerste indruk en in de regel in herhalingen van een inbreuk die feitelijk als illegaal wordt aangemerkt. Die herhalingen moeten op dezelfde manier worden gekarakteriseerd, hoewel een dergelijke karakterisering genuanceerd kan worden door verwijzing, in het bijzonder naar de context van wat als een onwettige verklaring wordt beschouwd.
Het volgende is de kwestie van het blokkeren van “gelijkwaardige inhoud”. De advocaat-generaal merkt terecht op dat het bepalen van wat wel en wat niet “gelijkwaardig” is een hele uitdaging vormt – en op zijn minst probeert te beperken wat kan worden bevolen te worden geblokkeerd, door te zeggen dat het alléén zou moeten gelden voor inhoud van dezelfde gebruiker en dat een uitspraak specifiek moet zijn in wat moet worden geblokkeerd:
I propose that the answer to the first and second questions, in so far as they relate to the personal scope and the material scope of a monitoring obligation, should be that Article 15(1) of Directive 2000/31 must be interpreted as meaning that it does not preclude a host provider operating a social network platform from being ordered, in the context of an injunction, to seek and identify, among all the information disseminated by users of that platform, the information identical to the information that was characterised as illegal by a court that has issued that injunction. In the context of such an injunction, a host provider may be ordered to seek and identify the information equivalent to that characterised as illegal only among the information disseminated by the user who disseminated that illegal information. A court adjudicating on the removal of such equivalent information must ensure that the effects of its injunction are clear, precise and foreseeable. In doing so, it must weigh up the fundamental rights involved and take account of the principle of proportionality.
:
Ik stel voor dat het antwoord op de eerste en de tweede vraag, voor zover deze betrekking hebben op de persoonlijke en de materiële strekking van een toezichtsverplichting, erin bestaat dat artikel 15, lid 1, van richtlijn 2000/31 aldus moet worden uitgelegd dat het niet een host-provider uitsluit die een platform van een sociaal netwerk beheert, in het kader van een rechterlijk bevel wordt verzocht om tussen alle informatie die door gebruikers van dat platform wordt verspreid, de informatie te vinden die identiek is aan de informatie die als illegaal werd gekarakteriseerd door een rechtbank die dat bevel heeft uitgevaardigd.
In het kader van een dergelijk bevel kan een host-provider de informatie die gelijkwaardig is aan de identiteit die alleen als illegaal wordt beschouwd, zoeken en identificeren in de informatie die wordt verspreid door de gebruiker die deze illegale informatie verspreidt. Een rechter die oordeelt over de verwijdering van dergelijke gelijkwaardige informatie, moet ervoor zorgen dat de gevolgen van zijn uitspraak duidelijk, precies en te voorzien zijn. Daarbij moet het de betrokken fundamentele rechten afwegen en rekening houden met het evenredigheidsbeginsel.
Ten slotte gaat het om de kwestie van wereldwijde blokkering – en in feite zegt het dat niets in het EU-recht voorkòmt dat een lidstaat, zoals Oostenrijk, wereldwijde blokkering eist en het daarom kan doen – maar dat lokale landelijke rechtbanken moeten rekening houden met de gevolgen van het eisen van dergelijke wereldwijde verwijderingen.
… as regards the territorial scope of a removal obligation imposed on a host provider in the context of an injunction, it should be considered that that obligation is not regulated either by Article 15(1) of Directive 2000/31 or by any other provision of that directive and that that provision therefore does not preclude that host provider from being ordered to remove worldwide information disseminated via a social network platform. Nor is that territorial scope regulated by EU law, since in the present case the applicant’s action is not based on EU law.
Vrij vertaald:
... met betrekking tot de territoriale reikwijdte van een verwijderingsverplichting die in het kader van een rechterlijk bevel aan een host-provider is opgelegd, moet worden overwogen dat die verplichting niet geregeld is in artikel 15, lid 1, van richtlijn 2000/31 of elke andere richtlijn en dat die bepaling dus niet belet dat die host-provider wordt bevolen om wereldwijde informatie die verspreid is via een platform voor sociale netwerken te verwijderen. Deze territoriale reikwijdte wordt evenmin door het EU-recht gereguleerd, aangezien het beroep van verzoekster in casu niet op het EU-recht is gebaseerd.
Wat betreft de gevolgen:
To conclude, it follows from the foregoing considerations that the court of a Member State may, in theory, adjudicate on the removal worldwide of information disseminated via the internet. However, owing to the differences between, on the one hand, national laws and, on the other, the protection of the private life and personality rights provided for in those laws, and in order to respect the widely recognised fundamental rights, such a court must, rather, adopt an approach of self-limitation. Therefore, in the interest of international comity, (51) to which the Portuguese Government refers, that court should, as far as possible, limit the extraterritorial effects of its junctions concerning harm to private life and personality rights. (52) The implementation of a removal obligation should not go beyond what is necessary to achieve the protection of the injured person. Thus, instead of removing the content, that court might, in an appropriate case, order that access to that information be disabled with the help of geo-blocking.
Concluderend volgt uit bovenstaande overwegingen dat de rechtbank van een lidstaat in theorie uitspraak kan doen over de wereldwijde verwijdering van informatie die via internet wordt verspreid. Vanwege de verschillen tussen enerzijds de nationale wetgeving en anderzijds de bescherming van het privé-leven en de persoonlijkheidsrechten waarin die wetten voorzien, en om de algemeen erkende grondrechten te eerbiedigen, moet een dergelijke rechtbank echter enige zelfbeperking in acht nemen. Daarom moet die rechtbank, in het belang van de internationale hoffelijkheid (51) waarnaar de Portugese regering verwijst, voor zover mogelijk de extraterritoriale gevolgen van zijn uitspraken met betrekking tot schade aan het privé-leven en persoonlijkheidsrechten beperken. (52) De uitvoering van een verwijderingsverplichting mag niet verder gaan dan wat nodig is om beschadigde persoon te beschermen. In plaats van de inhoud te verwijderen, zou die rechter in voorkomend geval kunnen bepalen dat de toegang tot die informatie wordt geblokkeerd met behulp van geo-blocking.
Een erg onbevredigend antwoord, aangezien we allemaal weten hoe weinig regeringen op hebben met “zelfbeperking” als het gaat om het wereldwijd censureren van critici.
Dat allemaal wat betreft het pleidooi van de advocaat-generaal, en nu moeten we wachten om te zien wat het EU-Hof zegt. Hopelijk volgt het deze aanbevelingen niet. Zoals intermediair aansprakelijkheidsexpert Daphne Keller van Stanford opmerkt, zijn er enkele ernstige procedurele problemen met hoe dit alles uit de hand kan lopen. Vanwege de aard van het HvJEU zullen zij met name alleen de informatie van sommige partijen willen hebben, partijen wier rechten op het spel staan.
Een licht bewerkt citaat van Keller’s tweetstorm):
The process problems are: (1) National courts don’t have to develop a strong factual record before referring the case to the CJEU, and (2) Once cases get to the CJEU, experts and public interest advocates can’t intervene to explain the missing info. That’s doubly problematic when – as in every intermediary liability case – the court hears only from (1) the person harmed by online expression and (2) the platform but NOT (3) the users whose rights to seek and impart information are at stake. That’s an imbalanced set of inputs. On the massively important question of how filters work, the AG is left to triangulate between what plaintiff says, what Facebook says, and what some government briefs say. He uses those sources to make assumptions about everything from technical feasibility to costs.
De procesproblemen zijn:
(1) Nationale rechtbanken hoeven geen sterk feitenverslag te ontwikkelen voordat zij de zaak naar het HvJEU verwijzen;
(2) Zodra zaken bij het HvJEU terecht zijn gekomen, kunnen deskundigen en pleitbezorgers van openbaar belang niet tussenbeide komen om de ontbrekende info uit te leggen. Dat is dubbel problematisch wanneer – zoals in elk geval van tussenpersoonaansprakelijkheid – de rechtbank alleen hoort van (1) de persoon die schade heeft geleden door online expressie en (2) het platform maar NIET (3) de gebruikers wier rechten om informatie te zoeken en door te geven op het spel staan.
Dat is een ongebalanceerde reeks problemen. Op de zeer belangrijke vraag hoe filters werken, reageert de advocaat-generaal door te schipperen tussen wat eiseres zegt, wat Facebook zegt, en wat sommige overheidsinstanties zeggen. Hij gebruikt die bronnen om aannames te doen over van alles en nog wat, van technische haalbaarheid tot kosten.
En, in dit geval in het bijzonder, leidt dat tot enkele bizarre resultaten – waaronder het citeren van een fictieve film als bewijsmateriaal.
In the absence of other factual sources, he also just gives up and quotes from a fictional movie – The Social Network — about the permanence of online info.
Bij afwezigheid van andere feitelijke bronnen geeft hij het ook gewoon op en citeert uit een fictieve film – The Social Network – over de duurzaamheid van online info.
Dat is hier in het bijzonder het meest problematisch. Het is letterlijk de eerste regel van de mening van de advocaat-generaal:
The internet’s not written in pencil, it’s written in ink, says a character in an American film released in 2010. I am referring here, and it is no coincidence, to the film The Social Network.
Het internet is niet in steen gebeiteld, het is in inkt geschreven, zegt een personage in een Amerikaanse film die in 2010 werd uitgebracht. Ik verwijs hier, en het is niet toevallig, naar de film The Social Network.
Maar een citaat uit een film die ongetwijfeld niet eens klopt, lijkt een ongelooflijk zwakke basis voor een wet die fundamenteel zou kunnen leiden tot massale wereldwijde censuurfilters op het internet. Nogmaals, het is te hopen dat het Hof van Justitie van de EU een andere richting inslaat, maar we vermoeden dat dat niet het geval zal zijn..