Autoblog de la La quadrature du net

Ce site n'est pas le site officiel de la Quadrature du net.
C'est un blog automatisé qui réplique les articles de laquadrature.net

Un tiers médiaire

Tue, 16 Oct 2018 12:45:52 +0000 - (source)

17 octobre 2018 - Pour avancer encore dans nos discussions sur le statut des hébergeurs et la régulation d'Internet, nous partageons aujourd'hui une tribune de Laurent Chemla, membre de La Quadrature du Net.

Avec les communiqués de La Quadrature du Net autour de la Directive Droit d'Auteur et les différentes réactions et tribunes qu'ils ont suscité, pas mal de choses ont été dites, critiquées, expliquées et décortiquées.

Quelques points pourtant sont restés à mon sens trop peu développés.

Mais, first thing first, je voudrais d'abord expliquer ma propre position sur le sujet du fameux « statut intermédiaire » entre éditeur et hébergeur, que La Quadrature a très finement choisi de nommer « afficheur ». Et pour ça je vais devoir vous raconter ma vie (comme d'habitude, oui).

Je te préviens c'est long et chiant. Tu peux retourner sur Twitter tout de suite.

C'était en 1997, je crois, que ce thème a été abordé pour la première fois. J'étais à l'époque vice-président d'un des ancêtres de LQDN : l'Association des Utilisateurs d'Internet (AUI). L'AUI avait, assez naïvement, déjà classé les intermédiaires techniques en trois catégories : FAI, FSI et FHI. Respectivement : fournisseur d'accès, de services, et d'hébergement. Le FAI a des obligations (couverture du territoire, neutralité), le FSI a des contrats (c'est un simple commerçant), et le FHI est transparent (il n'a aucun rôle éditorial et en contrepartie aucune responsabilité équivalente à ce que la loi de 1881 sur la Presse impose aux divers intermédiaires de la chaîne de responsabilité éditoriale).

La case « fournisseur de services » (puisque c'est surtout d'elle qu'il s'agit) était, à l'époque, pensée comme regroupant votre serveur de mail, votre vendeur de nom de domaine, ce genre de bidules techniques qui ne relève clairement ni de l'accès ni de l'hébergement proprement dit. Tout ce qui n'est ni fournisseur d'accès ni totalement transparent tombait dans ce statut.

Une autre façon de présenter les choses serait de définir l'accès comme la fourniture des droits fondamentaux à l'expression et à l'information, et l'hébergement comme le moyen de ces mêmes droits fondamentaux. Un peu comme un parallèle à l'enseignement de la lecture et à la Presse. Et ce qui ne relève ni de l'accès ni du moyen tombe dans le simple commerce.

Il peut sembler évident que, de ce point de vue, un intermédiaire qui - de facto - choisit ce qu'il diffuse ou non (parce qu'il hiérarchise les contenus de ses utilisateurs au point d'en faire disparaître certains, par exemple), n'étant pas « transparent », tombe dans cette case. En tous cas, à l'époque, ça semblait suffisamment évident à certains pour me démissionner de l'AUI au prétexte que je ne considérais pas que les choses étaient aussi simples.

Ma position (qui n'a que peu varié depuis) était que, d'une part, la totale déresponsabilisation des hébergeurs conduirait inévitablement à des services spécialisés dans la diffusion de la haine (« Mais oh la la c'est pas ma faute si tous les haineux m'ont choisi comme hébergeur M. le juge : je suis totalement transparent moi », toute ressemblance avec le 18-25 d'une certaine période étant fortuite), et que d'autre part en tant que petit hébergeur (j'étais petit hébergeur à cette époque) j'aurais bien du mal à dormir en sachant que mes machines servaient à diffuser de la haine sans que je n'y puisse rien (« transparence » oblige).

Forcément, ce type d'idée ne facilite pas les convictions tranchées, bien binaires comme il faut.

Pour me sortir de ce qui ressemblait à une contradiction (défendre la liberté d'expression mais rester quand même un citoyen « non transparent »), j'ai fini par développer une position, sinon intermédiaire, au moins un peu plus complexe que le « tout ou rien » : dans ma vision l'hébergeur était un « fournisseur de liberté d'expression », un statut spécial, une sorte de « reconnaissance d'utilité publique » si vous voulez.

En tant que tel il devenait irresponsable des contenus hébergés, MAIS il s'engageait à ne pas intervenir sur ces contenus SAUF à en répondre SYSTÉMATIQUEMENT devant la justice.

Si jamais je tombais sur un site négationniste parmi ceux que j'hébergeais, et que j'en coupais l'accès, je risquais d'être condamné pour ça, et ça m'allait très bien : de la même manière que j'engage ma responsabilité pénale si je cogne sur le type qui essaie de voler le sac d'une vieille dame dans la rue, je laissais à la justice - saisie automatiquement - la décision de dire si j'avais agi à raison ou non.

Pour résumer, j'avais développé un cadre contractuel en parallèle, que l'hébergeur se devait de respecter pour bénéficier de ce statut (mais je préfère rester hahaha bref).

C'est là que nos chers juristes m'ont expliqué que « c'est pas con mais c'est pas possible : y'a pas de qualification pénale pour censure abusive dans notre droit ».

What ?

Eh bah oui : si c'est l'État qui censure la Presse ou les Syndicats, il existe un article de loi pour porter plainte. Mais si c'est un commerçant qui censure un particulier, y'a pas. Et c'est logique, puisqu'à l'époque où ces textes ont été écrits, personne ne pensait qu'un jour le simple citoyen aurait accès à l'expression publique. Oui, ok, c'est un droit constitutionnel, carrément un « Droit de l'Homme » même, mais celui-là n'est pas protégé par la loi. Voilà.

Et il ne l'est toujours pas, 20 ans plus tard.

Bon j'avoue qu'à ce stade des débats les choses se sont un peu compliquées et que - je résume, je t'ai dit ! - je me suis fait démissionner de l'association pour cause d'hérésie. Et j'ai un peu lâché l'affaire.

Pendant 20 ans, ouais.

Retour au temps présent. Il ne t'aura pas échappé que ma vision du passé n'est pas exactement celle qui est aujourd'hui défendue par La Quadrature. Déjà parce que c'est pas moi qui décide de la position de La Quadrature. Mais surtout parce qu'Internet n'est pas TOUT À FAIT le même qu'il y a 20 ans : l'avènement du « Web 2.0 » a changé la nature de l'hébergement, en créant des services réunissant sur la même « page » les publications d'une foule de différents acteurs. Benjamin l'explique très bien dans sa tribune.

Mais ce qui compte, pour moi, et mon histoire passée l'explique sans doute, c'est qu'on débatte ENFIN de ça : oui, ok, bien sûr, il ne faut pas qu'un hébergeur soit responsable des contenus publiés par ses utilisateurs. Parce que s'il l'est, il sera obligé de sélectionner ces contenus. Et que donc - toutes choses étant égales par ailleurs - toute opinion un peu divergente de celle de ceux qui font la loi sera petit à petit supprimée de l'espace public. C'est comme ça.

MAIS - et c'est un PUTAIN DE GROS MAIS - il doit avoir, en contrepartie, un devoir de neutralité. Parce que s'il n'est pas responsable, alors en échange IL NE DOIT PAS CENSURER. Rien. Jamais. Sauf à en assumer la responsabilité. Et oui, je considère que trier les documents, si ça conduit à toujours rendre invisibles les mêmes, c'est encore de la censure.

Ça se discute ? Discutons-en.

Et oui, la Quadrature défend l'idée que - s'il fait le choix de censurer - alors il ne passe pas devant un tribunal pour ça (rappel : y'a pas de loi qui le permette) mais il perd sa qualité d'hébergeur et [re]devient un simple intermédiaire, qualifié d'afficheur pourquoi pas. Un FSI au sens antique de l'AUI. C'est son contrat qui prévaut dans ses rapports avec ses utilisateurs MAIS il perd - au moins en partie - son irresponsabilité totale.

Ça se discute ? Discutons-en.

Et oui, la Quadrature propose que ce statut intermédiaire « d'afficheur » ne s'applique qu'à certaines conditions (de taille, de position hégémonique, de pouvoir...) et DONC que certains puissent conserver le statut d'hébergeur tout en choisissant des règles de modération autres que strictement neutres.

Ça se discute ? Discutons-en.

Par exemple, je suis personnellement favorable à ce qu'une des conditions pour passer du statut d'hébergeur à celui d'afficheur soit le choix du modèle économique : le tien est basé sur l'exploitation commerciale des données personnelles de tes utilisateurs ? Ok, t'es afficheur, pas hébergeur.

Parce que oui, le modèle économique, ça compte aussi ! Parce que quand ton revenu dépend de la publicité, alors FORCÉMENT tu as intérêt à ne pas fâcher tes clients (les publicitaires, donc), et FORCÉMENT tu vas avoir envie de privilégier certains contenus à même de retenir l'attention de leurs cibles, et FORCÉMENT tu vas être poussé à ne pas mélanger leurs publicités à des contenus, disons, discutables.

Et donc, FORCÉMENT, tu n'es plus neutre (et si tu essaies quand même de l'être, ce qui est le cas de mes amis de Qwant par exemple, tu te retrouves à lutter contre la puissance économique de ceux qui - n'ayant pas plus d'obligations que toi tout en n'ayant pas la même éthique que toi - ont mille fois plus de clients potentiels que toi. Bon courage).

Accessoirement, je préfère aussi le rappeler, le modèle « publicité contre gratuité » nous conduit aussi irrémédiablement dans le mur de la minitelisation du Web que le modèle capitaliste nous conduit dans le mur de la disparition du vivant (je résume, je te l'ai déjà dit). Parce que pour vendre plus de pub - ou pour la vendre plus cher - tu vas devoir avoir plus d'utilisateurs, tout simplement. Ce qui conduit très logiquement à voir apparaître des géants hégémoniques et à la disparition, par asphyxie économique, des plus petits. Et donc à un pouvoir démesuré sur la liberté d'expression pour ceux qui restent. C'est le modèle qui veut ça.

Bref. Tout ça se discute. Alors discutons-en.

Sans anathème, de préférence : j'ai déjà vécu ça et ça ne m'a pas plu des masses.

On peut discuter. On doit discuter. J'ai mes limites, bien sûr : pour moi il n'existe pas de liberté sans responsabilité donc, pour moi, celui qui prend la liberté de censurer ce qui lui déplaît prend en partie la responsabilité de ce qu'il diffuse. C'est un principe, mais il se discute, il s'amende, il prend en compte la réalité. Sans insultes et sans parti-pris : si je n'entends pas d'arguments pour me faire changer d'avis, la discussion va vite s'arrêter là.

Bref.

J'ai pas fini.

Ne t'y trompes pas, ami lecteur masochiste qui a tenu jusque-là : même s'ils semblent aller dans mon sens, quand les pouvoirs en place votent l'article 13 de la directive Copyright, ou même le RGPD, ils ne sont pas mes amis. Du tout. Parce qu'ils favorisent ceux qu'ils disent combattre.

L'obligation de filtrage automatisé imposée par l'article 13 ne dérange EN RIEN les GAFAM : elle ne fait qu'avaliser une pratique déjà en place et VOULUE par ces mêmes GAFAM, puisque c'est à la base même de leur modèle économique (filtrer pour mieux attirer la cible des publicitaires et garantir un environnement « sain »). Son seul aspect positif (et encore : mon petit doigt m'a dit qu'on risquait gros pendant le trilogue en cours), c'est qu'il introduit une distinction entre hébergeur et intermédiaire pratiquant « l'optimisation des contenus », ce qui permet l'excellente chose (selon moi) que nous ayons ENFIN ce débat là.

C'est d'ailleurs ce que disent @Calimaq et La Quadrature quand ils rappellent qu'il est PLUTÔT BON que ces mastodontes ne bénéficient plus de l'exception totale de responsabilité des contenus. Et j'en suis bien d'accord. Mais ça s'arrête là !

Je me doute bien que ça ne fait pas très plaisir aux GAFAM de se retrouver avec une responsabilité potentielle, mais ne nous leurrons pas : tout ça n'est rien d'autre que la mise en place d'un rapport de forces entre l'UE et Google/Facebook et al. pour que la première puisse mieux négocier ensuite avec les seconds le type de filtrage qu'il faudra mettre en place.

L'UE a intériorisé le fait que presque rien n'existe qui ne passe par la poignée de « géants du Net » et que c'est donc là, et nulle part ailleurs, que le pouvoir peut s'exercer. L'Internet décentralisé, tel que « nous » le souhaitons, n'est pas contrôlable. L'Internet des GAFAM l'est, et c'est exactement ce que souhaitent les États, ne soyons pas naïfs. Google, selon cette étude est le plus grand bénéficiaire du RGPD. Probablement pas par hasard.

Pour prendre l'exemple français : imposer l'exception culturelle telle que voulue par nos très chers ayant-tous-les-droits nécessite que les contenus soient « optimisés » pour afficher un certain pourcentage « d’œuvres » françaises. Permettre à une nouvelle HADOPI d'empêcher efficacement le streaming illicite des évènements sportifs suppose que le nombre de services de streaming soit limité à quelques géants. Montrer ses muscles avant les prochaines élections européennes - pour tenter d'éviter qu'une certaine droite ne remporte trop de sièges - nécessite qu'on impose (très bientôt) la censure « en moins d'une heure » des contenus terroristes. Ce que seuls quelques géants ont la capacité de faire.

Les autres, non seulement « les petits » mais aussi tous ceux qui n'ont pas la censure pour modèle économique, risquent de se retrouver de facto hors la loi et de disparaître ? Oui, et c'est pas pire, pour un pouvoir qui souhaite le retour à un réseau hypercentralisé qu'il pourra mieux contrôler.

Notre pays a l'habitude des réseaux très centralisés dans lesquels l'État dispose du pouvoir d'imposer ses volontés et d'empêcher tout ou partie de l'expression publique citoyenne. C'est nous qui avons inventé le Minitel. Cocorico.

Allez, encore un mot sur le RGPD et la centralisation et je te laisse retourner faire la sieste.

Le RGPD (et la loi Lemaire avant lui) a inventé un « droit à la portabilité des données ». Haha.

Tu sais : le truc qui va te permettre d'exporter tes données personnelles depuis Facebook vers... euh. Ah. Merde.

Ah si : tu vas pouvoir exporter tes contacts et ta mailbox Gmail chez un autre fournisseur d'email. Oui, tu pouvais déjà, mais maintenant c'est un droit ! Donc c'est cool. Wait.

Il y a plus d'un milliard d'utilisateurs de Gmail, largement contraints souvent parce qu'il faut une adresse Gmail pour activer un téléphone Android. Google s'en fiche bien si quelques dizaines de millions vont voir ailleurs : ceux-là continueront forcément à échanger avec la très grande majorité qui sera restée. Et donc à fournir des données à Google. Or c'est de données que se nourrit Google, pas d'utilisateurs. Google s'en cogne, que tu « portes tes données » ailleurs, soyons sérieux.

Les GAFAM s'en cognent même tellement qu'ils sont en train de finaliser un joli logiciel libre qui va permettre à tout le monde de porter ses données personnelles chez un autre géant que le géant précédent.

TROP BIEN.

Pendant ce temps Facebook empêche les clients tiers d’accéder à tes messages persos et Twitter change son API pour limiter la possibilité d'afficher des flux sans publicité. Tu peux porter des données ailleurs, ça ils s'en foutent (et d'ailleurs, où ?), mais tu dois garder ton attention sur ce qui compte vraiment : la pub. Et la pub ne s'affiche que si tu restes dans l'écosystème hégémonique qu'elle impose au Web et qui arrange bien nos gouvernements.

C'est pour ça que la position de la Quadrature sur la décentralisation est FONDAMENTALE. C'est pour ça qu'en affirmant qu'on peut s'appuyer sur l'article 13 pour développer des services décentralisés, la Quadrature est bien dans son rôle de protection des libertés.

C'est pour ça qu'il faut DÉFONCER cette notion de « droit à la portabilité des données » et la remplacer dans tous nos combats par un « droit à l'accessibilité des données ». Imposer que NOS données puissent être lues par NOUS avec l'outil qu'on choisit, quel qu'il soit, où que ces données soient stockées. Même si c'est chez Facebook.

Ça ne changera rien, ou pas grand chose, au modèle économique dominant, mais ça permettra à tous ceux qui souhaitent en sortir de le faire sans laisser leurs amis derrière eux. C'est, peu ou prou, le modèle d'ActivityPub, par exemple, mais nous devons étendre ce modèle à TOUTES nos données personnelles, y compris passées, pour que puisse se développer une autre économie du Web qui prenne en compte l'existant.

Je ne crois pas aux ruptures. Les humains sont beaucoup trop flemmards pour ça.

Imposer l'accès aux données personnelles c'est la garantie qu'un Internet décentralisé continuera à exister, même si c'est en parallèle de l'autre. Et tant pis. Et tant mieux, même : c'est justement parce que cette idée ne détruit pas le modèle économique des GAFAM qu'il a une (toute petite) chance d'être soutenu par le politique. Restons pragmatiques. On démolira l'existant seulement quand on aura construit le remplaçant.

Et je ne dis pas ça parce que j'en ai besoin pour Caliopen.

En tous cas pas que.


Nos plaintes contres les GAFAM avancent !

Wed, 10 Oct 2018 14:44:24 +0000 - (source)

10 octobre 2018 - Nous venons de recevoir des nouvelles de la CNIL au sujet de nos plaintes collectives, engagées en mai 2018 contre Google, Apple, Facebook, Amazon et Microsoft. Ces nouvelles sont encourageantes.

Les plaintes contre Apple, Facebook et Microsoft ont été transmises à l'autorité irlandaise de protection des données, qui a commencé l'instruction des dossiers. Pourquoi est-ce l'autorité irlandaise qui instruira nos plaintes, plutôt que la CNIL française, à qui nos plaintes étaient destinées ?

Comme nous le rappelions déjà en mai dernier, le RGPD a posé un nouveau cadre de coopération entre les différentes « CNIL » européennes : si une entreprise collecte des données dans plusieurs pays européens, les CNIL de tous ces pays doivent collaborer pour contrôler cette entreprise. La CNIL de l'État où l'entreprise a le « centre de ses activités » dans l'Union européenne est désignée « autorité chef de file ». Cette autorité chef de file est chargée de conduire l'instruction et d'animer la coopération entre les autorités. C'est en Irlande que Apple, Facebook et Microsoft ont le centre de leurs activités européennes. La CNIL irlandaise est donc l'autorité chef de file pour instruire nos plaintes.

S'agissant d'Amazon, la plainte a été transmise à l'autorité du Luxembourg - puisque, cette fois-ci, c'est dans ce pays qu'Amazon a le centre de ses activités au sein de l'Union.

Enfin, qu'en est-il de Google ? C'est ici que la situation devient la plus intéressante.

Le RGPD prévoit une exception au mécanisme de « l'autorité chef de file ». Si une entreprise n'a pas « d'établissement principal » au sein de l'Union, mais agit principalement depuis l'étranger, la CNIL de n'importe quel État peut la contrôler (voir les lignes directrices WP244, page 11, du G291).

C'est cette exception que la CNIL française a retenue s'agissant de Google : l'entreprise ne dispose dans l'Union d'aucun « établissement principal » qui dirigerait les activités que nous dénonçons comme contraires au RGPD. Concrètement, la CNIL considère que le siège de Google à Dublin ne prend pas de décisions importantes dans notre affaire et ne doit donc pas être pris en considération.

Ainsi, la CNIL française se reconnaît compétente pour instruire directement notre plainte contre Google (et pour, en fin de course, prononcer sa sanction). Toutefois, elle nous indique qu'elle compte conduire ce dossier en coopération avec les autres CNIL, avec lesquelles elle aurait commencé à travailler lors de leur dernière réunion européenne du 25 et 26 septembre. C'est une bonne chose.

Dans l'ensemble, la situation est des plus encourageantes : nos plaintes avancent concrètement et celle contre Google reste dans les mains d'une autorité dont les dernières décisions ont toutes imposé strictement la notion de « consentement libre », qui est au cœur de nos actions.

Nous vous garderons informés des prochains avancements sur ces dossiers.

En attendant, nous vous rappelons que nos plaintes sont libres de droit (disponibles ici) : n'hésitez pas à en reprendre les arguments (ils ont été pensés pour être faciles à reprendre) afin de rédiger des plaintes individuelles ou collectives contre d'autres entreprises - qui ne manquent pas pour violer le RGPD.


Intermédiaires techniques : un éléphant, ce n'est pas une souris en plus gros

Wed, 10 Oct 2018 10:20:55 +0000 - (source)

10 octobre 2018 - Nous partageons la tribune de Benjamin Bayart, publiée aujourd'hui sur son blog et poursuivant nos discussions sur le statut des hébergeurs (relire notre article sur la décentralisation, la tribune de Calimaq et celle d'Arthur).

C'est un débat ancien autour des libertés numériques, que de délimiter la responsabilité des intermédiaires techniques. Pour essayer de raconter ça, il faut que je fasse appel à des notions assez nombreuses, et parfois peu habituelles dans le domaine. Après un petit rappel des positions historiques, sur les notions d'éditeur et d'hébergeur, je vais poser quelques notions venues d'autres domaines, ou de phénomènes plus récents. Le but est d'essayer de proposer une grille de lecture différente : un troisième statut, quelque part entre éditeur et hébergeur, et les conséquences que ça porte.

On peut arriver à la même conclusion (ce troisième statut) par d'autres arguments, dont je n'ai pas besoin pour articuler mon raisonnement. J'ai regroupé ces arguments, pour au moins les citer, qu'ils ne donnent pas l'impression d'avoir été oublié.

Tout ça est le fruit de beaucoup de discussions. L'idée de quelque chose entre éditeur et hébergeur est sortie de discussions ces 3-4 dernières années à la quadrature. La façon dont j'articule entre eux ces différents éléments est le fruit de mon expérience personnelle, le mélange des réflexions de plusieurs collectifs.

Contexte historique

On peut faire remonter la question, en France, à l'affaire "Estelle Hallyday contre Altern". Ce n'est pas la première fois que la question se posait, mais c'est celle qui a marqué les esprits.

Altern était un hébergeur associatif, articulé avec une TPE (la TPE permettait au mec de manger, l'association hébergeait gratuitement). Près de 50.000 sites perso étaient hébergés chez Altern. On situe mal, mais 50.000 sites, à la fin des années 90, c'est un morceau colossal du web en France. Et toutes ces pages sont hébergées gratuitement, sans pub, sans contre-partie, par une association.

Des photos dénudées d'Estelle Hallyday avaient été publiées dans la presse. Un petit malin les a scannées et mises en ligne sur son site. La dame a porté plainte... contre l'hébergeur. À aucun moment la police ou la justice ne se sont intéressées à savoir qui était derrière le site, le nom de l'hébergeur leur suffisait bien. Il a été très lourdement condamné, une somme déraisonnable qui a forcé à fermer le volet associatif d'Altern : le risque était devenu trop grand. Une FAQ de 1999 sur l'affaire redonne les éléments clefs de la discussion de l'époque.

C'est cette histoire qui a été utilisée pour expliquer aux députés et sénateurs de l'époque que nous avions un problème dans le numérique. On se trompait de responsable devant la justice dans les affaires de presse (diffamation, injure, atteinte à la vie privée, etc). Le législateur français a mis très longtemps à converger vers une solution acceptable. C'est autour de 2004 que le débat arrive à la bonne conclusion.

Position définie par la LCEN

La LCEN organise en 2004 la responsabilité entre trois types d'acteurs1. Les fournisseurs d'accès et opérateurs réseaux, qui transportent l'information, les hébergeurs qui stockent l'information, et les éditeurs qui publient le contenu. Les éditeurs sont responsables de ce qui est publié, et assument les propos de l'auteur, en particulier dans les affaires dites de presse (diffamation, injure, publication d'informations portant atteinte à la vie privée des gens, etc). Les hébergeurs, quant à eux, ne sont pas responsables de ce qui est publié. Il devient obligatoire de faire figurer sur tout site web une indication de qui en est l'éditeur.

Le droit européen est articulé peu ou prou de la même manière. Les opérateurs du réseau doivent se comporter comme un "mere conduit", c'est-à-dire comme un simple/pur tuyau. Ils transportent les données sans tenir compte du contenu, et donc ne peuvent être responsable de ce qui se passe sur le réseau. De mémoire cette première notion, bien plus ancienne que celle de la neutralité du net, se trouve dans des directives de 2000 sur le commerce électronique.

Dans le web de la fin des années 90, et jusqu'à la fin des années 2000, ces notions suffisent à lire le monde. Si je prend des exemples actuels que tout le monde peut comprendre, OVH est un hébergeur, l'éditeur du site https://lefigaro.fr est le journal du même nom, et FDN ou Orange, quand ils vous permettent d'accéder au contenu mis en ligne par ce site web ne sont pas responsables si un de ces contenus est illégal. Et ce, que cette illégalité soit un délit de presse ou un autre délit (par exemple, la publication sans autorisation d'un contenu soumis au droit d'auteur, une des variantes de ce que la loi nomme contrefaçon, même si le terme semble bien impropre2).

La jurisprudence est venue apporter des nuances, parfois intéressantes, parfois idiotes. Dans les jurisprudences intéressantes : en 2010 Tiscali, qui hébergeait les pages perso de ses abonnés, et aurait à ce titre dû être considéré comme hébergeur, s'est vu requalifier par la Cour de cassation en éditeur parce qu'elle ajoutait de la publicité dans ces pages. Le juge a estimé que modifier le contenu, avec des visées lucratives, en faisait un éditeur et pas un simple hébergeur.

Par ailleurs, la LCEN prévoit que quand l'hébergeur a connaissance d'un contenu illicite, il doit le retirer rapidement. Le Conseil Constitutionnel, qui avait été saisi de la LCEN, avait bien précisé que ça ne pouvait être applicable que pour les contenus manifestement illicites (ergo, dans la pensée de l'époque, les contenus manifestement pédo-pornographiques et/ou manifestement néo-nazis). Les jurisprudences diverses, en France et en Europe, sont venues affaiblir cette décision du Conseil Constitutionnel. On considère de nos jours que quasiment toutes les illégalités sont manifestes3.

Évolution du paysage

Le développement de ce que les startupeurs digitaux appellent le Web 2.0 vient un peu compliquer l'affaire, mais à peine. Le Web 2.0, c'est le fait qu'une plateforme est mise à disposition du public, et que c'est le public qui produit le contenu. Par exemple les commentaires organisés en forum de discussion sous un article d'actualité. Par exemple les forums de chat fournis par tel ou tel site web pour la communauté de ses habitués. Par exemple Facebook au tout début.

L'analyse reste sensiblement la même. L'utilisateur est auteur-éditeur du message qu'il publie, de la page qui regroupe ses messages. Et la plateforme est analysée comme un hébergeur, qui se contente d'afficher au lecteur les messages regroupés comme le lecteur le lui a demandé, c'est-à-dire dans l'ordre chronologique des publications de chacun des utilisateurs dont il suit le fil de publication. C'est assez assimilable dans la théorie, à ce que fait un agrégateur de flux RSS, pour les gens qui voient ce que c'est.

Mais la pratique change. Ces grandes plateformes interviennent le plus en plus dans le flux des informations. Elles hiérarchisent l'information, selon des critères qui n'appartiennent qu'à elles. Strictement, elles hébergent un contenu qu'elles n'ont pas produit, le plus souvent, mais choisissent l'ordre d'affichage, et même si un contenu sera affiché ou non pour un lecteur donné. Plus elles interviennent dans l'affichage des contenus, moins leur rôle d'hébergeur passif semble adapté.

Responsabilité du fait d'autrui

Le principe de droit sous-jacent à une bonne part du débat est le fait que nul ne peut être tenu responsable du fait d'autrui. Si j'écris sur mon mur Facebook des choses contraires à la loi, il est légitime que j'en sois tenu responsable, et qu'on n'aille pas en faire reproche à quelqu'un d'autre (genre Facebook, qui a permis la diffusion de mon message, mon FAI qui m'a permis de publier, ton FAI qui t'a permis de le lire, le fabriquant de ton écran qui a permis l'affichage, ton marchand de lunettes qui t'a permis de lire malgré ta myopie, etc).

Tenir Facebook pour responsable de ce qu'écrivent les gens, c'est pas bon. Mais prétendre que Facebook ne fait rien et donc n'est responsable de rien, c'est pas bon non plus, parce que ce n'est pas vrai. On voit bien que quelque chose cloche ici. Il nous manque une notion, qui décrive ce que fait Facebook. Quand nous travaillons sur ces sujets, à La Quadrature, le mot que nous utilisons, c'est "afficheur". Facebook serait un afficheur, et en tant qu'afficheur il n'est pas neutre. C'est un intermédiaire technique qui n'est pas neutre dans l'exécution de son rôle, il doit donc logiquement assumer la responsabilité de ce qui découle de cette non-neutralité.

La neutralité du net

Les débats sur la neutralité du net sont pour moi, en dernière analyse, des débats sur un intermédiaire technique particulier, le fournisseur d'accès à Internet (et plus généralement, l'opérateur réseau).

Cet intermédiaire technique est tout-puissant. Il peut tout. Il peut m'empêcher d'accéder à un contenu, il peut ralentir l'accès à un service jusqu'à le rendre pénible à utiliser, il peut dégrader un service (perdre un paquet sur dix dans le flux d'une discussion audio la rend extrêmement pénible par exemple). Il peut surveiller à peu près la totalité de ce que je fais.

Du point de vue de l'abonné, il est tout-puissant, et incontournable : les gens n'ont qu'un seul accès à Internet chez eux, ils ne jonglent pas entre 5 abonnements à Internet à tout moment, utilisant l'abonnement Machin pour accéder à un site et l'abonnement Truc pour accéder à un autre. Les gens normaux (quelques geeks dans mon genre font autrement) ont un seul opérateur pour accéder à Internet et ils espèrent bien accéder à tout Internet, de manière indiscriminée.

Ce que disent les textes sur la neutralité du net peut se résumer assez facilement : en tant qu'intermédiaire technique incontournable, ayant de grands pouvoirs, l'opérateur n'a pas le droit d'utiliser ces grands pouvoirs n'importe comment. En particulier, s'il s'en sert pour (dé)favoriser un contenu, une adresse source, une adresse de destination, un type de service, etc, ça lui sera reproché. S'il sort d'une stricte neutralité d'intermédiaire technique sans raison valable, ça lui sera reproché.

Et les texte européens listent les raisons valables connues : la sécurité du réseau, le bon fonctionnement du réseau, une décision de justice, etc. Un accord commercial avec une plateforme n'est, ainsi, pas une raison valable de prioriser des flux.

Les textes sur la neutralité du net ne parlent pas de la responsabilité éditoriale, bien entendu, mais ils posent des principes de droit qui sont utiles : un intermédiaire technique, quand il sort de la neutralité qu'on attend de lui, prend une responsabilité, il devient responsable de ce qui arrive suite à cette sortie de route.

La transposition à la responsabilité éditoriale est cependant assez simple : quand une plateforme joue un rôle central dans la capacité du public à diffuser de l'information, ou à accéder à l'information, et qu'elle sort de la neutralité technique, alors elle devrait recevoir la responsabilité des effets de cette sortie. Que ce soient des effets économiques (concurrence, distorsion d'un marché, etc) ou des effets sociaux (montée des violences, montée des haines, etc). On ne peut pas jouer un rôle actif dans une position de puissance et dire qu'on n'est pas responsable des effets du rôle qu'on joue.

Un opérateur dominant

Une autre notion intéressante est celle, venue du droit de la concurrence, d'acteur dominant sur un marché. C'est une notion qui s'analyse de manière locale, sur un marché donné. Ainsi si on s'intéresse au marché européen, au marché français, ou au marché d'un bassin de vie, les acteurs dominants identifiés ne sont pas les mêmes.

Certaines pratiques sont interdites pour un ou des acteurs dominants sur un ou des marchés donnés.

Ainsi, un tarif d'éviction. C'est quand un acteur, dominant sur un marché, pratique des prix tellement bas qu'il empêche les autres de s'installer sur ce marché, et donc s'assure la perpétuité de sa position dominante. Ainsi, si autour de chez moi il y a une boulangerie qui a une part tellement forte du marché des croissants qu'on la considère comme un acteur dominant (genre 90% des ventes de croissants du coin). Quand une nouvelle boulangerie ouvre, elle fait une promotion intenable (le croissant à 10 centimes, mettons). On peut analyser ça comme la pratique d'un tarif d'éviction. Dans une boulangerie qui a une petite part de marché, ce serait simplement une promo pour attirer le client. Dans une boulangerie qui détient une part colossale du marché, c'est un tarif destiné à tuer les concurrents et assurer un monopole pour l'opérateur dominant sur le marché une fois que les concurrents auront coulé, auront été évincés (d'où le nom "tarif d'éviction").

Il faut bien analyser ça sur le bon marché. En effet, la position dominante de la boulangerie ne joue pas sur le marché des fruits et légumes, ou ne joue pas sur le marché national des croissants. Elle fait bien 90% dans ma ville, mais un pourcentage infime au niveau national ou européen.

On peut essayer de transposer ces principes dans le cas qui nous intéresse. Les grandes plateformes sont des acteurs dominants sur certains marchés. Traditionnellement, on fait cette analyse sur un vrai marché, commercial. On peut par exemple se demander si Facebook et Google sont des acteurs dominants sur le marché de la publicité en ligne. Mais on peut utiliser cet outil pour penser des choses qui ne sont pas des marchés au sens commercial, et se demander si Facebook et Twitter jouent un rôle central dans la diffusion des contenus publiés par leurs utilisateurs, et si on peut donc leur reprocher les effets de leurs décisions en raison de leur taille. La même décision, de la part d'un acteur hyper minoritaire et n'ayant pas d'influence significative sur le "marché" (ou sur le phénomène social) considéré n'aurait pas la même responsabilité.

La taille est bien un critère pertinent pour juger de la responsabilité des acteurs. Non, un éléphant, ce n'est pas une souris en plus gros.

La censure

Facebook, ou Apple, opèrent une censure. Une censure a priori, où certains contenus sont censurés d'autorité, selon des procédures floues et discrétionnaires, le plus souvent sans appel et sans contradictoire. C'est un rôle actif, qui sort totalement de la notion d'intermédiaire technique neutre. Et qui est le fait d'acteurs dominants sur les "marchés" considérés.

On peut soit considérer que ces censeurs sont sortis de leur rôle neutre et technique, et que donc ils perdent l'exemption générale de responsabilité, qu'ils portent atteinte au principe de neutralité qu'on attend d'eux (même si, pour l'heure, aucun texte de loi ne prévoit ça de manière claire). Soit considérer, ce qui est sensiblement équivalent, qu'ils jouent un rôle actif dont ils sont responsables. N'ayant pas réussi à censurer les contenus illégaux, alors qu'ils jouent un rôle actif de censure a priori (Facebook censure les images dont ses outils supposent que ce sont des nus, avec régulièrement des erreurs) et de censure a posteriori (ces plateformes censurent sur signalement par les utilisateurs), on peut les considérer comme responsable de l'échec de leur censure.

Dans un cas, on estime que ces plateformes devraient se voir interdire la censure discrétionnaire, qu'il devrait y avoir des mécanismes transparents et conformes au droit pour traiter les problèmes. Par exemple du notice-and-notice : quelqu'un signale qu'un contenu pose problème. Le signalement est transmis anonymement à l'auteur. L'auteur peut retirer son contenu, ou décider de persister. Si les deux parties persistent à dire qu'il y a problème, le dossier complet est transmis à la justice qui arbitre le différend. Dans une posture comme celle-là, l'intermédiaire technique est de nouveau neutre. Il n'a pas décidé si le contenu lui semblait légal ou pas. On ne peut pas le tenir responsable d'une décision.

Dans l'autre cas, on estime normal que la plateforme joue un rôle de censeur, et qu'on peut lui tenir rigueur de ses erreurs dans la censure. Auquel cas tout contenu illégal qui arrive à franchir la barrière peut lui être reproché.

Je préfère bien entendu la première solution. Mais les deux sont logiques.

Centralisation ou ouverture

Le fait qu'une plateforme soit centralisée ou non est également un critère. L'exemple qui vient spontanément en tête est la comparaison entre les systèmes de messagerie fermés (iMessage d'Apple, Messenger de Facebook, les messages directs de Twitter, etc) et les systèmes de messagerie ouverts (par exemple le mail). Ou la comparaison entre un réseau de micro-blog fermé (Twitter) et un réseau de micro-blog ouvert (Mastodon).

Dans le cas d'un système centralisé et fermé, une décision de la plateforme centrale a un effet absolu. Si je suis banni de Twitter, je suis banni de l'intégralité du réseau de Twitter. Si cette décision est arbitraire, et fondée sur des critères qui ne peuvent pas être négociés, elle est absolue et incontournable. Elle est le fait d'un acteur dominant.

Dans le cas d'un système acentré et ouvert, une décision de la plateforme qui hébergeait mon compte de me bannir a un effet bien moindre. Je peux aller ouvrir un compte sur une autre instance du même réseau (quand mon compte mail de laposte.net est fermé, je peux aller ouvrir une adresse mail ailleurs). Si un nœud du réseau se met à détenir une part élevée des comptes, alors l'analyse en position dominante redevient pertinente : quand gmail.com ou outlook.com décident d'imposer des règles en matière de mail, même si le réseau est ouvert, ils représentent une part tellement grande du réseau du mail que leur norme s'impose de fait à tous les autres. Ils deviennent bien un acteur dominant de ce réseau.

La définition des libertés

À la fin du 18e siècle, quand on a défini les libertés fondamentales, on les a défini par rapport à la puissance publique. Quand on parle de liberté d'expression, on parle d'empêcher l'État (ou le roi) de censurer de manière arbitraire. Les libertés fondamentales, les droits de l'Homme, sont définis pour protéger les citoyens, les individus, contre les abus de la puissance publique.

Typiquement, le premier amendement de la constitution américaine, qui protège la liberté d'expression, interdit au législateur de faire une loi dont l'effet serait de priver le citoyen de la libre expression de son opinion. Facebook n'étant pas législateur, ça ne le concerne pas, il peut bien censurer comme il a envie et prendre toutes décisions visant à censurer.

Le rapport asymétrique qui existe aujourd'hui entre un particulier et une grande multi-nationale crée un rapport d'une nature similaire à celui qui existe entre le citoyen et l'État, un rapport asymétrique où une seule des deux parties peut établir les clauses du contrat. Le contrat qui existe entre Facebook et ses utilisateurs n'est pas de la même nature que le contrat qui existe entre deux particuliers. Les deux signataires du contrat ne sont pas dans un rapport de force symétrique. Or tout le droit autour de la liberté de contracter suppose une adhésion, soit que chaque clause était négociable (pour un contrat de gré à gré), soit qu'on pouvait ne pas adhérer au contrat et aller chercher un service similaire ailleurs (pour un contrat d'adhésion). Bref, on suppose que les deux parties sont engagées par un consentement mutuel entre pairs.

Il y a déjà de nombreuses zones du droit où l'asymétrie du rapport de forces a été prise en compte pour définir des droits qui ne sont pas symétriques. Par exemple l'obligation de conseil d'un pro : il ne doit pas vous laisser choisir une mauvaise solution s'il sait qu'elle est mauvaise, il doit vous conseiller au mieux de vos intérêts, pas des siens. Par exemple le contrat de prêt que vous signez avec le banquier : vous n'êtes pas en position de le négocier, alors la loi a très strictement encadré ce que le banquier a le droit de vous proposer. C'est toute cette partie du droit qui permet régulièrement aux tribunaux de dire que des clauses d'un contrat étaient abusives, et qu'on doit donc considérer qu'elles n'existent pas (les juristes parlent de "clauses réputées non-écrites").

Il n'y a pas, pour le moment, de garantie des libertés dans un rapport contractuel asymétrique. Facebook, Twitter ou Google ne peuvent pas être condamnés pour censure abusive de mes propos. Seul l'État pourrait être condamné pour ça. C'est par exemple pour ça qu'il y a quelques années, avec quelques autres, nous avions rédigé une proposition de loi de défense de la liberté d'expression. On retrouve un concept similaire dans la protection des données personnelles prévue par le RGPD : le rapport asymétrique entre l'entité qui collecte des données et le particulier dont on collecte les données crée une obligation particulière du collecteur pour protéger les libertés de l'individu.

Laissé dans l'ombre

Il y a d'autres angles de lecture que je laisse dans l'ombre ici, parce qu'ils ne sont pas utiles à mon raisonnement, bien qu'ils aillent clairement dans le même sens. Je veux citer ceux que j'ai en tête, pour qu'on ne pense pas qu'ils ont été oubliés. Ils demandent souvent une analyse assez longue, et qui ne me semblait pas rigoureusement nécessaire ici.

D'abord il y a l'inversion des rapports entre sujet et objet. Dans le contrat qui me lie à mon fournisseur d'accès à Internet (FDN, ou Orange), l'accès à Internet est l'objet du contrat, et le FAI et moi en sommes les sujets. Nous convenons entre nous comment l'un va à la demande de l'autre réaliser une prestation qui porte sur l'objet. Quand un service est financé par la publicité, ce rapport s'inverse. Le contrat, le vrai contrat, celui qui fait rentrer de l'argent, est entre le publicitaire et le service. C'est ce contrat qui compte. Et dans ce contrat, je suis devenu l'objet. Le publicitaire passe un contrat avec le prestataire du service qui porte sur la mise à disposition de l'objet du contrat, à savoir l'utilisateur. Dans ce modèle l'utilisateur est devenu l'objet d'un contrat auquel il n'a pas accès. C'est vicié, de base. Ça veut dire que l'utilisateur n'a rien à attendre du prestataire, qui n'est pas à son service.

Ensuite, il y a l'économie de l'attention. Ce qui intéresse ces grands afficheurs, c'est de pouvoir focaliser l'attention des gens. Donc de mettre en avant des émotions, et ce faisant de faire passer la raison en arrière plan (les publicitaires veulent ça, ça rend beaucoup plus perméable aux messages). Les messages qui font le plus directement appel à nos émotions sont donc favorisés, que ce soient des émotions douces (oh, le jouli petit chat...) ou des émotions dures (les propos haineux, la rage de voir encore une horreur de dite, etc). Le mécanisme de la publicité a besoin de faire appel à nos émotions, et cet état émotif nous fait rester plus longtemps face aux contenus, nous fait interagir plus. C'est ce qui donne sa valeur au contenu putaclic.

Ensuite, il y a la notion d'éthique de l'entreprise. Certaines entreprises ont une éthique, ça arrive. Mais cette éthique n'est que celle portée par le pacte d'actionnaires. Que les actionnaires changent et l'éthique change. L'entreprise lucrative n'est pas mauvaise en elle-même, mais les questions éthiques y ont forcément un rôle second. Parfois, sa survie dépend de l'éthique qu'elle affiche (Free, dans son jeune temps, avait besoin de se montrer cool avec les geeks pour exister, par exemple). Mais sitôt que ce n'est plus le cas, que l'éthique n'est plus une condition de la survie, alors les questions éthiques passent en second plan, ou disparaissent complètement.

La somme

La somme de tous ces éléments nous amène bien à analyser le rôle de ces plateformes, de ces intermédiaires techniques, avec tous ces éléments.

Ce sont tous ces éléments-là qui m'amènent à penser que l'analyse de Calimaq est relativement juste. Son propos reprenait cette distinction, ce nouveau rôle, sans l'avoir convenablement introduite, ça peut dérouter.

Il y a bien un modèle de réseau qui me semble plus souhaitable socialement et économiquement, le modèle de réseau ouvert, fait de nombreux acteurs, offrant une capacité d'interconnexion, etc. Il me semble raisonnable que les acteurs qui ont un rôle dominant, soit par leur centralisation soit par leur grande taille, se voient contraints à une grande neutralité pour nous protéger contre l'arbitraire.

Je suis en désaccord avec les choix de la directive copyright. Mon approche est que la position particulière de ces grands acteurs devrait leur interdire toute censure en dehors d'un processus contradictoire, tranché par une autorité indépendante, susceptible d'appel, et passant au moment voulu par la Justice. Mais l'approche qui consiste à dire qu'ils sont des professionnels de la censure et qu'ils ont donc des obligations de résultat de ce fait est toute aussi logique. Malsaine pour la société, parce qu'on a privatisé la censure. Mais logique.

Et le fait que cette directive fasse une différence entre ces grands acteurs dangereux et des acteurs plus souhaitables socialement, c'est également un point plutôt positif.

C'est bien parce que l'éléphant n'est pas la souris qu'on a inventé des législations pour se protéger des géants économiques : de l'anti-trust, de l'anti-monopole, de la régulation sectorielle (l'industrie pharmaceutique ne répond pas aux mêmes normes que les marchands de souvenirs, par exemple).

Ce dont je suis convaincu, c'est que l'irresponsabilité associée au statut d'hébergeur tel qu'il était défini historiquement doit être revisitée. Cette irresponsabilité était une conséquence logique du fait que cet intermédiaire technique n'avait pas d'action propre, autre que la réalisation du transport ou de l'hébergement des données. Et il est certain que les grandes plateformes ont une action propre.

Je ne suis pas certain des conclusions, des critères exacts qu'il faut utiliser pour délimiter ce nouveau rôle. Ce que je propose ici c'est une piste de définition de ces critères.


Régulation des contenus : quelles obligations pour les géants du Web ?

Tue, 09 Oct 2018 12:15:31 +0000 - (source)

Tribune d'Arthur Messaud

9 octobre 2018 - Il y a 10 jours, nous expliquions que décentraliser le Web offrait l'espoir d'une organisation démocratique de nos échanges en ligne, en solution à l'hégémonie de l'économie de l'attention. En effet, les géants du Web distordent nos échanges pour des raisons économiques en favorisant les propos anxiogènes, caricaturaux, violents ou payés... au détriment des autres, et cela doit être corrigé.

Pour favoriser une alternative décentralisée, nous proposions que les hébergeurs libres (qui ne nous imposent pas une hiérarchisation des contenus) ne soient plus soumis aux mêmes obligations légales que les plateformes géantes (qui nous imposent leur hiérarchisation des contenus).

Ces obligations légales, qui exigent de censurer de plus en plus vite les contenus « manifestement illicites » dont les hébergeurs ont connaissance, freinent le développement du Web décentralisé. Ainsi, nous proposions que les hébergeurs libres n'aient plus à supporter ces lourdes obligations : que seul un juge puisse exiger d'eux qu'ils censurent un contenu.

Aujourd'hui, la question que nous abordons ne concerne plus les hébergeurs libres, mais les autres : quelles obligations imposer aux plateformes géantes ?

Le pouvoir des géants

Ce récit est malheureusement assez commun : vous vous êtes inscrit sur Facebook, Youtube ou Twitter il y a de nombreuses années et, depuis, vous y avez tissé de nombreuses relations (des « amis » ajoutés sur Facebook au fil des rencontres, un public attentif réuni sur Youtube, des personnes pertinentes suivies sur Twitter). Au fil des années, ces plateformes ont adopté des règles de hiérarchisation des contenus de plus en plus contraignantes.

Facebook et Instagram se sont mis à censurer toute image contraire à leur vision puritaine de la société, à masquer les sites de presse contraires à ce qu'ils jugent être le « juste débat » et à organiser nos « fils d'actualité » pour nous rendre plus réceptifs à leur publicité. Youtube favorise des vidéos de plus en plus anxiogènes, pour nous faire rester le plus longtemps possible sur son site, au détriment des autres vidéos dont l'audience devient de plus en plus gérée par l'entreprise seule. Twitter organise nos échanges pour les rendre de plus en plus vifs et captifs, sans se soucier des conséquences sur le débat public.

Plus généralement, s'est tissé « un lien pervers entre propos haineux et impact publicitaire : les personnes tenant des propos choquants ou extrémistes sont celles qui "rapportent" le plus car l'une d'entre elles peut en provoquer cinquante ou cent autres. Sous cet angle, l’intérêt financier des réseaux sociaux est d’en héberger le plus possible » (« Renforcer la lutte contre le racisme et l'antisémitisme sur Internet », Rapport au Premier Ministre, p. 36).

Pourtant, nombre d'entre nous restons sur ces plateformes. Nous ne pouvons pas rompre d'un coup tous les liens que nous y avons tissés. Nous subissons toutes ces nouvelles contraintes sans les avoir choisies ni sans pouvoir vraiment y échapper. C'est ce qu'il faut corriger.

Un nouveau statut juridique

Si l'on souhaite utiliser le droit pour corriger les géants, il faut d'abord trouver un critère objectif pour les identifier. Ensuite, autour de ce critère, le droit pourra poser des obligations spécifiques pour former un « statut juridique » adapté à leur situation. Ce nouveau statut juridique se placerait à mi-chemin entre celui d'hébergeur et d'éditeur ; moins souple que le premier, moins strict que le second.

Le « pouvoir de contrainte » des géants pourrait être ce critère permettant de délimiter leur nouveau statut. Ce « pouvoir » apparaît lorsque les utilisateurs d'une plateforme ne peuvent pas la quitter sans subir des « conséquences négatives », ce qui permet à la plateforme d'imposer les règles de son choix. Dans notre exemple précédent, ces « conséquences négatives » étaient la perte des liens humains tissés sur la plateforme. Pour mesurer la gravité de cette perte, ces liens peuvent être appréciés selon la taille de la plateforme, sa durée d'existence et son fonctionnement, par exemple.

Les « conséquences négatives » à prendre en compte pour mesurer le « pouvoir de contrainte » des plateformes ne doivent pas se limiter à ce seul exemple. En effet, pour choisir ce critère, nous nous sommes directement inspirés du principe de « liberté du consentement » qui est au cœur du RGPD (voir par exemple notre plainte contre Google, p. 4, pour plus de détails). Aujourd'hui, nous proposons d'étendre ce critère aux questions de liberté d'information, avec toute la souplesse qu'il offre pour s'adapter à différentes situations.

Une fois ce critère posé, vient la question du contenu de ce nouveau statut (dans la suite de notre propos, nous appelons « géants » tout service qui dispose du « pouvoir de contrainte » défini ci-dessus - et pas seulement les GAFAM).

Il y a plusieurs façons d'empêcher les géants d'abuser de leur pouvoir pour nous enfermer dans leurs règles nocives, qui distordent nos échanges à leurs fins personnelles. Dans les débats à venir, nous devrons identifier les meilleures façons de le faire. Nous soumettons ici des premières pistes.

Et, pour commencer, il semble utile de revenir aux fondamentaux. De repartir du principe à la base de la neutralité du Net : si vous n'avez pas vraiment le choix d'utiliser un service pour communiquer, ce service ne doit pas être autorisé à hiérarchiser (favoriser, ralentir ou censurer) les informations que vous publiez et recevez, sauf si la loi l'exige (relire notre rapport de 2010 sur la neutralité du Net).

Ainsi, il faut imposer aux géants le choix suivant : renoncer à leur pouvoir de contrainte (et donc redevenir de simples hébergeurs) ou devenir neutre.

S'ouvrir à la décentralisation...

En pratique, pour ne pas perdre nos liens tissés sur les géants, nous n'avons pas d'autre choix que de continuer à les utiliser. C'est une chose qui peut être corrigée si les géants deviennent « interopérables » avec d'autres services : s'ils nous permettent de continuer de parler avec nos « amis Facebook » sans être nous-même encore inscrits sur Facebook.

Techniquement, cette « interopérabilité » passe par l'application de « standards de communication » : un langage partagé par plusieurs services afin de communiquer entre eux. Par exemple, le standard ActivityPub propose un standard pour « réseaux sociaux décentralisés » - et nous y voyons l'espoir concret de l'essor d'un Web décentralisé. De plus, appliquer de tels standards serait une façon de rendre effectif le « droit à la portabilité » créé par le RGPD (à l'article 20) et qui, sans interopérabilité entre plateformes, peine pour l'instant à démontrer son utilité.

Concrètement, nous pourrions quitter un géant (par exemple Twitter) pour migrer vers un autre service (Mamot.fr, le service décentralisé de micro-bloging Mastodon proposé par La Quadrature). Depuis ce nouveau service, nous pourrions continuer de recevoir et d'envoyer des messages aux personnes restées sur le géant (Twitter), sans rompre nos liens avec elles.

Ainsi, dès lors qu'un géant abandonnerait son pouvoir de contrainte, nous pourrions librement échapper au cadre destructeur de sa capitalisation de notre attention. Le cercle vertueux de la décentralisation reprenant le pas, le pouvoir de contrainte de ce géant-ci pourrait diminuer, jusqu'au point où, éventuellement, il pourrait revenir dans le statut plus souple des hébergeurs.

Dans tous les cas, il serait tenu, comme n'importe quel hébergeur, d'afficher clairement ses règles de hiérarchisation des contenus, nous permettant de nous y soumettre ou non en pleine connaissance de cause. De même, revenir à un cadre d'hébergeur « plus souple » ne signifie en aucun cas d'alléger les obligations en matière de protection des données personnelles : ces données ne doivent jamais permettre de hiérarchiser les contenus sans le consentement explicite de chaque personne concernée.

... ou devenir neutre

Dans le cas où un géant refuserait de s'ouvrir à la décentralisation (en refusant d'appliquer les standards le permettant), il devrait lui être interdit de hiérarchiser nos échanges selon ses propres règles - puisque nous ne pouvons pas échapper à celles-ci.

Cette interdiction pourrait prendre différentes formes. Par exemple, cela pourrait être une interdiction de principe contrôlée par une autorité indépendante (de même que la neutralité du Net est protégée par l'ARCEP - l'autorité de régulation des communications électroniques et des postes). Aussi, cela pourrait être la possibilité pour chaque personne d'attaquer en justice un géant qui aurait censuré un contenu licite. Enfin, en cas de censure répétée de contenus licites, par exemple, ces actions en justice pourraient prendre la forme de plaintes collectives (de la même façon que le RGPD nous a permis d'agir à 12 000 personnes contre les GAFAM pour protéger nos données personnelles). Rappelons, que, aujourd'hui, se défendre contre ces censures abusives est pratiquement impossible.

Pour résumer : si les géants continuent de nous enfermer (en refusant de s'ouvrir à la décentralisation), ils doivent devenir neutres (ne pas censurer de contenus licites ni en favoriser certains aux détriments d'autres). Cette absence de hiérarchisation serait vaine si elle n'était pas totale : elle doit autant interdire la censure de nus réalisée par Facebook que la mise en avant de contenus favorisant l'économie de l'attention ou étant payés par leur émetteur (à des fins publicitaires). C'est cette même rigueur qui est la base de la neutralité du Net et qu'il faudra appliquer strictement. Autrement, aucune des dérives de l'économie de l'attention ne sera corrigée.

Aucune censure automatisée

Dans tous les cas, les géants, mêmes neutres, ne doivent être soumis à aucune obligation de surveiller les contenus qu'ils diffusent pour censurer les informations « manifestement illicites » de façon automatique. Pourtant, c'est ce que prévoient en creux la directive sur le droit d'auteur ou la récente proposition de règlement européen contre la diffusion de contenus terroristes. Ces obligations sont inacceptables, au moins pour trois raison.

En premier lieu, la directive européenne de 2000 qui encadre l'activité des intermédiaires du Net prévoit déjà ceci, à son article 15 : « les États membres ne doivent pas imposer aux prestataires [...] une obligation générale de surveiller les informations qu'ils transmettent ou stockent, ou une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites ». Cette protection bénéficie à tous les intermédiaires du Net, même ceux non-neutres et ne bénéficiant pas du statut des hébergeurs stricto-sensu.

En deuxième lieu, indépendamment de cette directive, la Cour de justice de l'Union européenne juge depuis 2012 que ces obligations violeraient nos droits à la vie privée et à la liberté d'information, tels que reconnus par la Charte de droits fondamentaux de l'Union européenne. Précisément, la Cour affirme qu'imposer à une plateforme de « procéder à une surveillance active de la quasi-totalité des données concernant l’ensemble des utilisateurs de ses services, afin de prévenir toute atteinte future à des droits de propriété intellectuelle » (il s'agissait alors d'une affaire de contrefaçon) « impliquerait, d’une part, l’identification, l’analyse systématique et le traitement des informations relatives aux profils créés sur le réseau social par les utilisateurs de ce dernier » et, d'autre part, « risquerait de porter atteinte à la liberté d’information, puisque ce système risquerait de ne pas suffisamment distinguer entre un contenu illicite et un contenu licite, de sorte que son déploiement pourrait avoir pour effet d’entraîner le blocage de communications à contenu licite ». Ainsi, une telle obligation « ne respecterait pas l’exigence d’assurer un juste équilibre entre le droit de propriété intellectuelle, d’une part, et la liberté d’entreprise, le droit à la protection des données à caractère personnel et la liberté de recevoir ou de communiquer des informations, d’autre part » (SABAM c. Netlog, CJUE, 3ème ch., 16 février 2012, C-360/10, points 38, 49, 50 et 51).

En troisième et dernier lieu, exiger que les géants surveillent tous les contenus en temps réel ne fera que favoriser le phénomène déjà problématique de la délocalisation à bas coût de la modération des contenus vers des armées d'employés travaillant dans des conditions extrêmement anxiogènes, afin de « compenser » des machines forcément imparfaites. La plupart souffrent déjà de traumatismes mentaux à force de « rester, des heures durant, l’œil rivé sur un écran d’ordinateur, où s’affichent des images et des vidéos de corps déchiquetés et écartelés, d’enfants noyés ou violentés, sans compter le flot continu d’injures et d’appels aux meurtres ».

Vouloir renforcer les obligations de censure imposées aux géants du Web est une fuite en avant. Elle repose sur l'idée aussi absurde que dangereuse que des solutions technologiques pourraient régler des problèmes avant tout sociaux et politiques. Surtout, elle refuse de prendre le problème à sa racine, pour se contenter d'en gérer les symptômes (nous dénoncions le même manque d'ambition dans la proposition de loi sur la diffusion de « fausses informations »).

L'économie de l'attention, devenue hégémonique sur Internet, est au centre du problème que le gouvernement prétend vouloir résoudre : la sur-diffusion de propos anxiogènes ou violents et notre sur-exposition à des interactions non-souhaitées. Seul le développement de services ouverts ou neutres permettra d'en contenir les dérives - ce qui, au passage, permettra au juge de se recentrer sur les infractions les plus graves.

Il y a bien des façons de favoriser le développement de ces alternatives. Nos propositions juridiques actuelles sont pensées comme des premières pistes, que nous vous invitons à discuter en nous écrivant ou en venant à notre prochaine réunion publique dans nos locaux, vendredi 12 octobre dès 19h, par exemple :)


Un collectif assumé : compte rendu de notre assemblée générale

Fri, 05 Oct 2018 14:38:12 +0000 - (source)

Paris, 5 octobre 2018 – Comme annoncé fin 2017 lors du bilan de ses dix premières années, La Quadrature du Net a entamé une transformation profonde de son organisation et de ses modes d'action, pour tenir compte de son histoire et s'adapter à un environnement politique transformé. Cela s'est notamment traduit par un élargissement du noyau de l'équipe : il y a quelques mois, nous avons intégré une trentaine de bénévoles au fonctionnement et au travail quotidien de l'association, en qualité de membres.

Pendant le week-end du 29-30 septembre, 26 membres et salarié·es de l'association se sont réuni·es pour une seconde assemblée générale (AG), accompagné·es à distance par certain·es des absent·es excusé·es. Beaucoup de choses devaient être évoquées : des souffrances personnelles qui avaient été exprimées, des réflexions collectives que nous devions faire aboutir, des chantiers ouverts à reprendre. Il fallait notamment définir l'accueil et l'organisation des nouveaux membres, la mise en place des outils nécessaires à nos actions et la feuille de route des prochaines actions militantes.

C'est ce point d'étape que nous partageons avec vous aujourd'hui.

Bilan des six derniers mois

L'AG précédente avait formé des groupes de travail, soit en fonction des sujets traités par l'association (Startuffe Nation, surveillance d'État, régulation des télécoms, copyright, etc.), soit plus opérationnels comme le groupe adminsys, la revue de presse, la communication, ou le « routage » (l'accompagnement des nouveaux militants).

Six mois après, nous constatons que cette méthode est efficace. Ces groupes possèdent une vraie souplesse, notamment pour travailler avec d'autres associations (par exemple, sur la régulation des télécoms, sujet partagé avec la Fédération FDN).
Sans occulter les difficultés, nous avons partagé nos expériences les plus enthousiasmantes, les moments où nous avons été fièr·es de notre action à La Quadrature, où nous avons remporté des victoires.

Concernant notre organisation, nous pouvons mentionner, en vrac : l'implication active des bénévoles dans la communication et l'image de La Quadrature (le nouveau site arrive), nos nombreuses interventions auprès d'étudiant·es et du grand public (nous avons quelque chose à transmettre !), notre instance Peertube qui est une des plus fournies du Fediverse.

Pour plusieurs de nos membres, ces six derniers mois ont été l'occasion de faire leurs premières interventions publiques au nom de La Quadrature : l'association n'est plus centrée sur ses cofondateurs et portes-parole habituels, mais s'est élargie à l'ensemble de ses membres. Les expertises et les points de vue particuliers se confrontent, recréent du débat et nourrissent maintenant la voix de l'association.

Au cours de ces six derniers mois, l'association a développé ses actions avec des méthodes de travail nouvelles qui portent déjà leurs fruits.

Militer, ensemble : les vies de La Quadrature

À travers une discussion ouverte et apaisée, nous avons pu faire le douloureux (mais lucide) constat d'un problème dans l'articulation entre deux éléments : une équipe de salarié·es faisant face à de très nombreuses sollicitations, dans un climat où en matière de libertés fondamentales tous les sujets ou presque sont urgents ; un bureau bénévole qui continuait à cristalliser des attentes irraisonnables, pour la plupart héritées de la structure très resserrée des débuts de La Quadrature, et empêchait mécaniquement une meilleure répartition des tâches et des responsabilités avec les autres membres. Tout cela générait des tensions.

C'est dans ce contexte que, après dix ans d'engagement au sein de La Quadrature, Félix — l'un des deux co-présidents — a annoncé qu'il quittait le bureau, estimant que les chantiers d'organisation étaient suffisamment avancés pour qu'il prenne un peu de recul. Benjamin Bayart, qui l'épaulait à ce poste, a décidé de faire de même. Tous les deux restent membres de l'association et continuent à s'investir dans des dossiers majeurs.

Tout ceci nous a conduit à prendre le temps d'une discussion de fond et à repenser en profondeur l'organisation de l'association. L'idée est de permettre à l'ensemble des membres de travailler main dans la main avec l'équipe salariée, à travers différents groupes fluides et fonctionnels. Nous avons également consacré la collégialité dans la prise de décision, avec une large autonomie laissée à ces groupes.

Un nouveau bureau a été élu — destiné à jouer un rôle purement administratif (c'est une obligation légale) — et les rôles au sein du bureau ont été tirés au sort. Sa composition est transitoire et sera revue à l'occasion de la refonte des statuts lors de la prochaine AG, dans 6 mois.

L'ouverture en actes

Le gros chantier de cette AG consistait à définir les conditions d'accueil des nouve·lles membres, dans le cadre d'un deuxième élargissement à venir pour s'ouvrir à de nouvelles expertises et bonnes volontés. Tout était à inventer. Nous publierons avant la fin de l'année des informations sur la manière dont les bénévoles peuvent devenir membres de LQDN.

Le statut de membre entérine en fait un engagement aux côtés de l'association. Ce qui implique que l'action quotidienne de LQDN s'accompagne de nouveaux espaces de travail ouverts à tou·tes. C'est une nécessité, compte tenu du nombre des sujets à traiter, de l'importance de faire vivre le débat, de partager les expertises, et de trouver de nouveaux leviers de mobilisation collective. Nous vous présenterons donc, dans les prochaines semaines, de nouveaux espaces pour travailler ensemble sur les très nombreux sujets dont La Quadrature peut s'emparer.

Conclusion

Au total, cette assemblée générale à mi-parcours nous a tou·tes surpris·es. Tout s'est encore mieux passé que prévu. Nous avons pris deux jours pour faire le point, comprendre les souffrances de chacun·e, dans un calme et une écoute exemplaires. Nous sommes parvenu·es à tout mettre sur la table pour acter des méthodes nouvelles et précises, sans fâcher ni exclure personne. Il s'agit maintenant de pérenniser ce travail dans nos statuts.

L'horizon politique est ce qu'il est, et celui du numérique est inquiétant. En dépit d'un contexte hostile, ou à cause de lui, nous jouerons à fond notre rôle dans la défense politique et juridique d'un Internet libre, tourné vers l'émancipation, en lien avec d'autres organisations militantes. En repensant notre organisation, nous travaillons à nous remettre en question pour nous réinventer et jouer ce rôle du mieux que nous le pourrons, en prenant soin les un·es des autres.

Internet, Datalove et libertés <3


Accès Internet en vol : Air France oublie la neutralité du Net sur le tarmac

Tue, 02 Oct 2018 12:00:49 +0000 - (source)

Paris, 2 octobre 2018 – L'entreprise Air France a annoncé le 26 septembre la mise à disposition d'une offre d'accès à Internet par Wi-Fi à bord de ses avions. Cette offre propose différentes tarifications, basées non pas sur un quota de données ou une vitesse de connexion, mais sur une hiérarchisation des services. L'accès « gratuit » permet aux voyageurs de communiquer via Whatsapp (Facebook), Facebook Messenger, iMessage (Apple) ou WeChat (Tencent). L'opérateur aérien favorise donc ces trois entreprises en incitant fortement ses passagers à passer par leurs services, à l'exclusion de tous les autres, créant ainsi une distorsion de concurrence évidente en empêchant les personnes utilisant d'autres protocoles et services de communiquer (que ce soit dans un cadre personnel ou professionnel).

Les deux autres possibilités payantes offrent respectivement un accès aux Web/Mail (et non à l'ensemble d'Internet comme annoncé) et à des services de streaming. On peut facilement craindre qu'elles limitent elles aussi les accès des utilisateurs aux seuls services mis en valeur par la compagnie.

Cette offre limitée d'accès au réseau viole outrageusement la neutralité du Net, garantie notamment par le Règlement (UE) 2015/2120 du Parlement européen et du Conseil du 25 novembre 2015 établissant des mesures relatives à l’accès à un Internet ouvert. En effet, elle discrimine certains services aux dépens d'autres pourtant similaires, aux dépens des utilisateurs de ces derniers. L'ajustement des offres ne devrait avoir lieu que sur l'utilisation des ressources et non sur la discrimination de services.

Depuis de nombreuses années, La Quadrature du Net met en garde contre l'avènement d'un Internet à plusieurs vitesses, où des gardiens du temple favoriseraient les acteurs installés et leurs partenaires commerciaux, attaquant du même geste la liberté de choix des utilisateurs et utilisatrices, la concurrence non-faussée entre les services et, par extension, l'incroyable capacité d'innovation d'Internet.

Nous appelons Air France à revoir sa copie et à offrir à tous ses voyageurs un accès égal à Internet, quels que soient les services qu'ils souhaitent utiliser.


Réguler Internet par la décentralisation

Wed, 26 Sep 2018 17:51:53 +0000 - (source)

27 septembre 2018 - La directive droit d’auteur et les récents débats sur les « fausses informations » ont servi d’introduction au débat général sur la régulation du Web, tel qu'il s'annonce pour l'année à venir. Aujourd'hui, La Quadrature du Net présente ses propositions concrètes.

Le gouvernement français veut que les grands réseaux sociaux arrêtent de favoriser la diffusion de « propos haineux ou extrémistes ». Soit.

Le rapport visant à « renforcer la lutte contre le racisme et l'antisémitisme sur Internet », commandé par le Premier ministre et publié jeudi dernier, l'explique très bien. Il dénonce « un lien pervers entre propos haineux et impact publicitaire : les personnes tenant des propos choquants ou extrémistes sont celles qui "rapportent" le plus, car l'une d'entre elles peut en provoquer cinquante ou cent autres. Sous cet angle, l'intérêt des réseaux sociaux est d'en héberger le plus possible ».

Plus généralement, le rapport regrette la « règle selon laquelle un propos choquant fera davantage de "buzz" qu'un propos consensuel, alimentant de façon plus sûre le modèle économique des plateformes ». C'est la même analyse que nous faisions pour expliquer pourquoi attaquer Google ou Facebook en mai dernier, quand nous préparions nos plaintes collectives contre les GAFAM.

Pour compenser cette « règle » qui rendrait la haine et le conflit rentables, le gouvernement veut renforcer les obligations imposées aux plateformes géantes qui en profitent : transparence et devoir de vigilance accrus. Pourquoi pas (cela peut être fait de façon plus ou moins pertinente, nous y reviendrons plus tard). Mais cette solution ne suffira jamais à contrer à elle seule les dérives permises par la « rentabilité du conflit ». Et il est illusoire d'imaginer, comme le fait le rapport cité ci-dessus, qu'on pourrait atténuer ce problème en mettant un juge derrière chaque diffamation ou injure prononcée sur Internet. Il y en a bien trop.

Non, si on veut traiter le problème sérieusement, c'est l'ensemble de l'économie de l'attention qu'il faut remettre en question. Et cela doit passer par l'émergence d'alternatives saines qui reposent sur un autre modèle que celui des GAFAM.

Un droit actuel favorable aux géants

Aujourd'hui et depuis 15 ans, le droit freine le développement de telles alternatives. Il impose des obligations lourdes à tous les « hébergeurs » (les personnes qui conservent et diffusent sur Internet des contenus fournis par le public). Si un contenu « manifestement illicite » est signalé à un hébergeur, il doit le censurer « promptement » ou en devient personnellement responsable1.

En pratique, à La Quadrature du Net, nous avons songé à devenir un hébergeur de vidéos (en autorisant tout le monde à mettre en ligne des vidéos sur notre service de streaming Peertube). Ce serait une façon concrète de participer à la construction d'une alternative à Youtube, qui ne tirerait aucun profit des discours conflictuels ou de la surveillance de masse. Mais nous avons dû y renoncer. Nous n'avons pas du tout assez de juristes pour évaluer quelles vidéos seraient « manifestement illicites ». Nous n'avons pas les moyens de supporter des amendes en cas de plaintes. Youtube reste maître.

Alléger le régime des hébergeurs en les distinguant des plateformes géantes

Si le gouvernement veut effectivement lutter contre la diffusion de « contenus haineux et extrêmes », il doit changer le droit pour favoriser le développement d'alternatives à l'économie de l'attention. Voici notre proposition.

Premièrement, que les hébergeurs ne soient plus soumis aux mêmes obligations que les plateformes géantes, qui régulent les informations de façon active pour leurs intérêts économiques.

Secondement, que les hébergeurs, qui ne tirent aucun profit en mettant en avant de tel ou tel contenu, ne supportent plus la charge d'évaluer si un contenu est « manifestement illicite » et doit être censuré. Seul un juge doit pouvoir leur exiger de censurer un contenu.

Le cercle vertueux de la régulation décentralisée

Permettre à une multitude de petits hébergeurs de se développer fait naître l'espoir d'une auto-régulation efficace, placée dans les mains de l'ensemble de la population.

Dans le cadre de la loi, chaque hébergeur applique ses propres règles de modération, plus ou moins stricte, et chaque personne choisit l'espace de discussion adapté à ses besoins et à ses envies. La liberté de ce choix est renforcée par le développement des standards de « réseaux sociaux décentralisés », notamment du standard ActivityPub publié en janvier 2018 par le World Wide Web Consortium (W3C, à l’origine des standards du Web) et déjà appliqué par Mastodon (alternative à Twitter) ou Peertube. Ces standards permettront à une infinité d'hébergeurs de communiquer entre eux, selon les règles de chacun. Ils permettront aussi à chaque personne de passer librement d'un hébergeur à un autre, d'un jeu de règles à un autre (ce que les plateformes géantes font tout pour empêcher aujourd'hui).

Chaque personne choisira de s'exposer ou non à tel ou tel type de conflit, et chaque hébergeur modérera sa communauté à une échelle humaine. Cette structure offre l'espoir de diminuer significativement les conflits interpersonnels non-souhaités sur Internet. Ainsi, les juridictions n'auront plus à trancher autant de conflits qu'il en existe sur les plateformes géantes et pourront se recentrer sur les infractions les plus graves.

Si le gouvernement veut mieux réguler le Web, il doit le faire sérieusement. En se contentant d'alourdir les obligations des géants, son action restera superficielle. Pour agir en profondeur et sur le long terme, sa démarche doit aussi être constructive, favorisant le développement de modèles vertueux.


Le fichier TES, prémisse à la reconnaissance faciale de masse, arrive devant le Conseil d'État

Wed, 26 Sep 2018 12:38:27 +0000 - (source)

26 septembre 2018 - Mercredi 3 octobre prochain à 14h se tiendra au Conseil d'État l'audience concernant le fichier TES. Ce décret, publié le 28 octobre 2016, autorise la création par le Gouvernement d'un fichier regroupant les données biométriques de la quasi-totalité de la population française. Dès le 27 décembre 2016, La Quadrature du Net, avec le soutien des Exégètes amateurs, avait demandé l'annulation de ce décret. Venez avec nous assister à l'audience !

Le décret n°2016-1460 du 28 octobre 2016 autorise la création par le Gouvernement d'une base de données regroupant les données biométriques (visage, empreintes digitales, noms, domicile, sexe, couleur des yeux, taille....) de la quasi-totalité de la population française, avec, comme objectif affiché, la simplification des démarches administratives liées à la délivrance des cartes d'identité et des passeports ainsi que la lutte contre leur falsification et contrefaçon.

Le 26 décembre 2016, La Quadrature du Net avait déposé, avec le soutien des Exégètes amateurs, une requête introductive d'instance devant le Conseil d’État visant à faire annuler ce décret avant de déposer un mémoire complémentaire le 27 mars 2017 et un mémoire en réplique, à la suite de la défense du gouvernement, le 18 août 20171. Depuis, aucune nouvelle jusqu'à ce qu'on nous annonce aujourd'hui qu'une audience aura lieu le mercredi 3 octobre prochain devant le Conseil d’État.

Comme nous l'avions relevé dans nos écritures (en lien ci-dessus), la création d'une telle base de données est inutile pour atteindre l'objectif annoncé. Celui-ci aurait pu en effet être poursuivi tout aussi efficacement en prévoyant la conservation de ces informations sur le seul titre d’identité (au moyen d'une puce électronique), tout en faisant disparaître les risques liés à leur centralisation (risques politiques de dévoiement du fichier et risques techniques de fuites de données biométriques). C'est déjà ce que prévoit l'Union européenne pour les passeports et bientôt les cartes d'identité : les données doivent être conservées sur le titre.

En réalité, et nous l'avions souligné dès la publication du décret, la création du fichier TES (et l'enregistrement automatisé des images des visages de la population) préfigure le développement et l'utilisation par le Gouvernement des technologies de reconnaissance faciale à des fins de surveillance généralisée de la population

Son article 4 prévoit ainsi déjà que l'accès à ce fichier n'est pas limité à la lutte contre la falsification et la contrefaçon mais également ouvert aux agents « chargés des missions de prévention et de répression des atteintes aux intérêts fondamentaux de la Nation et des actes de terrorisme » (à l'exclusion des données concernant les empreintes digitales). D'ores et déjà, ce champ d'application très flou laisse craindre d'importantes dérives dans les usages policiers de ce fichier. À l'avenir, ils pourront être encore démultipliés par la voie d'une simple modification législative ou réglementaire, par exemple pour permettre de coupler ce fichier aux systèmes de surveillance dopés aux Big Data dont certaines polices municipales commencent à s'équiper.

L'actualité montre que nos craintes était bien fondées et que la reconnaissance faciale risque d'être l'un des outils principaux de la surveillance de masse de la population par les autorités. Si celle-ci est déjà mise en œuvre à grande échelle dans certains États (notamment en Chine), elle se développe à grande vitesse également en France, que ce soit dans nos aéroports, dans nos gares ou dans nos lycées. En 2016, quelques semaines avant la création du fichier TES, des propositions de loi avaient d'ailleurs été déposées visant à coupler vidéosurveillance et reconnaissance faciale pour les « fichés S »2.

Face à ce raz-de-marée qui déferle dans une relative indifférence, la CNIL en est aujourd'hui réduite à appeler « à un débat démocratique » sans pouvoir (ou sans oser ?) user de ses pouvoirs pour barrer la route à ces premiers déploiements grandeur nature.

Le fichier TES constitue en tous cas le préalable technique au développement généralisé et définitif de la reconnaissance faciale. Il nous faut obtenir du Conseil d'État son annulation et sa destruction.

Vous êtes toutes et tous invités à venir assister avec nous à l'audience de mercredi. Elle aura lieu à 14h (mais venez à l'avance !) au Conseil d'État, 1 place du Palais-Royal à Paris.

À mercredi !


La directive Copyright n’est pas une défaite pour l’Internet Libre et Ouvert !

Tue, 18 Sep 2018 13:59:45 +0000 - (source)

18 septembre 2018 - Bien que la directive droit d'auteur soit le symptôme d'une soumission économique de nos industries aux géants du Web, elle crée néanmoins l'opportunité de remettre en cause ces géants, au profit de l'Internet décentralisé.

C'est ce que nous rappelle Calimaq, membre de La Quadrature du Net, dans cette tribune - initialement publiée sur son blog.

Qu’est-ce qu’une victoire et qu’est-ce qu’une défaite ? En un peu plus de 10 ans de militantisme pour les libertés dans l’environnement numérique, j’ai souvent eu l’occasion de me poser cette question. Et elle surgit à nouveau de la plus cruelle des manières, suite au vote du Parlement européen en faveur de la directive sur le Copyright, alors même que le précédent scrutin en juillet avait fait naître l’espoir d’une issue différente.

vote

L’expérience m’a cependant appris que rien n’est plus trompeur que les votes parlementaires pour apprécier si l’on a « gagné » ou « perdu ». En 2012, lorsque le Parlement européen avait rejeté l’accord anti-contrefaçon ACTA, nous pensions avoir remporté une victoire historique qui changerait le cours des choses. Et nous avons ensuite sincèrement œuvré en ce sens, pensant que ce serait le premier acte d’une réforme positive du droit d’auteur. Mais le recul nous montre qu’il s’agissait en réalité d’une simple séquence au sein d’un ensemble plus vaste, qui a progressivement conduit au revers de cette semaine.

Les votes dans les assemblées nous abusent telles des illusions d’optique, parce qu’ils ressemblent à ce que les spécialistes de stratégie appellent des « batailles décisives ». Pendant des siècles, les généraux ont cherché à obtenir cet ultime Graal de l’art militaire : un unique affrontement ayant la faculté de mettre fin à la guerre en désignant sans ambiguïté un gagnant et un perdant. Mais les historiens ont montré que la bataille décisive constituait aussi un mythe dangereux, dont la poursuite pouvait devenir la cause même de la défaite. En 1941, au début de l’opération Barbarossa, l’armée nazie remporte ainsi sur les soviétiques une série de victoires comptant parmi les plus spectaculaires de toute l’histoire. Mais ces succès ne l’empêchèrent pas ensuite de connaître un échec cuisant devant Moscou, qui marquera le point de départ d’un lent déclin les conduisant à une déroute totale en 1945. Or une des grandes différences entre l’Armée allemande et l’Armée rouge durant la Seconde Guerre mondiale, c’est que la seconde avait compris qu’il lui fallait arrêter de chercher à remporter une bataille décisive pour espérer gagner la guerre, tandis que les nazis se sont accrochés jusqu’au bout à ce mythe qui a fini par les perdre.

barborossa

Or il y a un parallèle à faire entre cette histoire et celle de la lutte pour les libertés numériques. Trop souvent, nous avons concentré nos énergies sur des combats législatifs, hypnotisés par l’idée que le décompte des voix conduirait à une sorte « d’ordalie démocratique ». Cela nous a donné plusieurs fois l’illusion d’avoir remporté quelque chose, comme au moment du rejet de l’ACTA, alors que les racines du problème restaient intactes. Mais heureusement en sens inverse, si la victoire n’est jamais acquise en cas de succès législatif, il en est de même pour la défaite. Et rien ne serait plus faux que de penser que le vote de cette semaine sur la directive Copyright constitue la fin de l’histoire, sous prétexte que nous aurions encaissé là une défaite décisive !

Nous avons pas « perdu Internet » !

Certes les articles 11 et 13 du texte, qui instaurent une obligation de filtrage automatisé des plateformes et une taxe sur les liens hypertextes au profit des éditeurs de presse, représentent des monstruosités contre lesquelles il était nécessaire de lutter. Mais il convient à présent d’apprécier exactement la portée de ces mesures, pour réadapter très rapidement notre stratégie en conséquence à partir d’une appréhension claire de la situation. Or cette « vision stratégique d’ensemble » est à mon sens précisément ce qui a manqué tout au long de cette campagne dans le camp des défenseurs des libertés numériques et il est inquiétant de constater que ces erreurs de jugement n’ont pas disparu maintenant que l’heure est venue d’analyser les conséquences du scrutin.

On a pu voir par exemple cette semaine l’eurodéputée du Parti Pirate Julia Reda expliquer sur son blog que ce vote constituait un « coup dur porté à l’internet libre et ouvert » (Today’s decision is a severe blow to the free and open internet). De son côté, Cory Doctorow a écrit un article sur le site de l’EFF, où il affirme que « l’Europe a perdu Internet » (Today, Europe lost the Internet). Sur Next INpact, Marc Rees déplore dans la même veine « une mise au pilori du Web tel que nous le connaissons, un affront à la liberté d’expression. » Ces appréciations font écho au mot d’ordre qui fut celui des défenseurs des libertés en campagne contre les articles 11 et 13 de la Directive : Save Your Internet (Sauvez votre Internet).

Save interwhat?

Or lorsqu’on lit attentivement ces articles, tels qu’amendés par le vote des eurodéputés, on se rend compte qu’ils ne visent pas pas « l’Internet » ou « le Web » tout entier, mais seulement une catégorie d’acteurs déterminés, à savoir les plateformes centralisées à but lucratif. Ce n’est donc pas « l’Internet libre et ouvert » qui va être frappé par cette directive, mais plutôt exactement ce qui représente son antithèse ! A savoir cette couche d’intermédiaires profondément toxiques qui ont dénaturé au fil du temps les principes sur lesquels Internet et le Web s’appuyaient à l’origine pour nous faire basculer dans la « plateformisation ». Pour se convaincre que ces acteurs n’ont absolument plus rien à voir avec un Internet « libre et ouvert », il est bon de relire ce que Tim Berners-Lee, l’inventeur du web, en disait au mois d’août dernier :

Nous avons démontré que le Web avait échoué au lieu de servir l’humanité, comme il était censé le faire, et qu’il avait échoué en de nombreux endroits. La centralisation croissante du Web, dit-il, a fini par produire – sans volonté délibérée de ceux qui l’ont conçu – un phénomène émergent à grande échelle qui est anti-humain.

Or le grand mensonge sur lesquels s’appuient les GAFAM – principaux responsables de cette centralisation -, c’est de chercher à faire croire qu’ils représentent à eux-seuls l’Internet tout entier, comme si rien ne pouvait plus exister en dehors de leur emprise. En ce sens quand j’entends Cory Doctorow dire que nous « avons perdu Internet » à cause de mesures ciblant les acteurs centralisés lucratifs, je ne peux que frémir. Avec tout le respect que je peux avoir pour ce grand monsieur, ses propos paraissent avoir incorporé la prétention des GAFAM à recouvrir le web et c’est particulièrement grave. Car c’est précisément cela qui constituerait la défaite finale des défenseurs des libertés : se résigner à cet état de fait et ne pas agir sur les marges dont nous disposons encore pour briser cette hégémonie.

Voilà pourquoi il faut aujourd’hui l’affirmer avec force : non, la directive Copyright n’est donc pas une défaite pour l’Internet Libre et Ouvert ! C’est notre vision même du sens de la lutte qu’il faut aujourd’hui urgemment reconfigurer, pour sortir de l’ornière au fond de laquelle nous sommes en train de nous enfermer et qui ne peut nous conduire qu’à de nouvelles défaites plus cuisantes encore que celle-ci.

Sortir d’une conception « formelle » de la liberté d’expression

Sur Next INpact, Marc Rees identifie avec raison le changement le plus profond que ce texte va amener : il remet en question la distinction classique entre hébergeurs et éditeurs, issue de la directive eCommerce de 2000. Jusqu’à présent, les hébergeurs bénéficiaient d’une responsabilité atténuée vis-à-vis des actes commis par leurs utilisateurs. Au lieu de cela, la directive Copyright introduit une nouvelle catégorie d’intermédiaires dits « actifs » qui devront assumer la responsabilité des contenus qu’ils diffusent, même s’ils ne sont pas directement à l’origine de leur mise en ligne. Mais il est important de regarder quels critères la directive utilise pour identifier ce nouveau type d’acteurs :

La définition du prestataire de services de partage de contenus en ligne doit, au sens de la présente directive, englober les prestataires de services de la société de l’information dont l’un des objectifs principaux consiste à stocker, à mettre à la disposition du public ou à diffuser un nombre appréciable de contenus protégés par le droit d’auteur chargés ou rendus publics par leurs utilisateurs, et qui optimisent les contenus et font la promotion dans un but lucratif des œuvres et autres objets chargés, notamment en les affichant, en les affectant de balises, en assurant leur conservation et en les séquençant, indépendamment des moyens utilisés à cette fin, et jouent donc un rôle actif.

On voit que le « rôle actif » se déduit de trois éléments : la taille de l’acteur, son but lucratif et la hiérarchisation automatisée de contenus. Ce sont donc bien des plateformes centralisées lucratives, type Facebook ou YouTube, qui devront assumer cette nouvelle responsabilité. Pour y échapper, elles devront conclure des accords de licence pour rémunérer les ayant droits et, à défaut, déployer un filtrage automatisé des contenus a priori. En pratique, elles seront certainement toujours obligées de mettre en place un filtrage, car il est quasiment impossible d’obtenir une licence capable de couvrir l’intégralité des œuvres pouvant être postées.

Nous avons combattu en lui-même le filtrage automatique, car c’était une mesure profondément injuste et disproportionnée. Mais une question mérite d’être posée : au nom de quoi les défenseurs d’un « Internet Libre et Ouvert » devraient-ils s’émouvoir de ce que les plateformes centralisées et lucratives perdent le bénéfice de la quasi-immunité dont elles bénéficiaient jusqu’à présent ? La directive a par ailleurs pris le soin de préciser que les « prestataires sans finalité commerciale, comme les encyclopédies en ligne de type Wikipedia » ainsi que les « plateformes de développement de logiciels Open Source » seraient exclus du champ d’application de l’article 13, ce qui donne des garanties contre d’éventuels dommages collatéraux.

Marc Rees nous explique que cette évolution est dangereuse, parce que l’équilibre fixé par la directive eCommerce constituerait le « socle fondamental du respect de la liberté d’expression » sur Internet. Mais cette vision me paraît relever d’une conception purement « formelle » de la liberté d’expression. Peut-on encore dire que ce qui se passe sur Facebook ou YouTube relève de l’exercice de la liberté d’expression, alors que ces acteurs soumettent leurs utilisateurs à l’emprise d’une gouvernance algorithmique de plus en plus insupportable, que cible précisément la notion de « rôle actif » ?

Il est peut-être temps de tirer réellement les conséquences de la célèbre maxime « Code Is Law » de Lawrence Lessig : le droit n’est qu’une sorte de voile dans l’environnement numérique, car c’est le soubassement technique sur lequel s’appuie les usages qui conditionne réellement l’exercice des libertés. Quoi que dise la directive eCommerce, il n’y a quasiment plus rien qui relève de l’exercice de la liberté d’expression sur les plateformes centralisées lucratives, sinon une grotesque parodie qui salit le nom même de la liberté et nous en fait peu à peu perdre jusqu’au sens !

En le lisant « en creux », l’article 13 dessine au contraire l’espace sur Internet où la liberté d’expression peut encore réellement s’exercer : le réseau des sites personnels, celui des hébergeurs ne jouant pas un rôle actif et – plus important encore – les nouveaux services s’appuyant sur une fédération de serveurs, comme Mastodon ou Peertube.

Se doter (enfin) d’une doctrine économique claire

Allons même plus loin : en introduisant le critère de la lucrativité, l’article 13 donne aux défenseurs des libertés sur Internet l’occasion de revoir leur doctrine économique, qui m’a toujours paru constituer un sérieux talon d’Achille dans leurs positions…

Les eurodéputés ont introduit une autre exception afin que l’article 13 ne s’applique pas aux « micro, petites et moyennes entreprises« . Personnellement, je ne me réjouis pas du tout de cette insertion, car sur Internet, « micro-entreprises » veut souvent dire « start-up » et l’on sait que ces jeunes pousses aux dents longues aiment à se construire sur des modèles extrêmement toxiques de captation des utilisateurs et de prédation des données personnelles. Le critère de la taille n’est pas en lui-même pertinent, car tous les Léviathans du numérique ont commencé par être petits avant de grossir. Ce qu’il importe, c’est justement qu’aucun acteur ne soit plus en mesure d’enfler jusqu’à atteindre une taille hégémonique, et pour cela, c’est bien sur le critère de la lucrativité qu’il faut jouer.

Dans son article sur le site de l’EFF, Cory Doctorow estime que l’Union européenne s’est tirée une balle dans le pied avec cette directive Copyright, car elle aurait imposé des contraintes insurmontables à ses propres entreprises, qui ne pourraient plus espérer désormais rattraper les géants américains ou chinois. Mais ces propos me paraissent reposer sur une vision complètement « enchantée » de la concurrence, comme s’il était encore possible de croire qu’un « marché sain » est en mesure de nous sauver des monstruosités qu’il a lui-même engendrées.

Ce qui va se passer à présent avec l’obligation de filtrage automatisée, c’est que les grandes plateformes centralisées lucratives, type YouTube ou Facebook, vont sans doute devenir des espaces où les utilisateurs éprouveront le poids d’une répression « à la chinoise » avec la nécessité de se soumettre à un contrôle algorithmique avant même de pouvoir poster leurs contenus. Le contraste n’en sera que plus fort avec les espaces restant en dehors du périmètre de l’article 13, que les créateurs et leur public seront d’autant plus incités à rejoindre. Doit-on réellement le déplorer ?

Il faut bien voir en outre que le fait de ne pas poursuivre un but lucratif ne signifie pas que l’on ne puisse plus inscrire son activité dans la sphère économique. C’est exactement ce que fait depuis plus d’un siècle l'économie sociale et solidaire, en renonçant volontairement pour des raisons éthiques à poursuivre un but lucratif ou en limitant statutairement sa lucrativité. Voilà donc l’occasion d’en finir par le mythe selon lequel « l’Internet libre et ouvert » serait compatible avec les principes mêmes du capitalisme. C’est précisément cette illusion qui a enclenché le processus fatal de centralisation et cette dérive ne pourra être combattue qu’en revenant à la racine économique du problème.

On retrouve ici le problème de « l’agnosticisme économique » dont j’ai déjà parlé sur ce blog à propos du fonctionnement même des licences libres. En refusant de discriminer selon les types d’usages économiques, les défenseurs du Libre se sont en réalité privés de la possibilité de développer une réelle doctrine économique. C’est ce même aveuglement aux questions économiques qui conduit à des aberrations de positionnement comme celles que l’on a vu au cours de cette campagne contre la directive Copyright. Comment mobiliser autour du mot d’ordre « Save Your Internet », alors que cet « Internet » que l’on a voulu faire passer pour « le notre » comprend en réalité les principaux représentants du capitalisme de surveillance ? C’est le sens même de nos luttes qui disparaît si nous ne nous donnons pas les moyens d’opérer des distinctions claires parmi les acteurs économiques.

Et maintenant, que faire ?

En juin dernier, c’est-à-dire avant même le premier vote sur la directive, La Quadrature du Net a commencé à développer ce type d’analyses, en suggérant de ne pas s’opposer à l’introduction du critère du « rôle actif » des plateformes pour au contraire le retourner comme une arme dans la lutte contre la centralisation :

Tous ces enjeux connaissent un ennemi commun : la centralisation du Web, qui a enfermé la très grande majorité des internautes dans des règles uniques et rigides, qui n’ont que faire de la qualité, de la sérénité ou de la pertinence de nos échanges, n’existant que pour la plus simple recherche du profit de quelques entreprises.

L’une des principales causes de cette centralisation est le frein que le droit a longtemps posé contre l’apparition de son remède – le développement d’hébergeurs non-centralisés qui, ne se finançant pas par la surveillance et la régulation de masse, ne peuvent pas prendre le risque de lourds procès pour avoir échoué à retirer « promptement » chaque contenu « illicite » qui leur serait signalé. Des hébergeurs qui, souvent, peuvent à peine prendre le risque d’exister.

La condition du développement de tels services est que, enfin, le droit ne leur impose plus des règles qui depuis vingt ans ne sont presque plus pensées que pour quelques géants. Prévoir une nouvelle catégorie intermédiaire dédiée à ces derniers offre l’espoir de libérer l’Internet non-centralisé du cadre absurde dans lequel juges et législateurs l’ont peu à peu enfermé.

Dans sa réaction au vote de mercredi, Julia Reda rappelle qu’il ne s’agit pas de la fin du processus et qu’il reste encore une phase de trilogue avec la Commission et le Conseil, ainsi qu’un dernier vote au Parlement, sans doute au Printemps. Elle estime qu’il resterait encore une carte à jouer, en appelant les citoyens à se mobiliser pour faire pression sur leurs gouvernements en espérant que cela puisse encore conduire au retrait de l’article 13. Mais outre que cette hypothèse paraît hautement improbable étant donné les équilibres politiques, elle me paraît relever d’une certaine forme de désarroi, comme s’il y avait encore lieu de chercher à remporter une « bataille décisive » alors que les paramètres stratégiques du combat ont profondément évolué.

L’enjeu n’est pas de chercher – sans doute vainement – à supprimer l’article 13, mais de réussir à délimiter clairement son périmètre pour s’assurer qu’il ne s’appliquera qu’à des acteurs centralisés lucratifs procédant à une hiérarchisation des contenus. Manœuvrer ainsi ferait peser sur les GAFAM une charge écrasante, tout en préservant un espace pour développer un réseau d’acteurs éthiques non-centralisés et inscrits dans une logique d’économie solidaire. Il n’y a qu’au sein d’une telle sphère que l’on puisse encore espérer œuvrer pour un « Internet Libre et Ouvert ».

Il faut aussi sortir de l’urgence immédiate imposée par cette série de votes pour se replacer dans le temps long. De toutes façons, quelle que soit l’issue des dernières négociations, il restera encore plusieurs années (3, 4, peut-être plus ?) avant que la directive ne soit transposée dans les pays de l’Union. C’est un délai appréciable qui nous laisse encore le temps de travailler au développement de cette sphère d’acteurs alternatifs.

Du coup, si vous voulez concrètement faire quelque chose pour « l’Internet Libre et Ouvert », je ne vous conseillerai pas d’appeler votre député, mais plutôt d’aller faire un don à l’association Framasoft, car ce sont eux qui ont sans doute le mieux compris et anticipé les changements nécessaires à opérer dans notre stratégie. Avec PeerTube, l’alternative fédérée à YouTube qu’ils sont en train de bâtir, ils plantent une graine en laquelle nous pouvons encore placer nos espoirs. Et avec le collectif d’hébergeurs alternatifs CHATONS qu’ils ont fait émerger, ils ont déjà préfiguré ce que pourrait être cette alliance du Libre et de l’Economie Sociale et Solidaire dont nous avons besoin pour rebooter le système sur des bases économiques saines.

« Une bataille perdue est une bataille que l’on croit perdue » – Napoléon.


Censure antiterroriste: la Commission européenne veut détruire l'Internet décentralisé

Wed, 12 Sep 2018 13:04:08 +0000 - (source)

12 septembre 2018 - Ce matin, alors que toute l'attention était tournée vers l'adoption de la directive droit d'auteur, la Commission européenne a publié sa proposition de règlement contre la propagande terroriste en ligne.

Ce texte sécuritaire prévoit d'imposer plusieurs obligations aux hébergeurs, et notamment le retrait en moins d'une heure des contenus signalés. Il banalise la censure policière ou privée et donc le contournement de la justice. Il fait des filtres automatiques - justement au coeur du débat sur la directive droit d'auteur - la clé des politiques de censure à l'ère numérique1.

Seule une poignée d'hébergeurs pourront satisfaire de telles obligations - en particulier le délai d'une heure pour censurer les contenus. Les autres hébergeurs - la très grande majorité qui, depuis les origines, ont constitué le corps d'Internet - seront incapables d'y répondre et s'exposeront systématiquement à des sanctions.

Si ce texte était adopté, les quasi-monopoles du Net (Google, Amazon, Facebook, Apple, Microsoft, Twitter...) se verront consacrés dans leur rôle clé pour les politiques sécuritaires des États membres, et renforcés dans leurs positions ultra-dominantes - tous les autres services ayant dû fermer boutique, y compris les services décentralisés qui respectent nos droits. Après avoir vaguement prétendu nous défendre avec le RGPD, la Commission européenne change radicalement de direction et compte désormais défaire l'État de droit en renforçant et en pactisant avec des firmes surpuissantes, qui exploitent nos libertés.

Pourtant, le reste de l'Internet, l'Internet décentralisé et gouvernable de façon démocratique, repose sur un contrôle fin et adapté à chaque personne des contenus qui y sont diffusés. Cette organisation est une des solutions les plus pertinentes pour freiner la propagation de messages problématiques, mais la Commission compte justement la détruire en lui imposant des obligations impossibles à respecter.

En pratique, la proposition de la Commission est donc non seulement inutile - les géants sont déjà largement actifs pour surveiller et censurer et collaborent très largement avec les autorités en matière antiterroriste.2 Elle est surtout contre-productive : son principal effet serait de détruire l'unique version d'Internet compatible avec nos libertés fondamentales.

Ce règlement vient à peine d'être proposé aujourd'hui. S'ensuivront des débats au sein des différentes institutions européennes. Nous y contribuerons avec la plus grande rigueur.


Powered by VroumVroumBlog 0.1.32 - RSS Feed
Download config articles