Cet article date de plus de huit ans.

Attentats de Paris: que risquent Facebook, Twitter et Google devant un tribunal?

Reynaldo Gonzalez, le père de l'une des victimes des attentats de Paris, a déposé une plainte aux Etats-Unis contre Facebook, Twitter et Google. Il les accuse de soutenir la propagande djihadiste. L'avocat français Antoine Chéron, spécialiste du droit de l'Internet, revient sur la portée juridique d'une telle action. Entretien.
Article rédigé par Falila Gbadamassi
France Télévisions - Rédaction Culture
Publié Mis à jour
Temps de lecture : 8min
 
La plainte qui accuse les entreprises du Net de soutenir la propagande djihadiste déposée par le père de Nohemi Gonzalez, seule victime Américaine des attentats du 13 novembre, a-t-elle des chances d'aboutir aux Etats-Unis? 
Cette plainte remet sur le devant de la scène la question épineuse du rôle joué par les grands acteurs de l’Internet comme Facebook, Twitter et Youtube dans la propagation de l’idéologie djihadiste. Cependant, elle est en contradiction avec la liberté d’expression «à l’américaine». Aux Etats-Unis, la liberté d’expression a une portée très forte. Elle est consacrée par le premier amendement de la Constitution américaine et a un périmètre bien plus large qu’en France et en Europe d’une manière générale. A titre d’illustration, suite aux attentats de Charlie Hebdo, un journaliste du Washington Post affirmait que «si les Français veulent rendre hommage à ceux tués à Charlie Hebdo, ils devraient commencer par abroger les lois qui criminalisent l’insulte, la diffamation, les incitations à la haine, la discrimination ou la violence sur la base d’une religion, race, ethnie, nationalité, d'un handicap, ou d'une orientation sexuelle»

En s’attaquant aux réseaux sociaux, ce père s’attaque aussi à la liberté d’expression, fut-elle celle des djihadistes. C’est pourquoi son action apparaît plus symbolique que sérieusement fondée. Malgré tout, si elle couronnée de succès, cela créera un précédent important aux Etats-Unis, pays de Common Law, où la jurisprudence a force de loi. Cela entraînerait vraisemblablement des actions collectives de la part des ayants droit des victimes d’attentats terroristes, comme celles d’Orlando.

En France, quel serait le fondement légal d’une telle action?
Il existe depuis la loi du 13 novembre 2014 un fondement légal réprimant spécifiquement «le fait de provoquer directement à des actes de terrorisme ou de faire publiquement l'apologie de ces actes» (article 421-2-5 du Code pénal). Mais les réseaux sociaux et Youtube ne diffusent pas «directement» de tels contenus, ils ne se rendent donc jamais coupables d’une telle infraction. Ils ne font que l’héberger et n’exercent pas un contrôle a priori sur les publications. Ils ont donc une responsabilité assez limitée en vertu de l’article 6.I.2 de la loi pour la confiance dans l’économie numérique (LCEN est le cadre juridique qui prévaut en France en matière de numérique, NDLR) disposant que les hébergeurs «ne peuvent pas voir leur responsabilité civile engagée du fait des activités ou des informations stockées à la demande d'un destinataire de ces services si elles n'avaient pas effectivement connaissance de leur caractère illicite ou de faits et circonstances faisant apparaître ce caractère ou si, dès le moment où elles en ont eu cette connaissance, elles ont agi promptement pour retirer ces données ou en rendre l'accès impossible.»

C’est une transposition littérale de la directive européenne 2000/31/CE. Le raisonnement est donc le même au niveau des juridictions européennes. Ainsi, pour engager leur responsabilité, il faut prouver que les entreprises ont eu connaissance par elles-mêmes ou suite aux plaintes d’internautes du contenu illicite diffusé sur leur plateforme et qu’elles n’ont pas réagi promptement pour supprimer ce contenu. En conclusion, on peut légalement poursuivre Twitter, Facebook et Google mais seulement à la condition d’apporter la preuve de leur inaction, de leur négligence face à la publication d’un contenu illicite.

C'est ce que Reynaldo Gonzalez tente de faire. Il accuse les réseaux sociaux d'avoir apporté «en connaissance de cause (...) un soutien matériel clé dans l'ascension de (Daech) et lui (avoir) permis de mener de nombreux attentats y compris celui du 13 novembre»...
La plainte interroge le rôle actif ou passif des réseaux dans leur propre instrumentalisation. Le père de la victime a mis en avant qu’en décembre 2014, l’Etat islamique avait 70.000 comptes Twitter dont au moins «79 officiels» ce qui générait «au moins 90 tweets par minute». A cela, Twitter réplique que depuis mi-2015, 125.000 comptes faisant l’apologie du terrorisme ont été supprimés. Se cantonnant au rôle de simples hébergeurs passifs, les grands acteurs de l’Internet font tout de même preuve d’hypocrisie car, par des procédés algorithmiques automatiques, les réseaux vont jusqu’à suggérer des contenus illicites aux personnes susceptibles de se radicaliser.

De la même manière, le père de la victime a joint à sa plainte une capture d’écran montrant que Google a placé une publicité sur une vidéo Youtube d’un sympathisant de l’Etat islamique. On s’approche de plus en plus d’un rôle éditorial, même si celui-ci est le fruit d’un logiciel. En mettant en place ce type d’algorithme qui ne détecte pas a priori les contenus illicites et les traite au même niveau que les autres, Google, Facebook et Twitter font de la résistance à une autocensure qui serait de mise dans le contexte actuel. Il apparaît en effet nécessaire de discriminer les publications en violation du principe de la neutralité du net pour contrer l’utilisation qu’en font les terroristes à des fins de propagande, d’endoctrinement et d’enrôlement à travers le monde. 

Quels sont les enjeux juridiques liés à la mise à disposition prochainement d'un logiciel capable de détecter et de supprimer les contenus violents (il fonctionnera sur le même modèle que le logiciel sur la pornographie infantile)? Pourra-t-on ainsi légalement reprocher aux acteurs du Net d’être négligents si en dépit de tout cet attirail, l’on retrouvait encore ces contenus sur leurs plateformes? 
L’hébergeur ne peut se voir imposer une obligation générale de surveillance et de filtrage des contenus illicites en vertu de la LCEN, il n’est donc pas tenu à la mise en place d’un tel logiciel. Mais bien entendu, les acteurs de l’Internet sont prêts à l’intégrer à leur système sur la base du volontariat, cette question ne posera, semble-t-il, aucun problème. La logique reste toujours la même: si un logiciel permet de détecter a posteriori de leur publication les contenus violents, on imagine qu’un système de signalisation automatique aux hébergeurs (Facebook, Twitter, Youtube…) sera installé en parallèle. Il sera alors d’autant plus facile de reprocher à ces hébergeurs de ne pas avoir retiré promptement ce contenu notifié comme étant violent.

Par conséquent, la technologie des logiciels de détection de contenu ne modifie pas vraiment la responsabilité des acteurs de l’Internet dès lors qu’ils contrôlent a posteriori les publications des internautes. Mais, dans les faits, les logiciels vont faire augmenter de manière significative le nombre de notification de contenus manifestement illicites aux hébergeurs. Ces derniers devront donc adapter leur capacité à accomplir les opérations nécessaires en vue de rendre impossible l’accès et la remise en ligne de ce contenu. Ils devront, par exemple, augmenter les effectifs des modérateurs. Il faudra également qu'une véritable collaboration soit établie entre les responsables du logiciel et les principaux sites instrumentalisés pour inciter à la violence. 

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.