Le délit de consultation de sites terroristes de nouveau attaqué (13.07.2017)
La presse américaine veut s’unir face à Facebook et Google (11.07.2017)
Condamnation d'un médecin auteur d'un message homophobe sur Facebook (06.07.2017)La presse américaine veut s’unir face à Facebook et Google (11.07.2017)
L’Allemagne vote une loi obligeant les réseaux sociaux à supprimer les contenus haineux (03.07.2017)
Facebook lève un peu plus le voile sur ses pratiques de modération (30/06/2017)
Who should decide what is hate speech in an online global community ? (Richard Allan)
Facebook : « Nous voulons faire d’Internet une “no-go zone” pour les terroristes » (16/06/2017)
M. Macron et Mme May s’accordent sur un plan d’action antiterroriste et le calendrier du Brexit (13/06/2017)
Le délit de consultation de sites terroristes de nouveau
attaqué (13.07.2017)
Par Le Figaro.fr avec AFPMis à jour le 13/07/2017 à 18:01
Publié le 13/07/2017 à 17:58
Le tribunal correctionnel d'Angers a transmis à la Cour de
cassation un nouveau recours contre le délit de consultation habituelle de
sites terroristes, une infraction censurée par le Conseil constitutionnel avant
d'être rétablie par le Parlement.
Sami Khankan, l'avocat de David Pagerie, jugé pour
consultation habituelle de sites terroristes devant le tribunal correctionnel
d'Angers, a contesté ces poursuites dans une question prioritaire de
constitutionnalité (QPC) que le tribunal a décidé de transmettre jeudi à la
Cour de cassation.
Selon ses arguments le nouveau texte "incrimine et
punit la consultation habituelle sans définir les critères permettant de
qualifier une consultation d'habituelle" ou encore n'apporte "aucune
définition de la notion de terrorisme et de manifestation à une idéologie"
et atteint "la liberté de communication et d'opinion de tout
citoyen".
Le Conseil constitutionnel, saisi en décembre d'une QPC du
même avocat pour ce délit, créé par la loi pénale du 3 juin 2016, avait estimé que ce texte portait atteinte aux libertés fondamentales alors que la France
était déjà dotée d'un arsenal législatif conséquent pour lutter contre le
terrorisme. Mais en février dernier députés et sénateurs avaient rétabli le délit de consultation "habituelle" de sites djihadistes en
l'intégrant, réécrit, dans le projet de loi sécurité publique.
LIRE AUSSI:
La presse américaine veut s’unir face à Facebook et Google (11.07.2017)
Une alliance regroupant 2 000 titres demande un assouplissement de la législation antitrust pour pouvoir négocier collectivement avec les deux géants de la Silicon Valley.
LE MONDE ECONOMIE | 11.07.2017 à 05h39 • Mis à jour le 11.07.2017 à 12h30 | Par Alexis Delcambre
Un nouveau front s’est ouvert, dimanche 9 juillet, entre les médias américains et les deux plates-formes qui dominent le trafic et la publicité sur le Web, Facebook et Google. Environ 2 000 titres de la presse régionale et nationale, écrite et numérique, aux Etats-Unis, parmi lesquels le New York Times, le Wall Street Journal et le Washington Post, membres de la News Media Alliance (l’« Alliance des médias d’information » créée en 2015), demandent au Congrès de légiférer pour leur donner le droit de négocier collectivement avec les deux géants.
Dans une tribune publiée par le Wall Street Journal, le PDG de cette alliance, David Chavern, rappelle que « le journalisme de qualité est critique pour le maintien de la démocratie » et ajoute que « pour s’assurer qu’un tel journalisme ait un avenir, les organes de presse qui le pratiquent doivent être capables de négocier collectivement avec les plates-formes numériques qui contrôlent la distribution et l’accès au public ».
« Duopole numérique »
Une telle démarche est actuellement prohibée par la loi antitrust, car elle s’apparente à une entente entre entreprises d’un même secteur. L’objectif de l’alliance est d’obtenir un infléchissement de la législation, en faisant reconnaître le déséquilibre actuel du marché des contenus. « Du fait de ce duopole numérique, les éditeurs sont contraints de livrer leurs contenus et de respecter les règles [établies par le “duopole”] relatives à la manière dont l’information est publiée, hiérarchisée et monétisée », plaide M. Chavern.
Cette asymétrie est très forte pour les journaux locaux, qui composent le cœur de l’alliance et peinent à se faire entendre des deux multinationales, faute d’un poids économique et politique suffisant. A l’inverse, Facebook et Google sont davantage attentifs à des titres comme le New York Times ou le Washington Post (propriété de Jeff Bezos, le patron d’Amazon), même si ces derniers estiment ne pas être suffisamment écoutés, à l’image du NYT qui a suspendu ses publications sur Instant Articles, considérant que ses besoins n’étaient pas assez pris en compte par cette plate-forme de publication de Facebook.
Murdoch en première ligne
Le cas du Wall Street Journal est différent. Son propriétaire, Rupert Murdoch, est un adversaire résolu des plates-formes, qu’il voit comme des ennemies vouées à détruire la presse. Ses médias sont régulièrement mis à contribution dans cette bataille. Cité en avril par Les Echos, Will Lewis, directeur général de Dow Jones, la maison mère du Wall Street Journal, qualifiait les démarches entreprises par Facebook et Google envers les médias de « gestes de charité condescendants ».
Lire aussi : Les médias européens bénéficient toujours de la manne de Google
Qu’il s’agisse du financement de l’innovation ou de discussions sur les formats, Facebook et Google « traitent » en général les médias de façon individuelle. La News Media Alliance veut réintroduire une approche collective pour obtenir des avancées dans le partage de la valeur. En Europe, on a aussi assisté, ces derniers jours, à l’essor des logiques d’alliance dans la publicité en ligne.
Lire aussi : Publicité : face à Facebook et Google, les éditeurs de presse regroupent leurs forces
Reste à voir, aux Etats-Unis, quelle sera l’approche du Congrès, à majorité républicaine, face à un éventuel assouplissement de la législation antitrust. De son côté, le président Donald Trump est un proche de M. Murdoch et entretient des relations méfiantes avec les entreprises de la Silicon Valley… mais aussi avec nombre de titres de presse.
Condamnation d'un médecin auteur d'un message homophobe sur
Facebook (06.07.2017)
Libé
Un médecin généraliste auteur d'un commentaire homophobe sur
Facebook (on vous en parlait ici) a été condamné par la chambre disciplinaire
de l'Ordre des médecins, selon LCI. Il sera interdit d'exercice pendant un mois
et écope d'une amende de 1000 euros. Dans son commentaire publié sur la page
Facebook «Les médecins ne sont pas des pigeons», il écrivait notamment : «Le
patient est homosexuel. Pas un homo de type "fofolle" avec des
manières surjouées, plutôt un monsieur tout le monde.»
Commentaire : Je ne vois pas d'injure ou insulte ici. C'est une description utilisant les mots passés dans le langage courant. Ou alors ... La Cage aux Folles (1978) devrait recevoir une interdiction. C'est un film homophobe, d'après l'Ordre des médecins.
Par contre, c'est le fait même de parler de son patient en précisant son orientation sexuelle qui est condamnable. Cela ne regarde personne et le médecin trahit ainsi le serment d'Hippocrate.
Par contre, c'est le fait même de parler de son patient en précisant son orientation sexuelle qui est condamnable. Cela ne regarde personne et le médecin trahit ainsi le serment d'Hippocrate.
L’Allemagne vote une loi obligeant les réseaux sociaux à
supprimer les contenus haineux (03.07.2017)
Les parlementaires ont adopté ce texte vendredi, qui
contraint les plateformes à supprimer ces contenus en vingt-quatre heures. Ils
s’exposent sinon à une amende de 50 millions d’euros.
LE MONDE | 03.07.2017 à 11h03
Plusieurs pays envisagent d’obliger les réseaux sociaux à se
montrer plus efficaces dans la modération des contenus. JEFF CHIU / AP
L’Allemagne menaçait les réseaux sociaux de légiférer depuis
plusieurs mois : la première étape a désormais été franchie. Vendredi 30 juin,
les parlementaires allemands ont voté une loi imposant à ces plateformes de
supprimer certains contenus moins de vingt-quatre heures après leur signalement
par les internautes. Le texte concerne les propos racistes ou antisémites, les
incitations à la haine, la propagande terroriste, la pédopornographie mais
aussi les fausses informations.
Les contrevenants s’exposent à une amende pouvant aller
jusqu’à 50 millions d’euros. La loi prévoit aussi la possibilité de condamner
la personne nommée responsable de ce sujet dans l’entreprise, jusqu’à 5
millions d’euros. Qui plus est, ces plateformes devront fournir, tous les six
mois, un rapport sur le nombre de signalements reçus et la façon dont elles les
ont traités. Cette loi doit encore être approuvée par la chambre haute du
Parlement avant d’entrer en vigueur.
Inquiétudes pour la liberté d’expression
L’Allemagne, dont la loi condamne déjà fortement les appels
à la haine, les menaces et la diffamation, a vu déferler ces derniers mois sur
les réseaux sociaux des messages racistes et haineux liés au contexte
migratoire et aux attentats. L’inquiétude a grandi après l’élection de Donald
Trump à la Maison Blanche, qui a aussi fait émerger un débat sur l’influence
des fausses informations, massivement partagées sur les réseaux sociaux. Une
question qui inquiète l’Allemagne, à quelques mois des élections législatives
de septembre.
Dans un communiqué, Facebook a estimé que la loi allemande,
si elle entrait en vigueur, n’allait « pas améliorer » la situation, évoquant «
une absence de consultation qui ne fait pas justice à l’importance du sujet ».
« Nous continuerons à faire tout ce que nous pouvons », a affirmé l’entreprise,
en rappelant qu’elle embauchait 3 000 personnes supplémentaires dans son équipe
de modération, jusqu’ici composée de 4 500 personnes.
La question est complexe : si certaines associations de
défense des minorités se réjouissent de cette loi, d’autres critiquent le fait
que l’on délègue à des entreprises privées l’application de la censure, et
redoutent une atteinte à la liberté d’expression. « Les menaces de mort et les
insultes, l’incitation à la haine ou la négation de l’Holocauste ne font pas
partie de la liberté d’expression, estime de son côté le ministre de la justice
allemand, Heiko Maas, à l’origine de ce texte. Elles constituent au contraire
une atteinte à la liberté d’opinion d’autrui. »
La première ministre britannique veut légiférer
D’autres pays envisagent, eux aussi, de légiférer. Theresa
May, la première ministre britannique, a fait savoir qu’elle souhaitait que les
géants du Web puissent être condamnés à de lourdes amendes s’ils ne supprimaient
pas rapidement les contenus extrémistes.
Mais mercredi dernier, lors d’une conférence sur le
terrorisme et les réseaux sociaux, le nouveau contrôleur indépendant de la
législation antiterroriste, récemment nommé par le gouvernement britannique, également
conseiller de la reine, a fermement critiqué cette idée :
« Je ne vois pas en quoi cela pourrait aider que notre
Parlement criminalise les responsables des entreprises tech qui “n’en font pas
assez”. Quelle est la sanction appropriée ? Nous ne vivons pas en Chine, où
l’Internet peut tout simplement être coupé chez des millions de personnes si le
gouvernement le décide. Notre société démocratique ne peut pas être traitée de
cette manière. »
Dans des propos rapportés par le Times, Max Hill craint aussi
que ce type de législation agace les géants du Web et les éloigne des
autorités, alors même que leur coopération sur ces sujets lui paraît
indispensable. Il redoute également que les contenus problématiques finissent
par être publiés sur d’autres réseaux plus obscurs, compliquant le travail des
services de renseignement et des enquêteurs.
Facebook lève un peu plus le voile sur ses pratiques de modération (30/06/2017)
Dans un long texte publié cette semaine, le réseau social
explique comment il travaille sur le sujet sensible et très politique des
messages appelant à la haine.
LE MONDE | 30.06.2017 à 12h44 • Mis à jour le 30.06.2017 à
15h13 | Par Damien Leloup
A la conférence Facebook F8, le 18 avril.
Deux milliards d’utilisateurs, et des dizaines de milliers
de messages haineux : Facebook, qui a annoncé cette semaine qu’il avait atteint
un nouveau record de nombre d’utilisateurs, a également dévoilé pour la
première fois quelques chiffres sur sa modération, un domaine sur lequel le
groupe était jusqu’à présent resté très discret.
Dans un long message publié mardi 27 juin, le grand groupe
du Web explique avoir modéré en moyenne 66 000 messages chaque semaine signalés
comme « hate speech » (discours de haine), une catégorie qui regroupe les
incitations à la violence et à la haine, ou encore les insultes sexistes,
racistes ou homophobes. Soit 288 000 messages en moyenne par mois.
Mais le réseau social a également donné quelques clés de
lecture de ces chiffres, en détaillant sa politique de modération sur ces
sujets – et les questions qui ne sont toujours pas complètement tranchées à ce
sujet. « La première difficulté pour arrêter les discours de haine est de
définir des limites, écrit Richard Allan, l’un des responsables de la politique
publique de l’entreprise. Des personnes peuvent être en désaccord sur des
sujets comme la politique étrangère d’un Etat, ou la moralité des enseignements
de certaines religions, et nous voulons qu’ils puissent débattre de ces sujets
sur Facebook. Mais où se situe la ligne qui sépare le débat du discours de
haine ? »
Messages et contexte
En pratique, Facebook explique utiliser un principe général,
et des règles spécifiques dans de nombreux cas particuliers. De manière
globale, le réseau social considère comme haineux tout discours qui s’attaque à
des personnes en fonction de « caractéristiques protégées », dont le sexe,
l’origine ethnique, la nationalité, la religion, l’orientation sexuelle… Mais
ce principe se heurte fréquemment à des situations locales particulières. En
Italie, « le mot “frocio” (“pédé”) » est par exemple considéré comme du
discours de haine lorsqu’il est adressé à une personne, mais il est aussi
utilisé par les militants des droits LGBT pour dénoncer l’homophobie »,
explique Facebook, qui procède à des suppressions au cas par cas en fonction du
contexte.
Le contexte est, affirme Facebook, le principal élément qui
doit guider les règles de modération. En Allemagne, où la multiplication de
messages racistes ou haineux contre les migrants avait inquiété le gouvernement
après l’accueil par le pays de nombreux migrants syriens, le réseau social
affirme avoir fait évoluer ses règles pour « supprimer à la fois les appels à
la violence contre les migrants ou les messages déshumanisant, comme ceux qui
les comparaient à des animaux, à de la saleté ou à des ordures », tout en
laissant « la possibilité pour les gens d’exprimer leur opinion sur
l’immigration elle-même ».
De même, le réseau social explique faire des exceptions pour
des mots ou des expressions qui sont a priori contraires à ses règles, mais qui
peuvent aussi être utilisées pour « de l’autodérision, ou des citations de
paroles de chansons ».
L’intelligence artificielle n’est pas la panacée
Une grande partie de ces règles avaient déjà été dévoilées
par plusieurs journaux européens ces dernières années. La Süddeutsche Zeitung
et, plus récemment, le Guardian avaient publié plusieurs documents utilisés
pour la formation des modérateurs de Facebook, soit 4 500 personnes dans le
monde, auxquelles s’ajouteront dans l’année avenir 3 000 salariés
supplémentaires, a annoncé Facebook. Ce 28 juin, le site ProPublica avait
également publié plusieurs extraits de documents.
Lire aussi :
Violence, menaces, suicide… des documents internes précisent la politique de modération de Facebook
« Il est clair que la manière dont nous appliquons nos
règles n’est pas parfaite, reconnaît Facebook. Nous sommes souvent confrontés à
des cas difficiles à trancher – et nous nous trompons trop souvent. » Surtout
parce que ces questions sont complexes, argumente Facebook, et que la
surmodération comme la sous-modération posent, légitimement, des problèmes aux
utilisateurs.
Lire aussi : Censure a priori et liberté d’expression
En matière de modération, il n’existe pas de baguette
magique ni de solution parfaite, dit le réseau social. Même l’intelligence
artificielle, souvent mise en avant par le groupe comme par des gouvernements
comme l’outil ultime pour gérer les millions de messages publiés chaque jour
sur les réseaux sociaux, est loin d’être une solution, au moins pour l’instant,
reconnaît Facebook. « La technologie continuera d’être un élément important
dans nos efforts pour nous améliorer. Mais si nous continuons d’investir dans
ces avancées prometteuses, nous sommes encore loin de pouvoir nous reposer sur l’intelligence
artificielle pour gérer des sujets aussi complexes et mouvants que la lutte
contre les discours de haine », écrit Richard Allan.
En savoir plus sur
http://www.lemonde.fr/pixels/article/2017/06/30/facebook-leve-un-peu-plus-le-voile-sur-ses-pratiques-de-moderation_5153738_4408996.html
Hard Questions: Hate Speech
Facebook : « Nous voulons faire d’Internet une “no-go zone”
pour les terroristes » (16/06/2017)
Le réseau social a annoncé, jeudi, qu’il utilisait des
technologies de détection de la propagande terroriste pour sa modération.
LE MONDE | 16.06.2017 à 10h39 • Mis à jour le 16.06.2017 à
11h29 | Par Damien Leloup et Morgane Tual
Monika Bickert est directrice des politiques publiques de
Facebook, et Brian Fishman est chargé de la lutte contre le terrorisme sur le
réseau social. Jeudi 15 juin, Facebook a publié un long texte dans lequel il
détaille ses techniques de lutte contre la propagande, et notamment des outils
de modération partiellement automatisés, basés sur l’intelligence artificielle.
Lire aussi : Sous
pression, Facebook détaille ses mesures contre l’apologie du terrorisme
Pourquoi avez-vous décidé de dévoiler vos méthodes de lutte
contre la propagande terroriste maintenant ? Jusqu’alors, Facebook laissait
entendre que ces méthodes étaient plus efficaces si elles n’étaient pas
connues.
Monika Bickert : Il y a deux raisons. D’abord parce que nous
avons malheureusement vu se multiplier les attaques terroristes, et cela a fait
émerger des discussions dans la communauté sur le rôle de chacun pour combattre
le terrorisme. Que peut-on faire, les uns les autres ? Que font les réseaux
sociaux ? Il nous tient à cœur de préserver nos communautés, qu’elles se
sentent en sécurité. C’est pourquoi il est important d’expliquer ce que l’on
fait pour ça.
La deuxième raison, c’est que nous travaillons sur ces
technologies depuis longtemps, et elles ont progressé cette année. Puisqu’on a
vu que ça commençait à devenir efficace, on a voulu le faire savoir.
Ces technologies sont-elles déjà utilisées ?
Brian Fishman : Nous utilisons une série d’outils
automatisés – dans certains cas, nous supprimons automatiquement les contenus,
comme les vidéos de décapitation. Dans d’autres cas, le contexte est important
: une photo du drapeau de Daech peut être utilisée pour de la propagande, mais
ellepeut aussi illustrer un article de presse. Dans ces cas où le contexte
compte, ces outils servent à prioriser ces contenus pour nos équipes de
modération.
M. B. : C’est très différent de la question de la
pédopornographie, pour laquelle l’image est toujours criminelle, elle
contrevient toujours à nos règles, même si la personne veut la partager avec
une bonne intention, comme permettre l’identification de l’enfant. C’est plus
facile d’utiliser cette technologie dans cette situation. On doit utiliser les
ordinateurs pour ce qu’ils savent bien faire, et les humains pour ce qu’ils
savent bien faire.
B. F. : Nos techniques, les terroristes essaient de les
contourner, nous devons constamment les mettre à jour.
L’automatisation concerne-t-elle aussi le contenu écrit ?
B. F. : Nous utilisons des outils de compréhension du
langage naturel pour détecter de potentielles violations, qui sont transmises à
nos équipes de modération. Mais nous n’avons pas assez confiance dans cette
technologie pour l’autoriser à prendre une décision sans humain dans la boucle.
Pour lutter contre le terrorisme, Facebook dit avoir besoin
de croiser les données de WhatsApp, Facebook et Instagram. Pourtant, lors du
rachat de WhatsApp, ses utilisateurs avaient reçu la promesse que leurs données
ne seraient pas partagées…
M. B. : Nous gardons toutes nos obligations sur le partage
de données à l’esprit. Nos avocats ont des discussions avec les autorités
compétentes pour s’assurer que nous respectons la loi. Ce sont des aspects sur
lesquels nous commençons seulement à travailler, ce n’est pas un système
opérationnel. Mais débarrasser Facebook de la propagande terroriste ne nous
suffirait pas. Nous voulons faire de tout Internet une no-go zone pour les
terroristes. Nous devons faire tout ce qui est en notre pouvoir sur toutes nos
plates-formes, y compris Instagram et WhatsApp.
Comment définissez-vous la propagande ou les « contenus
terroristes » ?
M. B. : Aucun groupe qui a la violence pour but, ou qui
s’est rendu coupable d’actes violents, n’est autorisé à avoir une présence sur
Facebook. Même si c’est pour parler de choses qui n’ont pas de lien avec la
violence. Par exemple, si Boko Haram créait une page sur Facebook pour discuter
de cuisine, nous fermerions cette page. Nous n’autorisons pas non plus l’apologie
de ces groupes, de leurs membres ou de leurs actions. Quand on réfléchit à ce
qu’est la propagande terroriste, c’est tout ce qui aide la cause ou le but de
ces groupes. Si quelqu’un dit : « Daech c’est génial, rejoignez-les », c’est
contraire à nos règles. Si quelqu’un publie, après une attaque comme celle de
Magnanville, un message « c’était marrant » ou « je suis content que ça soit
arrivé », nous considérons que c’est un soutien à un groupe terroriste, et nous
supprimons aussi ces messages.
S’agissant de la pédopornographie, il existe une alliance
entre Facebook, YouTube, Twitter… Une collaboration similaire est-elle prévue
contre le terrorisme ?
M. B. : Nous essayons déjà de partager nos meilleures
pratiques et des empreintes d’images avec d’autres entreprises. Nous avons
commencé il y a deux ans : nous travaillons avec une vingtaine de réseaux
sociaux qui discutent régulièrement entre eux.
B. F. : Ces discussions se déroulent depuis très longtemps
de manière informelle. Mais avec Twitter, Microsoft et YouTube, nous partageons
les empreintes de vidéos et d’images terroristes. A chaque fois qu’une nouvelle
empreinte est placée dans la base de données, nous vérifions tous que cette
vidéo n’est pas présente sur nos plates-formes. Dans certains cas, nous ne
trouvons rien, dans d’autres, nous découvrons qu’une vidéo ou une photo était
parvenue à se glisser entre les mailles du filet. Nous avons beaucoup de
systèmes différents, et il n’y a pas de réponse unique. Nous ne sommes pas
parfaits, nous ne promettons pas que toute la propagande terroriste va
disparaître du jour au lendemain, mais nous travaillons à faire de Facebook un
endroit hostile pour les terroristes.
Partagez-vous aussi des informations sur les utilisateurs
problématiques ?
M. B. : Nous sommes toujours à la recherche de nouvelles
manières de collaborer avec d’autres entreprises. Mais nous devons aussi faire
très attention au respect de la vie privée, et nous assurer que nous agissons
de manière responsable. On me demande souvent : « Est-ce que les réseaux
sociaux en ont vraiment quelque chose à faire ? » Oui, bien sûr. Ce n’est bon
pour personne d’avoir des terroristes dans sa communauté en ligne. Tout le
monde veut se débarrasser de ces contenus.
Allez-vous changer les règles de modération de Facebook ?
M. B. : Nous ne changeons pas nos règles. Nous mettons juste
en place des moyens de trouver ces contenus plus rapidement, pour mieux faire
respecter ces règles.
La propagande terroriste sur Facebook, nous n’en voulons
pas. La technologie va nous aider à la trouver plus rapidement, et nous voulons
le faire sur tous nos services. Et nous continuerons de travailler avec nos
partenaires, les associations, les universitaires qui travaillent sur ces
sujets, pour comprendre comment nous pouvons avoir une longueur d’avance sur
une menace en évolution constante.
Nous travaillons aussi sur différentes initiatives sur la
manière dont les gens peuvent lutter contre la radicalisation, nous avons fait
des recherches pour voir comment le contre-discours peut fonctionner, en France
comme en Europe.
« Il n’existe pas de filtre magique »
Paris et Londres ont présenté, mardi 13 juin, un plan d’action conjoint contre la propagande terroriste en ligne. Les gouvernements
français et britannique disent notamment vouloir automatiser la suppression de
ces contenus. « Nous le faisons déjà. Nous investissons dans des technologies
qui suppriment rapidement ces contenus, et nous le faisons depuis des années »,
répond Monika Bickert, directrice des politiques publiques de Facebook,
interrogée sur ce sujet.
« C’est important de dire que ce n’est pas aussi facile que
d’appuyer sur un bouton, qu’il n’existe pas de filtre magique qui supprimera
ces contenus », ajoute-t-elle, précisant que Facebook entretient « un dialogue
continu » avec les gouvernements. « Si nous voyons quelque chose qui représente
une menace imminente, nous le communiquons aux autorités compétentes, en France
comme ailleurs, dit-elle. Nous avons des personnes issues des forces de l’ordre
qui travaillent dans notre équipe légale, et qui gèrent ces relations. Pour les
affaires de terrorisme, il y a parfois des demandes urgentes ; nous sommes en
mesure d’y répondre vingt-quatre heures sur vingt-quatre, sept jours sur sept.
»
En savoir plus sur http://www.lemonde.fr/pixels/article/2017/06/16/facebook-nous-voulons-faire-d-internet-une-no-go-zone-pour-les-terroristes_5145461_4408996.html
M. Macron et Mme May s’accordent sur un plan d’action
antiterroriste et le calendrier du Brexit (13/06/2017)
Lors de leur conférence de presse conjointe, M. Macron a
annoncé « un plan d’action » conjoint et « très concret » pour renforcer la
lutte antiterroriste.
Le Monde.fr avec AFP et Reuters | 13.06.2017 à 21h16 • Mis à
jour le 14.06.2017 à 06h33
(photo)
Rencontre entre le président Emmanuel Macron et la première
ministre britannique Theresa May à l’Elysée, le 13 juin.
C’est le premier déplacement à l’étranger de Theresa May
depuis son échec aux législatives anticipées du 8 juin au Royaume-Uni. Et la
première ministre britannique l’a assuré, au côté du chef de l’Etat français,
qui la recevait à Paris, mardi 13 juin : « Le calendrier pour les négociations
du Brexit est maintenu et elles commenceront la semaine prochaine », comme cela
était prévu.
De son côté M. Macron, comme le ministre des finances
allemand, Wolfgang Schäuble, l’avait déjà fait dans la journée, a lancé que «
la porte [était] toujours ouverte » pour que le Royaume-Uni reste dans l’Union
européenne « tant que la négociation du Brexit n’est pas achevée ». Mais « une
fois commencée, il est beaucoup plus difficile de revenir en arrière », a-t-il
ajouté, soutenant par ailleurs « respecter la volonté du peuple britannique ».
Lire aussi l’analyse
: Le chaos post-électoral contraintLondres à reporter le début des négociations sur le Brexit
Mme May, en pleine tourmente après ses élections ratées, va
devoir aborder ces négociations en position fragilisée, contrastant avec le triomphe
presque insolent de la stratégie électorale du nouveau président français, dont
les partisans sont en position de rafler une large majorité absolue dimanche 18
juin, au second tour des législatives françaises.
Interrogée pour savoir si son propre affaiblissement
politique la ferait revenir sur l’hypothèse d’un « Brexit dur », Mme May a
affirmé qu’il existait « une volonté commune au sein du peuple britannique »,
puisqu’il « a voté pour quitter l’UE », « que leur gouvernement le fasse, et en
fasse un succès ». Ce processus mènera à « un arrangement, concernant le
Brexit, qui servira les intérêts du Royaume-Uni et ceux des 27 membres de
l’Union européenne », a-t-elle ajouté.
Plan d’action antiterroriste
Autre sujet en toile de fond de la soirée des dirigeants
français et britannique : la lutte antiterroriste. Lors de leur conférence de
presse conjointe dans le jardin de l’Elysée, M. Macron a annoncé « un plan
d’action » conjoint et « très concret » pour renforcer ce domaine, quelques
jours après les attentats de Londres (le 3 juin) et de Manchester (le 22 mai).
Celui-ci « vise d’abord à renforcer les engagements et les obligations des
opérateurs en ligne afin de supprimer les contenus qui promeuvent dans tous
types de médias la haine et le terrorisme », a expliqué M. Macron.
« Il y a aujourd’hui des engagements qui ont été pris, ils
ne sont pas suffisants », a-t-il ajouté. Il faut donc « améliorer les moyens
d’accès aux contenus cryptés dans des conditions qui préservent la
confidentialité des correspondances afin que les messageries ne puissent pas
être l’outil des terroristes ou des criminels ».
Londres et Paris souhaitent également « accentuer la
coopération internationale avec les Etats-Unis, notamment pour améliorer
l’accès aux preuves numériques dans les enquêtes qui sont menées où que soient
localisées ces données ».
Cette question avait été abordée en mai lors du sommet du G7
en Sicile. Les chefs d’Etats et de gouvernements avaient notamment appelé les
fournisseurs d’accès à Internet et les réseaux sociaux à se montrer plus actifs
pour supprimer les contenus extrémistes sur la Toile.
Avec la France « nous sommes convenus de faire plus pour
lutter contre le terrorisme en ligne », a indiqué Mme May à Paris, mardi. « Ce
qui est fondamental, c’est que nous allons explorer la possibilité de
contraindre juridiquement les sociétés à retirer les contenus, si ce n’est pas
fait. »
Les deux dirigeants ont ensuite assisté à une rencontre de
foot amicale entre leurs équipes nationales, précédée par un hommage auxvictimes des attentats de Londres et Manchester.
Islamisme sur Internet : le gouvernement et des géants du
web organisent la contre-propagande (14.03.2016)
SOURCE AFP - LES ECHOS | LE 14/03/16 À 19H12
Une structure sera créée pour diffuser des vidéos émanant de
la société civile.
Lutter contre la propagande par la propagande. C'est en
substance ce qu'ont décidé le gouvernement et les géants du Web comme Facebook.
Les deux parties sont tombées d'accord pour créer en France une « structure »
pour mener des campagnes de communication afin de contrer la propagande
djihadiste, a indiqué le service d'information du gouvernement (SIG). Une
proposition dévoilée alors que 283 sites internet djihadistes ont été bloqués
en un an.
Cette structure, dont la nature n'est pas encore définie, «
devrait voir le jour dans les mois qui viennent », mais les modalités de
l'engagement des grands groupes web (Facebook, Twitter, Google, Apple,
Microsoft) restent à définir, a ajouté Matignon. L'initiative a été lancée lors
d'une réunion entre le Premier ministre Manuel Valls et ces groupes en
décembre,selon une information d'Europe 1.
S'inspirer de l'exemple canadien
« Nous sommes d'accord sur le principe d'une structure qui
soutient les organisations de la société civile engagées dans la lutte contre
la radicalisation en ligne », a confirmé Facebook, sans autre précision. Ce
réseau social est l'un des vecteurs utilisés par les djihadistes pour la
propagande et le recrutement. Ce futur organisme pourrait s'inspirer notamment
de l'Institut pour le dialogue stratégique (ISD), une organisation
internationale de lutte contre la propagande djihadiste basée à Londres, qui
travaille avec Facebook.
L'ISD va par exemple lancer au Canada un programme éducatif
: les professeurs de lycée diffuseront des vidéos, notamment des témoignages de
djihadistes repentis, pour en débattre avec les adolescents, a expliqué lundi
Erin Marie Saltman, experte du « contre-discours » à l'ISD. Ce programme doit
être étendu ensuite à l'Allemagne et à la Grande-Bretagne.
Un message de la société civile pour être audible
Cette experte était venue à Paris pour présenter son action
lors d'une journée organisée par Facebook avec une vingtaine d'associations
luttant contre l'extrémisme. L'objectif était de les aider à mieux maîtriser
les codes de communication pour rendre leurs messages sur internet plus
visibles et plus efficaces, qu'il s'agisse de témoignages de repentis, de
messages contre la haine ou de récits de victimes du terrorisme. Une initiative
qu'a déjà menée Facebook en France et dans d'autres pays d'Europe.
Car associations et experts sont unanimes : les messages
provenant des autorités sont décrédibilisés. Pour être audibles, ils doivent
émaner de la société civile. « Il faut que le message, son émetteur et la
plateforme choisie soient tous les trois crédibles », a souligné Erin Marie
Saltman.
La nécessité d'établir une contre-propagande
Selon elle, il est particulièrement difficile de lutter
contre les discours de haine sur des systèmes de messageries comme WhatsApp ou
la messagerie cryptée Telegram, particulièrement prisée des djihadistes. D'où
la nécessité d'élaborer une contre-propagande.
Faute de pouvoir automatiquement les détecter, Facebook
s'appuie sur les signalements de ses utilisateurs (31 millions en France) ou
des autorités pour lutter contre les contenus haineux ou extrémistes.
Source AFP
Aucun commentaire:
Enregistrer un commentaire
Aidez-moi à améliorer l'article par vos remarques, critiques, suggestions... Merci beaucoup.