Fabien Tarissan : « Ce qui décuple la visibilité des Fake News, c’est la crédulité des utilisateurs »
« Comment contrôler les conséquences d’une nouvelle science et d’une nouvelle technologie si on ne comprend pas au préalable ce sur quoi elle se fonde ? ».
C’est une des questions que se pose fabien Tarissan, chercheur en informatique au CNRS et spécialiste des réseaux, dans le livre qu’il vient de publier Au cœur des réseaux, des sciences aux citoyens. Vivre au Lycée l’a rencontré.
Sur le web et les réseaux sociaux, pourquoi les fausses rumeurs se répandent-elles six fois plus vite que les vraies infos ?
Il y a d’abord une motivation, une intention de construire une rumeur sachant qu’elle est fausse. Plusieurs motivations sont possibles. La première peut être politique, comme la recherche d’influence dans un contexte électoral. La deuxième peut être financière : avoir de la visibilité est une source de revenus publicitaires et, avec une fausse information, on attire beaucoup de trafic, donc on génère plus de revenus. Ce sont des motivations humaines plutôt malveillantes. Et puis deux autres mécanismes interviennent : l’un est d’ordre informatique, avec des petits programmes, les « bots », programmés pour répandre « l’info » en quelques secondes après la mise en ligne, pour la rendre très visible sous forme de buzz. L’objectif est par exemple que se démultiplie la reprise de l’info sur une plate-forme comme Twitter, en utilisant des mots-clés précis. Il y a donc une vraie stratégie de mise en œuvre pour rendre visible cette rumeur.
Son succès est aussi lié à la forme, par exemple en utilisant des titres très racoleurs et/ou des images qui suscitent une vive émotion ; on insère ces rumeurs dans les fils de discussions sur les réseaux sociaux depuis de faux comptes, en mentionnant des influenceurs, ou aussi en utilisant des hashtags. Tout cela leur procure une visibilité soudaine très forte. Mais il y a encore un autre mécanisme très fort qui décuple ces effets, c’est la crédulité des utilisateurs : une rumeur ou des Fake News sont reprises sans discernement. C’est un facteur purement humain. Avant le numérique, une rumeur mettait plus de temps à acquérir de la visibilité. Aujourd’hui, elles ont rapidement une portée mondiale. A nous de nous éduquer pour être moins crédules.
« Qui est la source du message ? Qui parle ? »
Quelles bonnes pratiques adopter face aux fake news ?
Dans la mesure où beaucoup de fausses nouvelles partent de faux comptes, il faut d’abord se demander : qui est la source de tel message ? La loi de décembre 2018 impose aux plateformes qui véhiculent des contenus et des messages à visée politique dans un contexte électoral, l’obligation de rendre public l’émetteur et combien il a payé la plate-forme pour rendre son message visible. Tout internaute doit se poser la question : qui parle ? Ensuite, le bon réflexe est de se tourner vers les médias qui font du fact-checking.
Autre bonne pratique, rajouter des plug-in dans son navigateur, qui indiquent avec une pastille de couleur si le site est plutôt fiable ou pas. Cela n’est pas infaillible, mais ça fait un premier tri. Il n’y a pas de solution toute faite. Encore une fois, il faut toujours se demander : qui émet, dans quel intérêt ? Cela demande du temps et de la rigueur, mais c’est nécessaire.
On nous dit que nos données personnelles ont une valeur et que nous devons les protéger. Mais comment ? Avec quels outils ?
Une bonne pratique, quand on télécharge une appli, c’est de bien regarder ce qu’elle nous demande, à qui et à quoi nous lui donnons accès si nous l’installons. Ce que l’appli demande, est-ce vraiment « raisonnable » ? C’est normal qu’elle nous demande l’accès à nos galeries si c’est une appli photo. Mais ce n’est pas normal que, dans ce cas, elle exige la liste de nos contacts. Si on accepte malgré tout parce qu’on n’a pas le choix, on peut alors, après, désactiver certains accès depuis les paramètres, et on observe alors si ça perturbe le fonctionnement de l’appli.
« Chacun peut, rapidement, tout refuser »
Sur internet, depuis l’entrée en vigueur du RGPD européen (Règlement général sur la protection des données), tous les sites doivent donner aux utilisateurs la possibilité de paramétrer l’exploitation des données que nous « déposons » quand on surfe. Là, ça prend un peu de temps, mais chacun peut, rapidement, tout refuser, tout décocher. Ça empêchera le site sur lequel vous êtes de vous profiler.
On peut aussi utiliser des services ou des applis respectueuses de la vie privée. Il y en a de plus en plus. Le moteur de recherche Qwant par exemple. Il anonymise l’utilisateur lorsqu’il fait une requête. Aujourd’hui, pour chaque service classique du numérique, des acteurs se positionnent avec des solutions ou des outils respectueux. L’appli Signal par exemple, se superpose aux appels téléphoniques et aux échanges de SMS pour crypter les données ; elle n’a pas accès à vos communications et ne stocke aucune donnée. Edward Snowden est connu pour l’utiliser. Une messagerie gratuite comme ProtonMail respecte la vie privée et chiffre les échanges. Je pense aussi au navigateur Brave, qui assure une navigation privée en l’anonymisant.
Dans le cas des messageries instantanées ou de réseau tel qu’Instagram, quelles données sont « exploitées », et dans quel but ?
La plupart des plateformes sont gratuites mais fournissent un gros travail, donc elles doivent se rémunérer. Beaucoup gagnent de l’argent avec la publicité ciblée. Elles proposent aux annonceurs de pouvoir s’adresser à des sous-ensembles d’utilisateurs. Par exemple, imaginons le sous-ensemble « garçons qui font du sport au lycée dans telle région » ; la plate-forme trouve parmi ses utilisateurs ceux qui ont ce profil. Elle les connaît parce qu’elle a collecté des données personnelles sur eux, grâce aux mots-clés qu’ils utilisent, notamment dans leurs discussions, et dans leurs requêtes. C’est ce que font Facebook et Instagram. Mais attention, ces plates-formes ne vendent pas ces données : elles analysent et elles vendent la compréhension de ces données. Elles garantissent à leur client que leur pub va bien atteindre la cible que l’annonceur cherche à atteindre.
Vous expliquez dans votre livre qu’Internet et le web sont deux choses différentes. Pouvez-vous nous éclairer ?
Ces sont deux réseaux de nature différente, arrivés à des moments différents (internet était là 20 ans avant le web). Internet est un réseau d’acheminement, comme La Poste. Un message est posté à un bout du tuyau pour être acheminé au destinataire en indiquant une adresse. Des routeurs s’envoient ce message afin qu’il m’arrive. Or, on s’est aperçu que ce réseau permettait aussi de rendre visible des informations : c’est le principe de la page web, que je mets en ligne sur le réseau depuis un serveur. Internet est le médiateur entre cette demande et sa visibilité (web).
« En Europe, le principe de neutralité du web est inscrit dans la loi »
Le principe de neutralité du net, c’est que toutes les informations doivent en quelque sorte pouvoir circuler à la même vitesse, et être accessibles de manière égale, c’est bien ça ? Y a-t-il aujourd’hui des menaces sur cette neutralité, et quelles peuvent en être les conséquences ?
Le principe de neutralité impose que les opérateurs ne peuvent pas faire de distinction entre les différents flux, quelles que soient leurs sources, leurs contenus et leurs destinataires, ni en fonction du prix éventuellement payé soit par celui qui émet, soit par celui qui reçoit. Ce principe, qui a prévalu depuis la création d’Internet, vient d’être abandonné par Trump au États-Unis et il n’est plus assuré. En Europe, le principe de neutralité est inscrit dans la loi européenne et retranscrit dans la loi française. Mais nous pouvons être « impacté » quand même par la décision américaine, puisque beaucoup de données transitent par des serveurs implantés aux Etats-Unis. Concrètement, un petit opérateur qui voudraient être vu sans payer faute de moyens, n’aurait pas le même accès potentiel aux internautes qu’un plus gros qui paierait pour cela. C’est une pratique discriminatoire contraire au principe de neutralité du web.
On apprend dans votre livre que chaque individu se trouve à six degrés de séparation (ou même moins) de chaque individu dans le monde. Pouvez-vous nous l’expliquer en termes simples ?
Par proximité successive, on peut se rapprocher de n’importe qui. Prenons l’exemple d’un élève : il connaît son chef d’établissement, qui connaît quelqu’un au ministère de l’Education nationale, qui connaît le ministre, qui connaît le président de la République française, qui connaît le président des Etats-Unis. La démarche serait plus difficile – mais pas impossible – si on cherchait à se « rapprocher » de quelqu’un d’anonyme, par exemple un agriculteur américain en plein Midwest.
« Les algorithmes sont programmés pour repérer nos régularités »
Si je vous ai bien lu, du fait des algorithmes, moins on est curieux, et moins Google, Facebook ou les autres, vous nous proposer des informations qui nous ouvrent vers d’autres opinions ou centres d’intérêt que les nôtres ?
Tout à fait. Le bon terme pour désigner ce phénomène, c’est « chambre d’écho ». On croit que sur les réseaux on entend ou on voit de nouvelles informations, mais en réalité c’est plutôt un écho de ce que l’on pense déjà, et de choses qui ont déjà été dites dans notre environnement numérique proche. D’où est-ce que cela vient ? De nous, ou des algorithmes qui nous enferment dans cette logique ? C’est ça le débat. Les algorithmes sont programmés pour repérer nos régularités. Donc, si on ne sort jamais de ses habitudes, ils disent « voilà le contenu qui va lui plaire ». C’est un trait humain, observable dans la vie non-numérique, mais amplifié par les algorithmes. Pour contourner cet effet, il faut sortir de nos centres d’intérêt de temps en temps, dans nos recherches, nos publications, nos like…
Faut-il avoir peur de la devise de Google « Notre mission est d’organiser l’information du monde » ?
Cela dépend comment on lit cette devise. On peut avoir une lecture positive : c’est une bonne chose d’organiser toute l’information du monde et pour tout le monde, et non pas pour une seule partie des gens. Globalement, le travail de Google est bon : le fait d’indexer et de collecter les informations de toutes (ou presque) les pages web disponibles, mêmes les plus obscures ou celles des particuliers, c’est positif. On peut aussi avoir une lecture plus critique, comme celle de la philosophe Barbara Cassin dans son livre Google-moi, que j’invite vos lecteurs à lire : Google manifeste une visée hégémonique un peu inquiétante. Il détient 80 à 90 % des parts de marché, un marché qui gagnerait à être plus diversifié. On sait que quand un opérateur détient un monopole, il a un pouvoir d’arbitrage exorbitant, et ce n’est pas sain.
Quel est votre parcours scolaire, et qu’est-ce qui vous a amené à vous passionner pour l’informatique ?
J’ai décroché un bac S après une scolarité au lycée Lavoisier, à Paris. J’aimais beaucoup les maths et les sciences, et j’avais un goût prononcé pour le formalisme [le fait que le langage permet de déduire et de calculer] et la logique. Je suis entré en prépa MPSI (Mathématiques, physique et sciences de l’ingénieur), mais je n’ai pas accroché. J’ai arrêté à la fin de la première année, puis j’ai rejoint une licence de maths à l’université. Je ne savais pas ce que j’allais faire, à part prof peut-être. Et puis un de mes amis, en licence d’informatique, m’a fait comprendre que dans cette discipline, on retrouvait tout ce qui m’avait plu dans les maths : non pas la connaissance brute et l’analyse, mais les logiques de raisonnement, la rigueur et le formalisme. Il y a beaucoup de points communs entre une démonstration mathématique et un programme informatique qui fonctionne. J’ai donc basculé en licence d’informatique, puis j’ai poursuivi jusqu’à la thèse, pour enfin devenir chercheur.
Faut-il nécessairement avoir un bon bagage en maths pour travailler dans l’informatique ?
Ça dépend ce qu’on entend par bagage. Si on ne maîtrise pas, par exemple, l’analyse de fonction ou les dérivées d’une fonction, cela n’est pas très grave en informatique. Par contre, si on n’a pas l’esprit de démonstration mathématique, et la rigueur qui va avec, cela va poser problème. A l’université aujourd’hui, on reprend tout à zéro puisque jusqu’à présent il n’y avait pas de filière informatique au lycée. Donc sans bac scientifique, on peut faire de l’informatique à condition d’aimer la rigueur dans le raisonnement et le formalisme. Cela étant, depuis cette année, la nouvelle spécialité NSI (Numérique et sciences informatiques) au lycée a été conçue pour ceux qui s’intéressent à l’informatique. La suivre et l’accompagner d’un autre enseignement de spécialité en maths sera une bonne chose pour renforcer ses bases et mieux se préparer.
« On teste, ça marche ou ça ne marche pas, et on apprend »
Quels conseils donneriez-vous à des ados qui voudraient se lancer dans les études d’informatique ?
Dans le milieu des informaticiens, on aime bien le côté « main à la pâte ». Le fait qu’on bidouille, que l’on teste, que l’on expérimente. La culture informatique est basée sur « l’essai erreur » : on teste, ça marche ou ça ne marche pas, et on apprend. Donc programmer, coder, bidouiller dès qu’on est jeune, c’est bien. En plus, il y a plein de communautés locales d’informaticiens, d’associations, qui proposent des ateliers de découverte et des opportunités de se former à la programmation en dehors du cadre scolaire. Il ne faut pas hésiter à s’en saisir ! On peut même apprendre à faire de l’informatique sans ordinateur ! »
Propos recueillis par Fabien Cluzel
Un chercheur qui sait… et qui fait savoir
Vice-président de la Société informatique de France, Fabien Tarissan est chercheur au CNRS et professeur à l’Ecole normale supérieure de Paris-Saclay. Ses travaux concernent principalement l'analyse et la modélisation de grands réseaux tels qu’Internet, le Web et les réseaux sociaux. Il participe au projet Les Savanturiers, qui a pour but de promouvoir l'enseignement dans les collèges et les lycées à travers une démarche scientifique par projets. Il participe aussi à Pixees/Class’Code, qui se donne pour objectif d'initier à la pensée informatique et au numérique, notamment auprès des profs.