Les algorithmes de recommandation vont-ils tuer la démocratie ?

Intervention de Jean-Lou Fourquet, journaliste, chroniqueur et vidéaste indépendant (apreslabiere.fr)

© Illustration de Julien Revenu

 

Illustration de Julien Revenu

 

LA CONFÉRENCE VUE PAR TONY CHATELAIN, ÉLÈVE CONSERVATEUR À L'INET

Les algorithmes de recommandation vont-ils tuer la démocratie ? C’est la question posée par Jean-Lou Fourquet, journaliste, chroniqueur et blogueur indépendant, en clôture des Journées du numérique en bibliothèque publique (https://lnkd.in/ej3GcvDk).

En 2017, l’humanité visionnait 1 milliard d’heures de vidéo Youtube chaque jour, dont 70% recommandées par un algorithme. Youtube décide donc au travers de son algorithme de recommandation de ce que l’humanité regarde 700 millions d’heures par jour. C’est un pouvoir de prescription considérable. Or, l’objectif des algorithmes de recommandation actuels est de capter notre attention le plus longtemps possible afin de nous garder connecter et d’accroître le nombre de pubs que nous visualisons, ainsi que les recettes liées.

Pour y parvenir, ces algorithmes de recommandation sont conçus pour stimuler nos biais cognitifs, nos instincts. Notre cerveau a été façonné par l’évolution pour accorder plus d’importance aux propos d’une personne en colère qu’à ceux d’une personne calme, car la colère nous met davantage en danger. Ainsi, les contenus les plus véhéments, sensationnalistes ou “clashant“ postés sur les réseaux sont aussi les plus viraux.

Si l’on doit sortir du capitalisme de l’attention, comment décide-t-on collectivement de nouveaux critères vers lesquels devraient tendre les algorithmes de recommandation pour nous proposer des contenus ? Comment faire en sorte que les algorithmes aident à solutionner les problèmes sociétaux au lieu de diviser la société ?

Jean-Lou Fourquet évoque quelques pistes :

- La présomption de non-conformité : on part du principe que les algorithmes  sont non-conformes, et c’est aux industriels d’apporter la preuve qu’ils sont  non-néfastes voire bénéfiques pour le grand public, ce qui oblige à la  transparence sur leur fonctionnement.

- La présomption de non-recommandabilité : un tweet ne peut pas être  recommandé par défaut à plus de 200 personnes à moins d’être vérifié en  amont, pour éviter la propagation des fake news.

- Le prebunk plutôt que le debunk à Taïwan : lorsque les deepfakes ont  commencé à apparaître sur l’île, les autorités ont anticipé qu’elles  deviendraient un problème. Elles ont donc publié de façon proactive de  fausses deepfakes en les qualifiant pour préparer la population à les  détecter. Cela revient en quelque sorte à inoculer l’anticorps contre les  deepfakes aux citoyens.
 

Ressources

  • Le support de présentation

 

Pour contacter Jean-Lou Fourquet : jeanlou@apreslabiere.fr ou jeanlou@homoconscientus.fr