Typography

Le terme algorithme est devenu une notion centrale et polémique dans l'univers numérique. Il symbolise les dangers et dérives d'un monde automatisé, conditionné par des logiques commerciales. Avant d'être associé en bien ou en mal aux recherches sur Google, aux fils d'actualité sur Facebook et aux recommandations d'achat sur Amazon, il faut définir un algorithme.

En effet, il est une « série d'instructions permettant d'obtenir un résultat », explique le sociologue Dominique Cardon dans son ouvrage « A quoi rêvent les algorithmes ». La notion était familière des seuls mathématiciens avant qu'elle se popularise avec le développement de l'informatique et devienne un concept-clé des rouages d'internet.

« Nous sommes littéralement entourés d'algorithmes », explique le spécialiste des sciences de l'information Olivier Ertzscheid. « Chaque fois que nous consultons Facebook, Google ou Twitter nous sommes directement exposés aux choix » que font pour nous des algorithmes et « parfois influencés par eux ».

Ils règnent dans les salles de marché pour réaliser des ordres d'achats et de ventes à grande vitesse avec l'inconvénient de provoquer des « krachs éclair », chutes brutales et exagérées de cours. Ils sont aussi devenus auxiliaires de police, capables d'anticiper les lieux où des délits risquent d'être commis.

Un algorithme est à l'origine de Google. PageRank (PR) a été mis au point dans les années 90 à Stanford par Larry Page et Sergey Brin, les deux fondateurs de la firme. PR permet de classer la popularité des pages web. C'est le cœur du moteur de recherche Google qui, en une fraction de seconde, répond à une demande composée de mots-clés. Aujourd'hui Google utilise une « dizaine d'algorithmes comprenant chacun des milliers de paramètres et variables », indique Olivier Ertzscheid.

Quant à Facebook, il fonctionne avec des algorithmes sophistiqués pour offrir des contenus personnalisés à ses 1,18 milliard d'utilisateurs quotidiens, en particulier pour les « fils d'actualité » qui compilent messages « d'amis », articles partagés, etc., sélectionnés en fonction de l'activité et des contacts de chacun sur le réseau social.

Le danger ici, c'est la « bulle de filtres », selon l'Américain Eli Pariser qui a développé ce concept dans le livre « The Filterbubble » : à force d'être entouré d'informations filtrées par des algorithmes en fonction de ses amis, goûts et précédents choix numériques, un internaute est plongé à son insu dans une « bulle cognitive » qui renforce sa perception du monde et ses propres convictions.

Un autre danger est la circulation sans véritable frein de fausses informations ou de canulars malveillants ou « hoax ». Les algorithmes de Facebook n'ont pas été conçus pour distinguer le vrai du faux, tâche d'ailleurs compliquée pour une intelligence artificielle.

  Le réseau social de Mark Zuckerberg qui se définit comme un service et non pas comme un média, refuse d'être « l'arbitre de la vérité ». Il a toutefois réagi aux critiques, fin 2016, proposant des outils qui permettent aux utilisateurs de signaler les informations douteuses.

 Dominique Cardon mentionne qu’on peut distinguer quatre grandes « familles » d'algorithmes, ceux qui calculent la popularité des pages web, ceux qui classent leur autorité, ceux qui évaluent la notoriété des utilisateurs des réseaux sociaux et ceux qui tentent de prédire l'avenir.

Cette quatrième catégorie est « problématique », selon le sociologue, car elle tente d'anticiper nos comportements à partir des traces que nous avons laissées sur le web par le passé. C'est par exemple la technique d'Amazon pour recommander de nouveaux livres à un client en fonction de ses lectures récentes.

Cathy O'Neil, spécialiste des données, cite plusieurs exemples où des algorithmes ont eu des conséquences néfastes.

Des collectivités locales basent aussi l'allocation des ressources sur des « points chauds » choisis grâce à ces formules mathématiques. Mais la manière dont sont entrées les données peut influer sur leur résultat et créer un cercle vicieux négatif pour les communautés déjà les plus défavorisées.

Dans le domaine financier, des décisions en matière de crédit et d'assurance sont prises aussi par des algorithmes, qui risquent de défavoriser encore davantage ceux qui sont déjà les plus pénalisés.

Frank Pasquale, professeur de droit à l'université du Maryland, affirme toutefois que les utilisations inéquitables des algorithmes peuvent être corrigées par des lois sur la protection des consommateurs.

Il souligne qu'à ce titre les lois en vigueur dans l'Union européenne sur la protection des données et le « droit à l'explication » lorsqu'une personne est victime d'une décision prise en fonction d'un algorithme, méritent d'être étudiées. « Cela obligerait à la transparence ou empêcherait les algorithmes d'être utilisés dans certains contextes », estime-t-il.

Mais pour Alethea Lange, analyste au Centre pour la démocratie et la technologie, un tel modèle « présente bien » mais est « très lourd » et peu susceptible de fonctionner en raison de l'évolution permanente des algorithmes. Pour elle, l'éducation et la discussion sont plus importantes que la législation.