Typography

À l'ère numérique actuelle, l'Intelligence Artificielle (IA) et les mégadonnées (Big data) aident les gens à naviguer dans le monde virtuel d'une manière nouvelle. A mesure qu’elle se déploie dans tous les secteurs, elle pose cependant de graves et inédites questions éthiques. Nous devons tous nous sentir concernés par elle, ses usages et leur impact éventuel sur la société. Il est d’ailleurs rassurant de constater que les principaux acteurs s’accordent sur la présence de menaces suscitées par son développement : le raffinement et le renforcement du dispositif de contrôle des individus, de normalisation des comportements et de manipulation de l’information, l’utilisation de robots-tueurs, etc. et sont conscients qu’il est indispensable de réguler l’intelligence artificielle.

Le débat sur l’utilisation de ces technologies prendra inévitablement une ampleur grandissante au fil des années à venir. Nous sentons une réelle prise de conscience de l’importance de l’éthique de l’intelligence artificielle. Ses notions de biais et d’explicabilité des algorithmes sont notamment très populaires. Algorithmes simplistes, erreurs statistiques en série, reproduction d’inégalités sociales…, les risques sont à la mesure des promesses gigantesques de cette technologie : gigantesques.

L’éthique numérique traite de questions telles que de la manière de développer l’intelligence artificielle plutôt que de celle comment l’utiliser par la suite. Cependant, les deux faces de la médaille sont discutables. À quel point les robots peuvent-ils être intelligents ? Que sont-ils autorisés à faire ? Devraient-ils avoir des sentiments et si oui lesquels ? S'ils ont des sentiments, qu'avons-nous le droit de faire avec eux ? Par la suite, vont-ils avoir les droits de l'homme ?

Bien sûr, ce sont des questions futuristes. Mais certaines d'entre elles sont d’actualité. L’éthique numérique concerne toujours l’impact de la technologie sur l'homme. Est-il moralement acceptable de remplacer les travailleurs humains par une intelligence artificielle ? C'est probablement la question la plus posée dans le secteur de la production pour le moment.

Alors que de nombreux chercheurs utilisent ces nouveaux outils pour innover et faire progresser différentes disciplines, quelques-uns, comme Fred Fonseca, abordent ces avancées d’une perspective éthique. Une question se pose : faut-il moraliser l’intelligence artificielle ? Si oui comment ?

« Il existe un nouveau domaine appelé l'éthique des données », a déclaré Fonseca, professeur associé au Collège des sciences de l'information et de la technologie de Penn State et membre du corps professoral 2019-2020 du Rock Ethics Institute de Penn State. « Nous collectons des données et les utilisons de différentes manières. Nous devons commencer à réfléchir davantage à la manière dont nous les utilisons et à ce que nous en faisons. La technologie n’ira nulle part. Nous devons y réfléchir davantage et mieux la comprendre afin de pouvoir prendre, en toute connaissance de cause, les décisions adéquates. »

En abordant la technologie émergente de façon philosophique, Fonseca explore les dilemmes éthiques liés à la manière dont nous recueillons, gérons et utilisons les informations. Il a expliqué qu'avec la montée du Big Data, (mégadonnées) par exemple, de nombreux scientifiques et analystes renonçaient à formuler des hypothèses en faveur de la possibilité pour les données d’en émettre sur des problèmes particuliers.

« Normalement, en science, la théorie oriente les observations. Notre compréhension théorique guide à la fois ce que nous choisissons d'observer et sur la façon dont nous choisissons de l'observer », a expliqué Fonseca. « Maintenant, avec tant de données disponibles, l’image classique de la science sur la construction de la théorie est sous la menace d'être inversée, les données étant suggérées comme source de théories dans ce qu'on appelle la science basée sur les données. »

Pour illustrer les défis éthiques que les nouvelles technologies peuvent poser, Fonseca a cité un article récent du Washington Post sur les prestataires de services médicaux et les entreprises de technologie utilisant l'intelligence artificielle pour prédire les taux de dépression et la probabilité de suicide des individus. La technologie analyse les enregistrements médicaux et les publications sur les réseaux sociaux à la recherche de langage et de comportements suicidaires. Certaines des données sont fournies aux médecins ou à d'autres personnes pouvant intervenir. Mais, ces mêmes données, pourraient tomber entre les mains de tiers.

« Bien qu'il soit possible de [créer ces algorithmes], peut-être nous ne devrions pas le faire. Parce qu'une fois qu'ils seront là, les gens les utiliseront, et les utiliseront mal », a-t-il déclaré.

En gros, l’IA est un super logiciel qui a appris à apprendre pour réaliser des tâches complexes à la place des humains. Sauf que pour des centaines de chercheurs dont Yann Le Cun, Stephen Hawking, et Terah Lyons, il est vraiment urgent de mettre de l’éthique dans toute cette technologie. C’est une importance majeure dans deux situations : premièrement, quand l’IA raisonne de manière trop simpliste devant une situation réelle, complexe, pleines d’imprévue ; et ça la machine a encore beaucoup de mal à faire avec. A titre d'exemple, l’IA programmée dans la voiture autonome pose des questions morales impossibles à résoudre même pour un être humain : en cas de défaillance de mon véhicule, choisirai-je de tuer deux enfants ou bien trois personnes âgées, si ceux-ci venaient simultanément croiser ma trajectoire ?

Est-ce que ça veut dire que l’Intelligence Artificielle n’est problématique que quand elle est imprécise ? Non. Quand l’IA apprend vite et obéit à toutes les règles qu’on lui a fixées, cela pose encore d’autres soucis.

Vient alors la deuxième situation majeure : En 2016, Tay, un robot de discussion intelligent de Microsoft, a dû être désactivé en catastrophe. Cette IA était censée apprendre à devenir humaine en discutant avec d’autres internautes. Sauf que certains lui ont montré comment détester l’humanité.

Au-delà même de toutes les utilisations douteuses de cette technologie, c’est au cœur-même de son fonctionnement que se posent certaines limites éthiques. Bref, elle est aussi intelligente que toutes les données qu’elle absorbe pour réfléchir. D’ailleurs, si on lui injecte une base de données biaisée et discriminante, cela nous permettra de calculer un résultat aussi biaisé et discriminant. Les services de reconnaissance faciale, par exemple, peuvent être nettement moins précis pour identifier une femme ou une personne à la peau plus foncée. D'autres systèmes peuvent comporter des failles de sécurité incomparables. Des chercheurs ont montré que les voitures sans conducteur peuvent être amenées à voir des choses qui ne sont pas vraiment là.

Injecter un peu d’éthique dans l’intelligence artificielle

Tout cela signifie que la construction d'une intelligence artificielle éthique est une tâche extrêmement complexe. Cela devient encore plus difficile lorsque les parties prenantes réalisent que l'éthique est une question de perception.

De plus, notons que les logiciels fonctionnant avec l’IA réfléchissent d’une manière complètement opaque. C’est vrai qu’on connaît les données traitées et les algorithmes en jeu, mais il est quasi impossible de retracer la totalité des opérations de calculs faites par la machine. Alors, élaborons trois pistes pour injecter un peu d’éthique dans l’intelligence artificielle : la première solution est de créer des technologies plus lisibles et traçables pour démêler les beugles ou les résultats discriminants tel la rétro-ingénierie qui vise à déconstruire le raisonnement de la machine.

Une deuxième solution pourrait être de faire travailler beaucoup plus de sociologues, d’anthropologues, ou de philosophes sur des projets scientifiques, mais aussi de former les futurs ingénieurs et mathématiciens aux questions d’éthique directement à l’université comme c’est le cas depuis 2014 à l’université américaine de Stanford. « Initier nos étudiants aux questionnements sur l’éthique, les amener à questionner les fondements de leurs prises de décisions et de leurs actions avant qu’ils ne soient obligés d’être dans cette position en situation réelle où ils auront à prendre ces décisions en temps réel, et peut-être sans le recul intellectuel dont ils pourraient bénéficier en classe, c’est ça notre ambition », explique John Hennessy, ancien président de l’université de Stanford. Ajoutons que les entreprises technologiques se bousculent pour prouver leur bonne foi en matière d'éthique : Microsoft a annoncé des « principes d'intelligence artificielle » pour guider la recherche et le développement internes, Salesforce a embauché un « responsable des utilisations éthiques et humaines », puis Google s'est déployé – et puis, faisant face à de vives critiques, s'est dissoute – avant de créer un comité consultatif en éthique.

Troisième solution : plancher sur un cadre légal pour encadrer les pratiques que ce soit sur l’échelle d’une entreprise d’un pays ou bien même d’un continent. Pour cela, la Commission Européenne a tenté de s'y atteler avec la rédaction du AI Ethical Guideline ou guide d'éthique pour l'Intelligence Artificielle. Pour ce faire, elle a constitué un groupe de 52 experts dont la composition semble toutefois déséquilibrée : on remarque la présence d’une large majorité d'acteurs de l'industrie et de fédérations d’industriels, toutefois, nous ne pouvons pas fermer les yeux devant le fait que l’absence de philosophes, éthiciens, responsables religieux, sociologues, anthropologues ou encore de personnels de santé est quasi-totale. Parler d'éthique consiste à parler de l'Homme pour lui garantir le respect de ses libertés et le protéger de lui-même le cas échéant. La surreprésentation industrielle du groupe d'experts mènera la réflexion qu’elle soit une analyse coût-bénéfice des nouvelles technologies sur les plans économiques, sociaux et environnementaux, sans inclure tout un pan de connaissance humaine sur l’action humaine lors de la prise de décisions algorithmiques.

Le projet du guide d'éthique de la Commission Européenne a pour objectif de : « maximiser les avantages de l’IA tout en minimisant ses risques. Une approche de l’IA centrée sur l’humain est nécessaire, nous obligeant à garder à l’esprit que son développement et son utilisation ne doivent pas être considérés comme un moyen en soi, mais comme ayant pour objectif d’accroître le bien-être humain. » Les six principes éthiques considérés comme fondateurs qui sont présentés par le groupe d’experts en IA sont la Bienfaisance (faire le bien), la Non-malfaisance (ne pas nuire), l’autonomie des humains, la Justice (c’est-à-dire la non-discrimination de l’IA) et l’explicabilité pour assurer autonomie, consentement éclairé et protection des données.

De façon plus large, l'éthique de l'IA devrait être le point de départ d'une réflexion plus globale sur l'usage des technologies NBIC (Nano technologie, Biotechnologie, technologie de l’Information et technologie cognitive). Ces technologies présentent de très nombreuses convergences car elles s’empruntent toutes des applications les unes aux autres, rendant l’éthique centrale sur l’ensemble des technologies étudiées. Un exemple peut être proposé dans le champ des neurosciences qui combinent dorénavant des dispositifs intracérébraux dotés d'algorithmes sophistiqués: les études des chercheurs suisses Marcello Ienca et Roberto Andorno conduisent à penser que les droits de l'homme à l'ère des neurosciences et des neuro technologies nécessiteront la création de quatre nouveaux droits humains: le droit à la liberté cognitive, le droit à la vie privée psychique, le droit à l'intégrité mentale et le droit à la continuité psychologique.

Il existe d’ailleurs aussi d'autres technologies qui nécessitent plus de discussions, notamment la blockchain, la biométrie, l'Internet des objets et l'informatique quantique. Bien que ces technologies en développement aient le pouvoir de favoriser le bien social, leur utilisation pourrait soulever des questions sociales et éthiques concernant l’équité, l’influence et la responsabilité, qui vont au-delà des questions de protection des données et de la vie privée.

En conclusion, ne nous laissons pas tenter par les fantasmes et le bluff technologique, selon l’expression du philosophe Jacques Ellul. Regardons en face les risques de l’IA et incitons nos responsables politiques à persévérer et trouver un consensus acceptable entre l'éthique, le droit et la compétitivité. Nous devons arrêter de parler d’éthique et commencer à agir.

L’intelligence artificielle peut être une chance formidable pour accélérer la réalisation des objectifs de développement durable. Mais toute révolution technologique entraîne de nouveaux déséquilibres qu’il faut essayer d’anticiper », spécifie Audrey Azoulay, directrice générale de l'UNESCO.