L’intelligence artificielle est une notion ancienne théorisée et définie pour la première fois en 1956 lors de la Conférence de Université de Dartmouth. Derrière l’intelligence artificielle se cache une intelligence naturelle (IN), propre à l’humain qui, lui, est capable de discernement, de libre arbitre et peut se montrer manipulateur ou malveillant. D’après Bertrand Braunschweig, directeur du centre de recherche INRIA (Institut National de Recherche en sciences du numérique) – Saclay Ile de France, c’est l’utilisation malveillante qui serait à surveiller et non l’intelligence artificielle en elle-même qui serait à craindre. Les craintes vont au-delà d’un chamboulement du marché de l’emploi ou d’une prise de contrôle du monde par l’intelligence artificielle. L’intelligence artificielle pose en effet des problèmes d’ordre technique, juridique, social, philosophique, scientifique mais aussi éthique.
Des intérêts divergents dans l'encerclement de l'utilisation de l'intelligence artificielle
Alors que l’intelligence artificielle est tout sauf un concept nouveau, son encadrement juridique est en revanche assez récent. D’après la définition du Dictionnaire de droit international public de Jean Salmon, le soft law se réfère à « des règles dont la valeur normative serait limitée soit parce que les instruments qui les contiennent ne seraient pas juridiquement obligatoires, soit parce que les dispositions en cause, bien que figurant dans un instrument contraignant, ne créeraient pas d’obligation de droit positif, ou ne créeraient que des obligations peu contraignantes ».
Soft law et finalité normative
Au niveau international, la Déclaration de Montréal pour le développement responsable de l’Intelligence Artificielle a été signée en 2018 par près de deux-mille citoyens dont des chercheurs en intelligence artificielle et environ soixante-dix organisations. Cette déclaration pose dix principes d’application de l’intelligence artificielle avec, entre autres, le principe de bien-être, de respect de l’autonomie, de prudence et de responsabilité. La déclaration, qui peut entraîner une obligation morale de la part des signataires, n’a pas par nature de force juridique ou de caractère contraignant.
Au niveau européen, la Commission européenne pour l’efficacité de la justice (CEPEJ) a adopté les 3-4 décembre 2018 sa Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement, texte européen énonçant pour la première fois les cinq principes éthiques relatifs à l’utilisation de l’intelligence artificielle dans les systèmes judiciaires. Il s’agit du principe de respect des droits fondamentaux ; du principe de non-discrimination ; du principe de qualité et sécurité ; du principe de transparence, de neutralité et d’intégrité intellectuelle et enfin du principe de maîtrise par l’utilisateur.
les Lignes directrices en matière d’éthique pour une IA digne de confiance ont été rédigées par le Groupe d’Experts Indépendants de Haut Niveau sur l’Intelligence Artificielle (High Level Expert Group, HLEG) de la Commission européenne le 8 avril 2019. Ce document définissait l’approche de l’intelligence artificielle promue par l’Europe, celle-ci devant placer l’humain au centre et être « licite », par le respect des législations et réglementations applicables, « éthique » par l’adhésion à des principes et valeurs éthiques, et « robuste », sur le plan technique et social, ainsi que conforme aux principes fondamentaux de l’Union européenne.
Le 26 juin 2019, la HLEG a publié ses trente-trois recommandations de politique et d’investissement pour une intelligence artificielle de confiance. Cette Charte, ces lignes directrices et recommandations, dont l’objectif est d’orienter la mise en place et le déploiement de l’intelligence artificielle en Europe, n’ont par définition pas force de loi et peuvent uniquement jouer un rôle politique et constituer une première étape vers une procédure législative. À ces deux niveaux, il s’agit uniquement de soft law, ou « droit mou », non contraignant pour les États.
Les universités, groupes de réflexion (think tanks), instituts et leur influence dans l'élaboration des normes
Ces structures se sont emparées de la cause éthique au sujet de l’intelligence artificielle et tentent de mettre en place un cadre éthique à son utilisation. Leur objectif peut être interprété comme une volonté d’influencer les gouvernements ou entreprises à adopter leur normes et conseils de bonne pratique. L’Institut des Ingénieurs Électriciens et Électroniciens (Institute of Electrical and Electronics Engineers, IEEE), organisation américaine à but non lucratif, compte plus de 400.000 membres répartis dans 160 pays. Il se présente comme étant une « voix de confiance pour l’ingénierie, l’informatique et l’information technologique dans le monde ».
Cet institut joue un rôle important dans l’élaboration de normes, comme en témoigne la publication, en décembre 2017, de la deuxième version de son document « Ethically Aligned Design ». Ce document a été pensé par des comités de l’IEEE composés de centaines de participants venant de six continents, leaders d’opinion du monde universitaire, de l’industrie, de la société civile et de la politique. Son but, clairement rappelé en première page, est d’organiser une discussion publique, inspirer la création de normes en faisant progresser la conception de l’intelligence artificielle et des systèmes autonomes et faciliter l’émergence de politiques nationales et mondiales conformes aux principes énoncés. Il propose de « passer des principes à la pratique » et présente un certain nombre de problèmes éthiques à prendre en considération tels que la sécurité de l’information, la protection de la vie privée, le contrôle des armes autonomes, les conséquences économiques et sociales et la nécessité d’introduire des valeurs et normes humaines au logiciel, au moment de sa conception.
Ces instituts sont parfois soutenus et financés par les GAFAM, « pour la bonne cause ». C’est par exemple le cas de Future of Life Institute (FLI), institut américain crée en mars 2014, qui s’est donné pour mission de soutenir la recherche et les initiatives visant à protéger la vie en orientant de manière adaptée les nouvelles technologies et les nouveaux défis. Elle se focalise, entre autres, sur le maintien d’une intelligence artificielle bénéfique à l’homme et la société et sur la réduction des risques liés aux armes nucléaires et aux biotechnologies. Parmi ses fondateurs, Jaan Tallinn, co-fondateur de Skype et parmi les membres de son conseil consultatif scientifique, Elon Musk, sont des figures témoignant du poids de cette organisation.
Le Partnership on Artificial Intelligence (PAI) se définit comme une organisation multipartite réunissant des universitaires, des chercheurs, des organisations, des membres de la société civile et des entreprises construisant et utilisant des technologies d’intelligence artificielle. Créée en 2016 par ses membres fondateurs dont, entre autres, Amazon, Google, Deep Mind, Microsoft et IBM, son but est de « développer et partager de bonnes pratiques » dans le domaine de l’intelligence artificielle.
Un dernier exemple d’organisation jouant un rôle dans l’élaboration des normes est celui de l’AI Now Institute, institut de recherche fondé aux États-Unis en 2017 par Kate Crawford, chercheur de nationalité australienne et Meredith Whittaker, chercheur et ancienne salariée de chez Google, à la suite d’un congrès organisé par la Maison blanche sous l’administration de Barack Obama. Cet institut compte parmi ses soutiens officiels Google, Microsoft Research et la Ford Foundation. Les études réalisées par l’institut, en partenariat avec des universités et des organisations telles que Partnership on AI, portent sur les implications sociales de l’intelligence artificielle.
Les entreprises qui prennent position pour se protéger
De nombreux acteurs souhaitent susciter le débat public sur l’orientation éthique de l’intelligence artificielle et créer la norme, définissant le cadre d’une utilisation acceptable de l’intelligence artificielle. Les entreprises aussi se trouvent dans cette situation et deux visions de la stratégie d’entreprise peuvent être évoquées. Dans un premier cas, certaines entreprises développent leurs propres politiques éthiques en matière d’intelligence artificielle. Dans un second cas, d’autres entreprises collaborent, en plus, avec des organisations à but non lucratif, pour renforcer le cadre éthique choisi. En effet, les directives sur l’intelligence artificielle sont imprécises et nécessitent que les entreprises se chargent elles-mêmes de règlementer leurs activités.
Parfois, les entreprises sont plus pressées que les gouvernements sur la question de la mise en place de mesures sécurisant l’utilisation de l’intelligence artificielle, les gouvernements et États craignant de freiner l’innovation et de perdre la course aux marchés. Dans ces situations, la création de partenariats publics-privés peut être analysée comme une tactique visant à retarder ou à ne pas précipiter l’adoption de réglementations.
Dérives éthiques et intérêts antagonistes
Afin de ne pas freiner les entreprises utilisant l’intelligence artificielle dans leur développement technologique ou de risquer de leurs faire perdre un marché, les administrations nationales de certains pays sont prêtes à faire l’impasse sur l’éthique.
Les questions éthiques écartées au profil du gain financier
Ce phénomène s’observe lorsque l’administration de Donald Trump a décidé, concernant le marché de véhicules autonomes, d’ assouplir les règles de sécurité routières interdisant aux voitures totalement autonomes de circuler. En Allemagne, l’adoption par le gouvernement fédéral d’une stratégie d’intelligence artificielle illustre aussi cette course au marché. En effet, sur le site du ministère fédéral de l’Économie et de l’Énergie, le gouvernement fédéral présence sa stratégie et sa volonté « de renforcer la compétitivité de l’Allemagne et de l’Europe dans son ensemble et de devenir un leader mondial du développement et de l’utilisation des technologies de l’IA ».
Il s’agit donc d’un choix stratégique priorisant les enjeux économique et financiers, en faveur du développement économique des entreprises nationales, au détriment de l’établissement d’un cadre éthique à l’utilisation de l’intelligence artificielle. L’Allemagne a déclaré en 2018, sur le site du ministère, débloquer 3 milliards d’euros dans les années à venir alors que les États-Unis ont investi pour leur part près de 80 milliards dans le développement de véhicules autonomes, d’après The Brookings Institutions.
La lutte contre les biais des algorithmes comme prétexte à l'intrusion dans la vie privée
L’utilisation de l’intelligence artificielle a révélé l’existence de biais, dans les algorithmes créés, quant à l’origine, le genre ou, par exemple, l’ethnie. Ces algorithmes biaisés par manque d’inclusion et de diversité peuvent amener à des discriminations, des oublis et des déséquilibres dans notre société. Dans les secteurs de la finance et des assurances, il existe un risque que l’algorithme prédise de façon biaisée la vie privée et les habitudes de minorités et qu’il utilise ces données pour établir un profil de risque. En effet, une étude publiée en mai 2019 par l’Université californienne Berkeley a montré qu’une discrimination en matière de prêt peut se produire au cours d’un échange en face-à-face mais aussi dans une notation algorithmique.
Paradoxalement et ironiquement, certaines entreprises luttent contre les préjugés créés par l’intelligence artificielle… en utilisant d’autres algorithmes récoltant des données ! Ces compagnies jouent un rôle ambiguë puisque, d’un côté elles luttent contre les discriminations, et d’un autre côté elles collectent des données personnelles et font surtout partie de la course aux marchés, avec des enjeux sous-jacents pour elles et les entreprises partenaires qui les soutiennent (Google, Microsoft, …). Dans cette optique, l’entreprise IBM a publié en 2019 une base de données « Diversity in Faces » de plus d’un million d’images faciales afin de compenser le manque de diversité des images actuellement disponibles.
Un autre exemple est celui de la boite à outils AI Fairness 360 (AIF 360), développée par l’entreprise IBM. AIF 360 a pour objectif d’« examiner, signaler et atténuer la discrimination et les biais dans les modèles d’apprentissage automatique tout au long du cycle de vie d’une application d’intelligence artificielle ». L’individu est ici invité à utiliser cet outil et à y contribuer dans des domaines variés tels que la finance, la santé et l’éducation.
Le principe de transparence mis à l'épreuve par le secret des affaires
Le principe de transparence est énoncé, entre autres, dans la Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement et dans le règlement général sur la protection des données (RGPD). En vertu du RGPD, les régulateurs européens exigent désormais que les entreprises soient transparentes envers les consommateurs en ce qui concerne les décisions autonomes prises pour leur compte et la manière dont elles utilisent leurs données. Deux affaires provenant du secteur militaire illustrent ces intérêts divergents de transparence vis-à-vis des salariés et des personnes alimentant les bases de données, et de secret des affaires et course à l’armement.
La première affaire porte sur l’entreprise Google qui avait secrètement signé en 2017 un contrat avec l’armée portant sur le « Projet Maven ». Ce projet visait à utiliser l’intelligence artificielle dans le but d’améliorer le ciblage et la surveillance des drones, par la reconnaissance d’images, sur les champs de bataille. Le contrat a été révélé en mars 2018 par deux médias américains, le blog Gizmodo, et le magazine en ligne The Intercept. A la suite de cette annonce, un certain nombre de salariés ont démissionné et des milliers d’autres ont signé une pétition contre le « business de la guerre ». Au début de l’année 2019, Ken Walker, Vice-Président des Affaires Internationales de Google, a réitéré son propos, un an après sa décision, de non-renouvellement du contrat avec le Département de la défense des États-Unis et de reprise de ce projet et de la technologie développée par Google par une autre société.
Cet exemple illustre les intérêts divergents entre une société et ses salariés. Alors que Google voyait dans ce contrat le profit tiré des drones militaires, estimé initialement à 15 millions puis à 250 millions de dollars par an, d’après des e-mails qui auraient été interceptés par le magazine The Intercept, les salariés étaient focalisés sur leur consentement qui n’avait pas été recherché en ce qui concerne un projet finançant le secteur de la guerre. Où se trouve ici l’éthique des entreprises quant à l’utilisation de l’intelligence artificielle, et la recherche du consentement des salariés à qui leur société cache l’utilisation de leurs algorithmes ? Il existe, de plus, un problème de transparence et de communication à la population quant à l’utilisation de leurs données personnelles. Aussi bien le salarié que la personne alimentant les systèmes avec ses données personnelles peuvent être dupées quant à la réelle utilisation des données et à l’aboutissement des algorithmes crées. D’un autre côté, les entreprises peuvent, elles, se protéger par le secret des affaires et dans ce cas présent, par le protocole de secret militaire.
La deuxième affaire, datant de novembre 2018, porte sur des salariés de l’entreprise Microsoft qui se sont unis contre Satya Nadella et Brad Smith, CEO et Président de Microsoft, pour dénoncer le contrat de vente à l’armée américaine de la technologie de réalité virtuelle HoloLens, développée par Microsoft. Ce contrat signé par Microsoft s’élevait à 479 millions de dollars. Les salariés invoquaient le fait que l’utilisation de l’intelligence artificielle avec « intention de nuire » ne pouvait être acceptable. Sur le même sujet, l’association américaine Future of Life a lancé en 2018 une pétition mondiale visant à interdire les armes létales autonomes (Lethal Autonomous Weapon Pledge) avec, parmi les signataires, des individus de l’organisation non gouvernementale Amnesty International, des salariés et anciens salariés de Google, des personnalités telles que Elon Musk et des organisations telles que Google DeepMind…
La maîtrise de l’intelligence artificielle représente une source de puissance dans le contexte de guerre économique. Une entreprise influente dans le domaine ou un État souhaitant apparaître comme le plus à la pointe de la technologie, devra donc mettre en œuvre des mécanismes d’influence pour convaincre la population des bienfaits de son utilisation. Les entreprises et les gouvernements doivent éviter d’être pris au piège en étant tenu pour responsables d’une utilisation de l’intelligence artificielle jugée à posteriori comme inacceptable ou se retrouver dans une situation de dépendance après avoir perdu un marché. L’encadrement de l’intelligence artificielle, plus qu’un choix de société, reflétera le monde de demain.
Laetitia Hagiage