L’intelligence artificielle, ou IA, est au cœur des débats. L’un des thèmes importants débattus au G7 et le sujet principal de la Conférence mondiale sur l’intelligence artificielle (WAIC) à Shanghai, elle revient avec la création d’un Comité Ad Hoc sur l’Intelligence Artificielle par le Comité des Ministres du Conseil de l’Europe. En effet, l’amélioration des algorithmes de deep learning et l’intérêt des entreprises pour cette discipline promettent un âge d’or de l’IA. L’automatisation des services va se renforcer et permettre des progrès dans de nombreux domaines.
Tous ces progrès ne sont pas envisageables sans risques. Quels sont les enjeux juridiques et éthiques majeurs soulevés par le développement de l’IA ? Faut-il légiférer ?
L’IA utilise un ensemble d’algorithmes qui rendent la compréhension du raisonnement difficile pour les non-spécialistes. Or, même si l’IA est génératrice de progrès, la transparence et le besoin d’explication restent présents. Comment retrouver ce raisonnement à la base des décisions ? Si les données utilisées sont personnelles (photos, profilage, données médicales, etc.), la transparence est une exigence légale sur le fondement du RGPD.
Le règlement fixe la règle suivante : une décision ne doit pas être fondée sur un traitement automatisé, sauf exceptions. Et même ces exceptions doivent fournir des informations significatives sur la logique appliquée à la prise de décision automatisée. La mise en pratique de cette obligation semble beaucoup plus complexe à mettre en œuvre pour l’IA qu’avec un programme informatique classique.
Le recours à des bases de données contenant un ensemble de données personnelles pour alimenter l’IA représente naturellement un traitement soumis aux obligations issues du RGPD. Cependant, une nouvelle difficulté apparaît avec l’IA : comment obtenir le consentement de l’individu pour un traitement dont les finalités ne sont pas nécessairement déterminées ?
Comment s’assurer que le développement de l’IA ne soit pas discriminant ? Les algorithmes intégrés dans l’IA sont élaborés par des personnes. Les programmes actuels contenant des bugs, il est possible d’imaginer que l’IA de demain intègre des erreurs et des biais qui influenceront les résultats.
Le modèle intégré dans l’algorithme repose sur une hypothèse qui peut comprendre des inexactitudes ou plus subtilement une distorsion par rapport à la réalité. Il s’agit du biais, qui peut être introduit dès l’origine par un jugement, un stéréotype ou une croyance de la personne qui élabore cet algorithme. Si les règles initiales sont imparfaites, les effets de ces biais peuvent être anodins ou revêtir un caractère de gravité. Ces biais pourraient fausser une décision et entraîner une forme de discrimination.
L’IA permet d’optimiser la maintenance d’un ascenseur, la conduite d’un véhicule autonome ou la gestion d’un immeuble intelligent, par exemple. Comment délimiter les responsabilités entre les acteurs que sont les concepteurs des algorithmes, les intégrateurs et les utilisateurs ? En cas de sinistre, la recherche de responsabilité pourrait s’avérer complexe.
L’autorité de la science influe sur les décisions des individus. Le développement de l’IA conduira-t-il jusqu’à l’annihilation du libre arbitre ?
Les systèmes informatiques sont conçus comme des aides à la décision, sous le contrôle humain. Mais s’ils sont dotés de capacité de décision, ils échappent à la logique humaine et orientent les décisions. Dans quelle mesure le magistrat qui utilise un outil d’aide à la décision est-il influencé par les analyses ?
Aujourd’hui, la technique n’est plus un outil neutre. Nous pouvons constater l’influence des réseaux sociaux sur le résultat des élections, comme dans l’affaire Cambridge Analytica.
Comment agir, face à l’IA, pour conserver le pouvoir de réflexion et d’action ? Aujourd’hui, le développement d’une théorie critique de l’IA semble nécessaire. Les travaux de recherche en ce sens devraient être pluridisciplinaires : philosophiques, politiques, juridiques, etc.
Le développement des algorithmes constituant l’IA est soumis aux règles classiques de propriété intellectuelle. Les droits d’auteur protègent la création des logiciels. Par ailleurs, les bases de données bénéficient d’un ensemble de dispositifs juridiques de protection (droits d’auteur, secret des affaires, droit sui generis de protection des bases de données, etc.).
Cependant, si le concept de deep learning ou apprentissage automatique, propre à l’IA, permet aux algorithmes de s’enrichir automatiquement de règles additionnelles, de nouvelles questions de propriété surgissent. Quel acteur sera titulaire des développements au fil du temps ? Entre développeur, distributeur et utilisateur, les règles devront clairement établir la titularité des droits d’auteur, notamment au moyen de contrats, afin d’éviter les différends. Au nom de la transparence, les sociétés utilisant de l’IA seront-elles obligées de vulgariser leurs algorithmes ?
L’une des applications attendues de l’IA, c’est d’optimiser la cybersécurité des organisations. Les entreprises se tournent vers des solutions à base d’IA pour renforcer la protection de leurs actifs numériques. Cependant, les programmes d’IA eux-mêmes pourront présenter des vulnérabilités et devront faire l’objet de mesures de prévention du risque.
La souveraineté est un enjeu national et européen, pour la défense des libertés individuelles mais aussi pour la protection du patrimoine économique et culturel. Dans le rapport « Pour une politique de souveraineté européenne du numérique », publié en mars 2019, par le Conseil économique social et environnemental, la souveraineté numérique passe d’abord par la consolidation d’un modèle européen respectueux de principes comme la neutralité du Net et le respect de la vie privée. Elle implique également un engagement en faveur des acteurs européens du numérique et un investissement dans les technologies de rupture, comme l’IA.
L’Union européenne a identifié un certain nombre d’industries comme prioritaires, et l’IA en ferait partie. Elle continue à mettre en place des règles qui y sont relatives, dont celles qui visent à réguler la concurrence et protéger la vie privée.
Les initiatives sont nombreuses. Un Global Partnership for AI (Partenariat mondial pour l’intelligence artificielle) a été créé à la suite du G7, le Comité Ad Hoc sur l’Intelligence Artificielle (CAHAI) voit le jour au Conseil de l’Europe à la rentrée. En effet, des instances de réflexion permettant d’éclairer les pays sur l’utilisation de l’intelligence artificielle et éviter ses dérives sont nécessaires et il est clair que la loi actuelle ne peut répondre précisément à toutes les questions que l’avènement de l’IA soulève… Mais, en même temps, espérer une réglementation exhaustive sur cette technologie aux « possibilités infinies », comme le disait le thème principal de la WAIC, ne relèverait-il pas d’une utopie ?