Intelligence artificielle : le droit comme garant de la confiance ?

Image principale de l'article Intelligence artificielle : le droit comme garant de la confiance ?

Ce jeudi 28 juin, le cabinet Racine était l’endroit idéal pour aborder la question du droit dans l’intelligence artificielle. Invités par l’Acsel, onze experts étaient présents pour débattre des principales tendances et directions associées à la réglementation de cette nouvelle technologie au potentiel bien connu.

Réunis en trois tables rondes, les intervenants étaient chargés de répondre aux questions de nos animateurs autour de différents thèmes. “Le droit s’applique-t-il à l’intelligence artificielle ?” marquait ainsi la première rencontre animée par Éric Barbry, avocat associé au cabinet Racine. Mais alors “Quel cadre de confiance pour le développement de l’IA ?” Ce second volet était conduit par Isabelle Galy, membre fondateur du Hub France IA tandis que Nicolas Herbreteau, responsable des affaires publiques chez Edenred, concluait la conférence avec un troisième débat sur le thème  “Faut-il mettre des limites éthiques à l’IA ?” pour achever cette belle matinée tech.


Intelligence artificielle : l’heure de la réglementation 

Intelligence artificielle Acsel

La problématique ne date pas d’hier, et pourtant : avec le développement de l’IA et l’arrivée prochaine de son sacre au sein des technologies les plus disruptives, celle-ci est toujours plus actuelle. Avec un imaginaire collectif et culturel suffisamment fort pour faire redouter la société civile de l’avancée de cette technologie, la question de l’éthique reste à définir avant de réglementer un secteur encore balbutiant.

C’est un domaine potentiellement porteur d’énormes attentes sur l’emploi, la recherche et le développement de nouveaux biens et services, et promis à un impact révolutionnaire jamais vu. Avant l’avènement concret et global de cette technologie, il convient cependant de fixer un cadre réglementaire et législatif permettant d’allier deux principes : la protection du consommateur et de ses données personnelles alors même que les séquelles de l’affaire Snowden et Cambridge Analytica sont encore palpables, et l’assurance des acteurs économiques du marché de se développer dans un contexte serein et favorable à une auto-régulation, voire à une autonomie accordée aux entreprises qui façonne l’IA de demain dès aujourd’hui.


Le secteur vu de l’Europe

Cette équation comporte une inconnue de taille : trouver le moyen de lier les dimensions éthiques et business de l’IA. Romain Delassus, conseiller au numérique auprès du Directeur Général de la Direction Générale de l’Entreprise, estime que “le coeur du sujet de l’IA est la compétitivité économique et technologique”. Pour Nicolas Herbreteau, une question s’impose : Dès lors, comment faire conjointement exister ces deux objectifs ?

“On ne peut pas mener le combat de l’éthique et de la vie privée si notre propre écosystème est déclassé technologiquement, c’est ici que le bât blesse en France. Nous sommes une grande puissance pour la recherche fondamentale en IA mais on tarde à en tirer le bénéfice d’un point de vue business. Ce sont par ces innovations business que nous arriverons à mettre en valeur nos points de vue éthiques européens.” Romain Delassus, conseiller au numérique auprès du Directeur Général – Direction Générale de l’Entreprise (D.G.E)

L’ouverture en avril dernier d’une communication de la Commission Européenne est un autre indice du souhait assumé des institutions européennes de construire une stratégie à 27 (post-Brexit) sur le développement de cette technologie. Après tout, “L’économie numérique s’est construite en dehors des frontières nationales”  toujours selon Romain Delassus : dès lors, pourquoi ne pas aboutir à la création d’un organe de contrôle et de surveillance européen, à l’image d’un GIEC (Groupe Intergouvernemental sur l’Évolution du Climat) de l’IA ?

« L’Europe peut compter dans le domaine de l’IA sur des chercheurs, des laboratoires et des start-ups de très haut niveau. L’UE figure également en très bonne place dans le domaine de la robotique et dispose d’entreprises de premier plan au niveau mondial dans les secteurs du transport, des soins de santé et de la fabrication, qui devraient miser sur l’IA pour rester compétitives. Toutefois, la forte concurrence internationale exige une action coordonnée de la part de l’UE si celle-ci souhaite être en première ligne dans le développement de l’IA. » extrait du communiqué de presse de la Commission Européenne


L’éthique, une voie complémentaire au droit “dur ?”

Qui dit action coordonnée, dit réglementation commune. En ce sens, la Commission Européenne estime que pour permettre au secteur de décoller, il faudra légiférer avec “beaucoup d’éthique et un peu de responsabilité”. Éric Barbry est à la relance : Mais que peut donc signifier l’éthique en droit communautaire applicable à l’IA ? Concrètement, le principe d’éthique permettrait d’édifier une soft-law pouvant associer rapidité et fluidité législative. Cela sera-t-il suffisant pour répondre aux attentes des entreprises de l’IA qui souhaitent un législation souple, voire une auto-régulation ?

Intelligence artificielle Acsel

Transnationales, les règles d’éthiques présentent l’avantage de ne pas modifier le droit communautaire de façon transversale à court terme, même si l’arrivée des voitures autonomes et des objets connectés spécifiques au domaine de la santé invite l’Europe à la réflexion, au même titre que le droit sur la propriété intellectuelle. Un exemple de questions à se poser à l’avenir : dans le cadre d’une création artistique associée à une IA ou un robot, à qui revient le droit de paternité ?

Mais légiférer avec l’éthique comporte également des risques : Alexandra Bensamoun, professeure à l’université Rennes 1 et qualifiée au CSPLA (Conseil Supérieur de la Propriété Littéraire et Artistique), tient à rappeler ces menaces que sont la privatisation de la norme et le désengagement de l’État, seul détenteur de l’autorité publique et du pouvoir de coercition pour arbitrer le marché.


Quel rôle pour le législateur ?

L’exonération des risques de développement peut être dans ce cas l’une des mesures concrètes à considérer pour un ensemble d’entreprises versées dans le façonnement de l’IA.

Quid de la responsabilité ? Si aujourd’hui un robot mis en circulation dans le marché est systématiquement l’objet d’une certification, l’idée de l’intégration d’une “boîte noire” propre à chaque innovation robotique fait son chemin.

Pour Olivier Guilhem, juriste chez Softbank Robotics, la volonté du législateur n’est cependant “pas claire” : preuve en est le rapport Villani, nouvelle pièce ajoutée au corpus de la législation sur les nouvelles technologies, où le mot “légiférer” est totalement absent. D’autant plus que l’arrivée de la directive RGPD et la promulgation de la loi pour une République numérique ne sont guère suffisantes, ni pertinentes pour stabiliser un régime de la responsabilité jugé défaillant dans le cadre du développement de l’IA. L’article 1245 du Code Civil est notamment pointé du doigt, au vu de son manque d’adaptabilité avec un développement concret de l’IA. La spécificité de cette technologie, rappelle Olivier Guilhem, est qu’elle est autonome et apprenante, et l’exemple avancé du chatbot Tay de Microsoft sert à illustrer que si le produit n’est pas forcément défaillant, ses consommateurs peuvent l’être

Intelligence Artificielle Acsel

À propos, connaissez-vous Norman, la nouvelle IA psychopathe venu du MIT ?

Le contraste est également fait avec le récent cas de Cambridge Analytica. Ainsi, on fustige la fuite des données personnelles à l’origine du scandale. Mais en terme d’éthique, qu’en est-il de l’activité même des influenceurs politiques ?


Les réalités d’un marché en pleine expansion

La succession d’affaires rendues publiques concernant divers abus à l’origine ou potentiellement dues aux nouvelles technologies attirent cependant la vigilance du consommateur qui devient de plus en plus regardant face au développement des outils de demain. Deep fakes, très actifs lors de la dernière campagne présidentielle américaine, clonage des données biométriques ou encore programmes de voix artificielles basées sur des voix humaines, à l’image de l’algorithme Lyrebird : une maturité globale des citoyens à l’égard de l’IA ne peut qu’amener à une maturité politique et un retour critique nécessaire pour comprendre et réglementer le secteur dans le bon sens.

Dès lors, comment permettre à l’Homme de garder la main face à l’évolution technologique ?

De l’avis de Yacine Si Abdallah, chargé de mission auprès de la présidente de la Commission Nationale de l’Informatique et des Libertés, Isabelle Falque-Pierrotin, il ne faut cependant pas céder au déterminisme technologique et avoir une approche plus terre à terre de ces innovations aux intérêts prometteurs. La CNIL identifie donc deux enjeux : la déresponsabilisation des nouveaux artefacts techniques et l’équilibre entre l’attachement à la protection des données personnelles tout en adaptant de facto la réglementation pour les besoins de développement de l’intelligence artificielle. Le risque de se retrouver face à une dilution des responsabilités implique la mise en place d’une vigilance collective à l’égard de l’utilisation des données personnelles des consommateurs, nuance toutefois le conseiller.

intelligence artificielle Acsel

En ce sens, si les dispositions prises par la directive RGPD, à l’instar du Cloud Act américain, semblent partir d’une bonne intention, leur rentabilité demeurent discutables aux yeux de Nozha Boujemaa, directrice de recherche à l’INRIA : l’essentiel repose dans la nécessité de diversifier l’offre pour inscrire l’algorithme comme technologie de la confiance.

intelligence artificielle Acsel

Si la confiance peut s’acquérir par la technologie, elle peut également s’obtenir par la conciliation des parties prenantes. Afin de rendre plus laconique et précis un “droit trop bavard”, le député de la 1ère circonscription de Paris et CEO d’Alantys Technology Sylvain Maillard met en avant la mise en place de conditions juridiques souples enchâssées dans un système de charte contraignante à destination des entreprises : le secteur de l’IA doit se prendre en main, mais sous la surveillance de l’État.

Isabelle Galy nuance : et du côté des entreprises ? Ce cas de figure est en tout cas redouté par Guillaume Champeau, directeur des relations publiques et éthiques chez Qwant. S’il considère la directive RGPD comme un possible et potentiel avantage concurrentiel pour l’Europe, la législation doit être une force pour le secteur en confiant la responsabilité aux acteurs économiques pour réguler le marché grâce notamment…aux capacités de l’IA.


Blockchain et smart-contracts : une solution technologique à un problème éthique ?

« Il y a toujours de l’humain derrière les algorithmes, n’oublions pas ça. Les algorithmes ne sont pas une baguette magique où on appuie sur un bouton, il faut savoir ce que l’on fait quand on les utilise. » Nozha Boujemaa, directrice de recherche – INRIA

Florence G’Sell, professeur à l’Université de Lorraine et chercheur associée à l’Institut des Hautes Études sur la Justice, souligne l’importance future du développement des “smart-contracts”, déjà efficient dans les processus d’automatisation. Permis par les technologies de réseaux décentralisés sans intermédiaire, ou technologie blockchain, ces contrats intelligents trouvent une résonance particulière dans les domaines de l’assurance et de la finance. L’exemple cité de Primavera De Filippi et de son oeuvre d’art dénommée plantoïde, fonctionne sur un principe mêlant smart-contract et cryptomonnaie qui pourrait être une illustration de process pour inscrire la confiance dans le secteur. En complément de la création d’une autorité de gestion des machines intelligentes ?

La pédagogie est également de rigueur pour dissiper certains doutes. Diane Dufoix-Garnier, directrice des relations gouvernementales et des affaires réglementaires chez IBM, rappelle l’importance du principe d’intelligence augmentée liée à l’intelligence artificielle. Dans le cadre d’une étude portant sur la détection du cancer du sein aux États-Unis, selon les chiffres du National Institutes of Health (NIH) et cités dans le Plan de recherche et de développement stratégique sur l’IA établit par le gouvernement américain en octobre 2016, le taux d’erreur de détection d’une IA s’élève à 7%, contre 3% pour un oncologue. L’étude montre cependant qu’une analyse de concert effectuée par l’IA et par l’oncologue garantissait un taux d’erreur avoisinant 1%.

« Nous sommes loin d’être au niveau des standards de scénarii de science-fiction : les IA conceptualisées sont très faibles dans une grande majorité. Malgré le deep learning, les algorithmes se plantent très souvent : tout dépend de l’action humaine au préalable et il ne faut pas oublier que l’humain est seul responsable de la maîtrise technologique. » Nozhaa Boujemaa, directrice de recherche – INRIA

Loïs Aisa

Partager ce post