Interview #4 – Maître Georgie Courtois

Chaque semaine, Assas Legal Innovation part à la rencontre de professionnels afin d’échanger sur le thème de l’innovation en droit. 

Pour cette nouvelle édition, Agathe Toussaint et Hélène Church ont rencontré Maître Courtois, avocat associé en droit de la propriété intellectuelle et en droit des nouvelles technologies.

Pouvez-vous vous présenter brièvement, évoquer vos études et votre parcours professionnel ?

J’ai fait l’intégralité de ma scolarité à la Faculté de Sceaux Paris XI où j’ai obtenu le DESS, Droit du numérique et des nouvelles techniques (équivalent du Master 2 Droit des créations numériques aujourd’hui) du Professeur Pierre Sirinelli. J’ai toujours énormément apprécié l’informatique et cette formation était celle que j’avais depuis longtemps pour objectif de suivre. Aujourd’hui, j’enseigne à mon tour au sein de ce même Master depuis 10 ans !

J’exerce la profession d’avocat au sein de la société d’avocats De Gaulle Fleurance & Associés que j’ai rejoint pour mon stage de fin d’études en 2005.

Ma pratique quotidienne me permet de lier à la fois le contentieux et le conseil avec un spectre d’activités assez large : contrats informatiques, données personnelles, droit des marques, droit d’auteur, média, droit de la presse, contrats commerciaux.

L‘émergence des questions juridiques liées à l’intelligence artificielle est récente. C’est un domaine en perpétuelle évolution ; il suscite de nombreuses questions juridiques sur les innovations technologiques que de multiples experts s’attèlent à traiter. C’est ainsi que j’ai été amené à diriger le groupe sur les enjeux juridiques de l’intelligence artificielle  du rapport France IA de 2017. Récemment, j’ai été auditionné par la commission Villani en charge du rapport qui va être rendu public le 29 mars 2018. Je suis de plus membre fondateur de l’association Hub France IA au sein duquel je pilote l’accompagnement juridique de l’IA.

Au sein du Rapport France IA, de nombreux acteurs se sont réunis pour définir les grandes orientations de la France en matière d’intelligence artificielle. Dix thématiques majeures ont été identifiées parmi les domaines d’application de l’intelligence artificielle comme la finance, les voitures autonomes, la souveraineté et sécurité nationale. Vous êtes responsable d’un groupe ayant apporté de nouvelles réflexions relatives aux enjeux juridiques liées à  l’intelligence artificielle. Comment avez-vous travaillé avec les autres acteurs qui ont contribué à la réalisation de ce rapport ?

Pour réaliser ce Rapport, nous avons constitué un groupe représentatif avec des professeurs, avocats, juristes, directeurs d’entreprises puis nous avons conduit des sessions d’interviews avec des acteurs français ainsi que des  acteurs internationaux tels que Microsoft, Google, ou encore IBM. L’objectif était de cerner quelles étaient leurs problématiques juridiques concrètes face à l’intelligence artificielle.

De manière globale, ce qui est ressorti de ces interviews est que le point névralgique pour gérer ces enjeux juridiques est le contrat. La question centrale était de savoir comment gérer l’intelligence artificielle et les données exploitées contractuellement. Le contrat est en effet un enjeu essentiel car la volonté des parties va s’exprimer pour gérer leurs relations juridiques et parfois permettre de guider le juge en cas de litige.

Le contrat implique également la notion essentielle de la « Data » ou des données. Les données peuvent être assimilées au carburant de l’intelligence artificielle qui serait un réacteur. Les problématiques majeures en matière de data sont celles de leur valorisation des données et de leur traitement.

Quels ont été alors les enjeux juridiques majeurs soulevés lors de vos travaux sur le rapport ?

Le premier enjeu est celui protection de l’intelligence artificielle. Comment protéger un algorithme dont la protection n’est pas toujours bien assurée par la propriété intellectuelle? Nous avons analysé les différentes voies par lesquelles un algorithme pouvait être protégé grâce au véhicule qui le portait, à supposer que ce véhicule soit protégé. Plusieurs solutions ont été envisagées :

  • la protection par un autre logiciel en vertu du droit d’auteur,
  • la protection par un brevet si les critères de brevetabilité sont atteints,
  • la protection par le secret d’affaire afin d’empêcher qu’un tiers s’empare du fonctionnement de l’algorithme en le copiant par exemple.
  • la protection de l’outil qu’est l’algorithme peut être assurée par le recours à des clauses contractuelles qui interdiraient de reproduire le savoir-faire ou les méthodes utilisées grâce à des mécanismes de confidentialité.

Le deuxième enjeu est celui de la transparence, qui est quelque peu contradictoire avec celle de la protection. Il s’agit pour les utilisateurs de comprendre comment fonctionne l’algorithme et la manière dont ses données ont été traitées. Ce sujet est au coeur de l’actualité et ouvre également des questions éthiques. Il a fait l’objet d’évolutions juridiques récentes :

  • la Loi pour une République Numérique a adopté des dispositions spéciales sur la transparence algorithmique dans les traitements réalisés par l’Etat,
  • le Règlement Général Protection Données, dont le champ d’application est limité aux données personnelles, impose des obligations en matière de profilage. Le profilage concerne le traitement et l’analyse de données en vue d’analyser les comportements des utilisateurs et permet par exemple que les objets connectés s’adaptent aux comportements de l’utilisateur. La transparence, notamment en matière de profilage, est étroitement liée au consentement de l’utilisateur : il est possible de voir ses données personnelles analysées, encore faut-il l’avoir accepté.

Le troisième enjeu est celui de la nature juridique de la donnée brute.

Il faut bien comprendre que les données sont indispensables pour cerner les enjeux juridiques de l’intelligence artificielle : des recherches ont montré que plus il y a de données, plus les chances sont grandes que l’algorithme d’intelligence artificielle parvienne à un résultat intéressant. Pour l’IA, la capacité de calcul des ordinateurs et la masse de données qu’ils sont capables de traiter sont essentielles. Récemment, la Loi Le Maire, a entériné un mouvement d’ouverture publique de la donnée brute.

Par la suite, notre groupe s’est interrogé sur le régime juridique à appliquer à la donnée. Dans ce rapport, il s’agissait notamment de déterminer comment gérer les droits relatifs à la donnée avant son traitement et après le traitement.

Généralement, il est prévu dans le contrat que le client reste propriétaire de ses données initiales et qu’il est le propriétaire du résultat généré par l’intelligence artificielle. Cependant, la question de savoir si un fournisseur de l’intelligence artificielle utilise la connaissance qu’il a acquise lors du traitement de la donnée par exemple pour améliorer son système est un point crucial.

Pour résoudre cette problématique le meilleur moyen est la négociation contractuelle. Le groupe du rapport France IA proposait la mise en œuvre d’une veille sur les clauses contractuelles utilisées par les opérateurs économiques afin d’identifier et de développer des bonnes pratiques en la matière.

Enfin, le dernier enjeu est celui des responsabilités générées par l’intelligence artificielle qui sont de deux types.

D’une part la responsabilité des robots, c’est à dire d’intelligence artificielle intégrée dans des objets physiques (robots, voitures autonomes) et d’autre part la responsabilité de l’intelligence artificielle elle-même, désincarnée, qui n’a aucune interaction avec le monde physique (à titre d’exemple, dans le diagnostic médical ou les transactions financières).

Le régime de responsabilité applicable n’est pas le même.

S’agissant des robots, la responsabilité du fait des choses que l’on a sous sa garde et la responsabilité du fait des produits défectueux, lorsque le dommage vient d’une défaillance du robot externe à son utilisateur, fournissent des solutions convenables. J’ai confiance en la possibilité qu’offre le droit français d’être suffisamment souple et adaptable pour trouver dans ses textes actuels les solutions aux problématiques futures sans nécessairement avoir besoin de recourir à de nouveaux concepts.

Dans le second cas, la responsabilité de l’intelligence artificielle elle-même, la responsabilité pourra être celle du fournisseur de l’intelligence artificielle ou bien des utilisateurs en raison « des biais » qu’ils auraient introduits en raison d’une mauvaise configuration ou d’une fourniture de données biaisées.

Ces questions sont passionnantes et tous les praticiens attendent avec impatience les premières jurisprudences en la matière.

Que penser de la personnalité juridique des robots. Cette solution vous semble-t-elle satisfaisante?

A titre personnel, je ne suis pas un adepte de l’idée de conférer une personnalité juridique propre aux robots et cela tient très certainement à mon penchant civiliste très marqué. La personnification des robots troublerait surtout gravement les catégories juridiques en donnant vie à une chimère, mi-personne mi-chose, à la fois sujet de droit et objet de droit.

L’intérêt d’envisager la personnalité juridique d’un objet (qui par définition n’en a pas) me semble inexistant, notamment parce que la création d’une personnalité juridique nécessite un patrimoine sur lequel on est responsable. Il faudrait alors abonder le patrimoine d’un robot ; les utilisateurs sont-ils prêts à investir dans un capital de robot?  Outre ce patrimoine propre, il est évoqué l’hypothèse de fonds de garantie utilisables si un robot venait à causer un dommage.

Cette responsabilité juridique pourrait, selon moi, conduire à une dé-responsabilisation des propriétaires des robots et cette question soulève un problème d’éthique.

La responsabilité de l’utilisateur ne doit pas être éludée. Il faut bien comprendre que l’intelligence artificielle n’est qu’une simulation d’intelligence. Les robots et l’intelligence artificielle au sens large sont très loin d’être autonomes et l’intelligence artificielle forte ou encore le « point de singularité » au-delà duquel l’intelligence artificielle dépassera l’intelligence humaine est loin de nous (voire même un simple fantasme selon les plus éminents chercheurs en intelligence artificielle). L’utilisateur ou le fabricant du robot sont donc toujours responsables des dommages causés par ce robot, le robot n’ayant pas conscience de lui-même. La création d’une personnalité juridique du robot me semble donc inappropriée.

La France peut-elle concurrencer et égaler d’autres pays comme la Chine qui est  de très loin le premier investisseur en intelligence artificielle ? la France peut-elle espérer occuper une place au sein de la carte du monde de l’intelligence artificielle ?

Il y a une vraie prise de conscience en France de l’intérêt de l’intelligence artificielle. Le Rapport France IA de 2017 et le rapport Villani qui sera remis le 29 mars 2018 en sont les signes. L’un des objectifs de la France est d’être une nation à la pointe des enjeux numériques à venir. A ce titre, l’un des objectifs de l’association Hub France IA est de créer un écosystème français performant fédérant les plus beaux fleurons technologiques travaillant sur l’intelligence artificielle et de les mettre en relation avec les entreprises. La France doit, en outre, établir des relations avec ses homologues européens œuvrant sur le sujet pour améliorer sa compétitivité et sa légitimité. Dès à présent, le Hub France IA a vocation à accompagner les entreprises utilisatrices d’intelligence artificielle mais également, par une approche « bottom up » liée à la connaissance du terrain, à influencer la législation si cela s’avère nécessaire.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *