Recrutement Post-doc - Définition de la figure humaine de droit dans les futurs services de l'IoT

Vie académique

Recrutement Post-doc - Définition de la figure humaine de droit dans les futurs services de l'IoT

Recrutement par Orange


Contexte

Alors que l'internet des documents (le Web) a constitué une promesse réalisée d'émancipation pour les libertés individuelles [1], l'internet des objets (IoT) semble plus une menace. En effet, l'IoT demande à l'utilisateur d'interagir non plus avec une (voire plusieurs) machine mais avec un système tout entier, dont l'intelligence ambiante est à même de décrire l'activité des individus et donc de produire un volume inquiétant de « données personnelles », quand bien même ces dernières seraient officiellement protégées par le droit européen [7].
Cette extension décisive du champ numérique repose de bien des façons la question de la figure de l'utilisateur : du point de vue juridique la figure centrale du droit (l'individu libre, rationnel et autonome, c'est-à-dire conscient de sa volonté propre) est bousculée par des dispositifs qui intègrent l'homme ou plutôt ses manifestations numérisées (données, patterns comportementaux) à un système automatisé animé par des capacités de calcul, de prédiction, de captation etc. [2], [9].

Problème théorique : l'intentionnalité d'un comportement est-elle assimilable à un choix individuel ?

L'individu est la figure humaine du droit et de l'économie dans nos sociétés. Les actions qui l'engagent dans un contrat ou devant la loi sont considérées comme des choix rationnels et souverains. Or l'IoT implique de modéliser et d'anticiper ces choix par l'observation des comportements. C'est la détermination de l'intention qui fonde le système à orienter les options d'interaction voire à se substituer à l'utilisateur lui-même pour engager des décisions [8] : contractualisation d'un acte d'achat, accès à un service, organisation de ressources, adaptation tarifaire etc. Tout l'appareil juridique est cependant fondé sur des actes et non des intentions, ou des comportements. Même si ceux-ci interviennent à la marge en droit pénal, la notion d'intention n'existe pas au civil (droit public, droit commercial, des affaires). Il est donc compliqué d'engager des individus (sujets de droit) sur la base d'éléments « infra » individuels [3] que sont des données comportementales, aussi performants que soient les modèles statistiques qui lient comportement et intentions.

Il faut donc chercher dans les grandes notions juridiques comment aborder et encadrer le raccourci informatique entre comportement/intention et décision (c'est-à-dire action, choix).

Quelles sont les notions juridiques qui approchent les grandes catégories de l'intelligence artificielle et de la systémique ? Quels sont en droit les grandes notions qui bordent la question de l'intention souveraine ? La question est rarement posée puisque l'intentionnalité des choix individuels est un postulat de départ. Une autre façon de prendre la question est de se demander si le comportement est un objet de droit, ou si seuls les actes (postulés conscient et volontaires) sont pris en compte. Répondre par l'affirmative à la première proposition (le comportement est un objet de droit civil) opérerait un glissement décisif vers une conception actuarielle (réduire le monde à ce qui est prévisible) de l'individu qui tranche avec les fondements libéraux de notre droit [10], et même avec sa rationalité [3]. En effet, le « droit de l'IoT », s'il devait suivre cette pente n'aurait plus besoin de se représenter la rationalité de l'homme moyen [5] ni de comprendre ses choix, seulement de détecter ses intentions potentielles et de les traiter en termes de probabilités (ou de risques). Mais même la plus grande précision dans les modèles d'observation et de captation de l'humain ne saurait produire qu'une objectivité [6] (et donc une réification) contradictoire avec les libertés fondamentales du sujet de droit (l'individu).

 

Votre rôle

Problème pratique : quelle figure humaine pour interagir avec l'IoT ?

La science économique utilise la figure de l'agent pour opérer cette réduction mécanique de l'individu à une suite de comportements rationnels, activables par des signaux. Le Droit doit lui aussi imaginer une figure humaine acceptable pour interagir avec les systèmes promis par l'IoT. Il a inventé des formes méta individuelles comme la « personne morale » pour doter de droits et devoirs les collectifs humains comme les associations ou les conseils d'administration des entreprises. Il doit sans doute inventer aujourd'hui des formes infra-individuelles de responsabilité et d'engagement, pour permettre à des contrats de services de se développer sur la base de comportements observés, appris et intégrés à des systèmes informatiques tout en préservant le coeur de sa philosophie, c'est-à-dire la liberté individuelle. Trois déclinaisons de ce problème initial nous occuperont :

1) Consentement et notification des CGU

Les notions de « notification » et de « consentement » qui balisent les conditions légales d'utilisation des services sont mises en tension : comment un utilisateur peut-il accepter des CGU (conditions générales d'utilisation) si celles-ci sont rendues inintelligibles par l'absence d'écran sur un objet, ou par la complexité systémique de l'interaction ? Les CGU, tout comme les contrats « autonomes » qui équiperont certaines machines, vont donc nécessiter la formalisation de nouvelles fictions juridiques permettant de contractualiser et d'exploiter des services tout en préservant les droits individuels.

2) Plasticité des contrats autonomes et personnalisation du droit

Une offre commerciale est légale à la condition d'être publique, afin que ses conditions s'appliquent à tous les contractants potentiels sans distinctions. On comprend aisément que la pratique du profilage ainsi que l'adaptation dynamique des contrats autonomes à l'environnement connecté posent potentiellement une série de problèmes juridiques.

3) Responsabilité civile et intelligence ambiante

Le problème n'est pas totalement nouveau (celui de l'intelligence embarquée et de l'aide à la décision), mais là encore reposé par le contexte de l'IoT. Qui est le responsable des problèmes ou dommages créés par des structures en partie autonomes ? Que faire si l'intelligence « responsable » est distribuée sur plusieurs individus (dans le cas d'un microgrid énergétique par exemple) ? Là encore, la figure engagée varie de l'échelle infra à méta individuelle.

Face à ce chantier énorme on peut choisir de travailler dans deux directions opposées : les conditions générales d'utilisation d'un service, et l'identité du contractant (individu ou autre). Faut-il prévoir des conditions d'utilisation des services qui renoncent à l'individu, c'est-à-dire dans lesquelles l'individu renonce de lui-même à sa liberté pour s'en remettre à un système paternaliste et bienveillant qui fait les choix pour lui (santé ? énergie ?) ou dessiner une figure humaine « dégradée » ou réduite pour interagir avec le système et qui n'engagerait donc pas la totalité de l'individu ?

La première exploration de cette vaste question sera d'identifier quels sont les champs d'applications de l'IoT qui relèveraient de l'une ou l'autre de ces approches.
Attendus :

  • un panorama des notions juridiques encadrant la question de l'intention, du comportement et autres objets utilisés en Intelligence Artificielle ou systémique dans les travaux sur l'IoT
  • un panorama des figures humaines partielles et autres fictions juridiques utilisées par le droit commercial
  • un panorama des stratégies possibles pour les services juridiques d'Orange en charge de la contractualisation des services

 

Votre profil

Compétences scientifiques et techniques

Vous avez un profil de juriste et êtes titulaire d'un doctorat dans les disciplines suivantes :

  • droit du numérique
  • sociologie du droit
  • philosophie du droit

Expériences souhaitées

Vous avez une compétence particulière sur le droit des données personnelles, droit commercial et plus généralement sur les problématiques numériques du droit civil. Une attention particulière sera portée aux publications académiques sur les thèmes suivants : personnalité virtuelle / décision artificielle / responsabilité civile numérique / consentement / Internet des Objets.

Curiosité transdisciplinaire

Personne ne sait dire aujourd'hui qui est juridiquement impliqué dans l'interaction avec un système type IoT. Personne ne sait dire non plus (parmi les designers d'interaction ou les informaticiens) quelle partie de l'individu est fonctionnellement impliquée dans une interaction IoT : le comportement, l'intention, le choix ? Vous devrez donc dialoguer vers les deux bouts de la chaîne d'innovation (des labos, aux services opérationnels) : on devra fournir aux designers/informaticiens des définitions juridiques de l'intention ou du consentement qui puissent se traduire en objets informatiques ou en situations d'interaction, on devra fournir aux experts en charge de la prévention des risques juridiques des éléments de stratégie pour aborder ces nouveaux enjeux. La curiosité d'esprit et la capacité à appréhender les problèmes scientifiques ou opérationnels connexes au sujet seront donc des qualités requises pour le poste.

Le plus de l'offre

L'équipe Orange UX de Meylan est constituée de 27 personnes aux profils variés : ergonomes, sociologues, économistes, designers d'interaction. L'équipe est, de par son effectif, plutôt tournée vers les tests utilisateurs, mais l'animation scientifique du post doc veillera à entretenir les échanges dans deux directions principales : l'équipe SENSE de la division UX (sociologie et humanités numériques), ainsi que l'équipe Innovation &IT de la Direction Juridique.

 
Références
[1] Benkler, Yochai, 2006, Individual Freedom: autonomy, Information and Law, in The Wealth of Networks, Yale University Press.
[2] Rouvroy, Antoinette, 2008, « Privacy, data protection, and the unprecedented Challenges Raised by Ambiant Intelligence », Studies in Ethics, Law and Thechnology, Berkeley Electronic Press, Vol 2.
[3] Rouvroy Antoinette,Berns Thomas, 2010, « Le Nouveau Pouvoir Statistique », Multitudes n°40.
[4] Lessig Lawrence, 1999, Code is Law, in http://codev2.cc/download+remix/Lessig-Codev2.pdf
[5] Desrosières, Alain, 1993, La Politique des Grands Nombres : Histoire de la Raison Statistique, Paris, La Découverte.
[6] Daston, Lorraine et Gallison, Peter, 2012, Objectivité, Dijon, Les Presses du Réel.
[7] Charte des Droits Fondamentaux de l'Union Européenne, Art. 8.
[8] Weber, R.H, 2010, “IoT - New Security and Privacy Challenges”, Computer Law & amp; Security Review, Vol 26 issue 1, January 2010.
[9] van den Hoven, Jeroen and Weckert, John, 2008, Information Technology and Moral Philosophy, Cambridge University Press.
[10] Simon Jonathan, 1988, « The Ideological Effects of Actuarial Practices », Law and Society Review, vol 22 n°4.

 

 




Orange UX
28 chemin du Vieux Chêne
38240 Meylan