L'utilisation croissante de technologies visant à détecter ou à inférer les émotions humaines soulève des préoccupations juridiques et éthiques majeures. Ces technologies ne se contentent pas d'enregistrer des signaux physiologiques ou comportementaux ; elles interprètent, infèrent et agissent sur les états émotionnels et cognitifs des utilisateurs, souvent à leur insu ou sans qu'ils comprennent pleinement les implications. Lorsqu'ils partagent des récits intimes, expriment une détresse émotionnelle, décrivent des traumatismes personnels ou sollicitent des conseils sur leurs relations ou leur santé mentale, les utilisateurs révèlent souvent des informations affectives riches. Celles-ci n'apparaissent pas toujours sous la forme d'étiquettes émotionnelles explicites, mais sont fréquemment traitées comme des métadonnées émotionnelles, traçant subtilement leur vie émotionnelle et physiologique intérieure au fil du temps. Les risques liés à ces technologies dites affectives ou empathiques sont encore plus aigus lorsqu'il s'agit de personnes en situation de vulnérabilité accrue. Les enfants, les personnes âgées, les personnes en situation de handicap ou encore les populations socialement isolées sont moins aptes à évaluer de manière critique les conséquences du partage de données émotionnelles. Ces groupes sont davantage susceptibles de développer des schémas de « dépendance émotionnelle dysfonctionnelle » avec des systèmes qui paraissent empathiques ou soutenants (De Freitas & Cohen, 2025). Il est souvent supposé que les données émotionnelles ne peuvent être extraites qu'à travers des interfaces biométriques avancées, comme les casques EEG ou les dispositifs neuronaux, mais il s'agit d'une idée reçue. En pratique, les informations émotionnelles peuvent également être inférées à partir d'interactions quotidiennes avec des modèles de langage de grande taille (LLMs), des compagnons virtuels ou encore des applications de bien-être ou de thérapie basées sur l'intelligence artificielle. Ces interactions peuvent inclure des conversations textuelles, des échanges vocaux, des expressions faciales et, selon l'application, même des signaux biométriques et indicateurs physiologiques. Deux exemples sont particulièrement révélateurs de l'ampleur des données personnelles et des inférences sensibles qui peuvent être dérivées. Dans le domaine de la santé mentale, le chatbot « DEPRA », développé par la Victoria University (Melbourne), a démontré la faisabilité de détecter des signes précoces de dépression à partir de simples conversations, révélant le potentiel de l'IA à inférer des états psychologiques sensibles (Kaywan et al., 2020). Additionnellement, L'analyse vocale s'impose aujourd'hui comme un outil puissant pour détecter précocement la maladie de Parkinson, avec une précision croissante grâce au machine learning (Xavier et al., 2025 ; Shen et al., 2025). Ces avancées montrent que des informations hautement sensibles peuvent déjà être déduites d'interactions apparemment banales, ce qui souligne la profondeur des états émotionnels et vulnérabilités susceptibles d'être exploités par des systèmes d'IA empathiques. Toutes les personnes ne seront pas affectées de la même manière par ces technologies, et il est probable que leur impact devienne d'abord visible parmi les groupes déjà prédisposés à une vulnérabilité accrue, tels que les enfants, les personnes âgées, les personnes en situation de handicap ou les populations isolées. Ce point a été particulièrement souligné dans un éditorial récent publié dans Nature et intitulé Emotional risks of AI companions demand attention. Cet éditorial fait référence à une étude du Harvard Business Review montrant que des chatbots conçus pour simuler l'empathie peuvent favoriser des attachements émotionnels profonds, parfois comparables aux relations humaines (De Freitas & Cohen, 2025). Ces attachements peuvent conduire à deux issues néfastes : la perte ambiguë (lorsque les utilisateurs pleurent la disparition ou l'altération soudaine d'un compagnon IA) et la dépendance émotionnelle dysfonctionnelle