Date limite le jeudi 25 juil. 2024
Organisatrice : Suhasini VINCENT, MCF-HDR, Université Paris Panthéon Assas
Journée d'étude organisée avec le soutien de CERSA (UMR 7106, Paris Panthéon Assas) et CEThicS ( EA 7446) de l'Université Catholique de Lille
A l'ère de la surveillance numérique, les données peuvent être repérées et collectées par des capteurs d'intelligence artificielle qui imitent le réseau neuronal du cerveau humain. Allant des capteurs biométriques qui reconnaissent l'identité comme les sens humains de la vision, de l'audition et de la tactilité, aux modèles linguistiques de grande envergure (LLM) capables de prédire le prochain mot dans une séquence, d'écrire un code informatique et d'avoir des conversations, ces nouvelles générations d'IA se réjouissent de leur capacité à absorber des informations et à accomplir des tâches sophistiquées plus rapidement que le cerveau humain. Bien que les partisans de l'IA vantent sa capacité à libérer l'espace mental humain, à fournir des diagnostics plus précis dans le domaine de la santé et à susciter des idées créatives, l'introduction de ChatGPT dans le grand public a engendré un scepticisme quant à la manière dont l'évolution rapide des algorithmes de l'IA enfreint le droit à la vie privée. Ces nouvelles craintes contemporaines concernant la protection des données personnelles et de l'intégrité découlent de la capacité de l'IA à générer des images, des vidéos, des enregistrements audio et des identités synthétiques incroyablement réalistes.
Compte tenu de l'ubiquité de la technologie numérique, à quel point nos données sont-elles sécurisées ? Les données collectées quotidiennement grâce à la surveillance numérique, provenant de nos habitudes de navigation en ligne, incluent également nos mouvements physiques capturés par des capteurs. Chaque action que nous entreprenons est surveillée et suivie. Alors que des efforts législatifs visant à affaiblir le chiffrement de bout en bout au nom de la sécurité en ligne se poursuivent à travers le monde, il est pertinent de considérer comment les outils de surveillance soutenus par l'IA et les logiciels espions, autorisés pendant la pandémie de COVID-19, ont donné aux gouvernements accès à des informations privées relatives à la santé, des photos pour la reconnaissance faciale et des adresses de domiciles. Les journalistes d'investigation soutiennent que la surveillance en ligne des sources journalistiques entrave la libre circulation de l'information, enfreint le droit à la liberté d'expression et viole la confidentialité des communications et la protection des sources.
Alors que les lanceurs d'alerte de l'industrie de l'IA ont cherché à exposer les dangers potentiels des nouveaux chatbots alimentés par l'IA, cette dernière s'est également révélée être un outil émergent rapide dans le contexte des dénonciations, avec des chatbots capables de tenir des conversations avec des utilisateurs humains par la voix ou le texte, ou grâce à des traductions en direct basées sur l'IA. Il serait intéressant d'examiner comment les différents systèmes juridiques de droit continental et de common law ont établi des normes destinées à réguler l'Intelligence Artificielle (IA), l'apprentissage automatique et les mégadonnées, et à suivre le rythme de la technologie de surveillance par l'IA.
L'objectif de cette journée d'étude est d'explorer l'impact de l'IA sur les droits de l'homme dans un contexte mondial. On favorisera une approche interdisciplinaire prenant en compte les domaines du droit, de la technologie de l'IA et de l'activité journalistique. Les organisateurs souhaitent recevoir des propositions de la part d'universitaires, de décideurs politiques et de praticiens du droit. Les axes suivants pourront être explorés en ce qui concerne l'UE, le Royaume-Uni, les Etats-Unis et les pays du Commonwealth.
- Surveillance numérique et autocensure des rédactions de journaux et des journalistes
- Résolution du problème des fausses informations grâce à l'IA
- Rôle des lanceurs d'alerte dans la révélation de la corruption et des abus
- Impact de la surveillance en ligne sur la liberté journalistique
- Problèmes juridiques découlant de la surveillance numérique – preuves dans les enquêtes criminelles/atteinte aux libertés civiles
- Législation à l'ère de l'IA
- Recours juridique contre les biais algorithmiques
- IA générative et propriété intellectuelle
- IA et fiction criminelle
Les communications pourront être présentées en anglais ou en français et une publication sera envisagée. Chaque présentation durera 20 minutes et sera suivie d'une discussion. Cette conférence est organisée avec le soutien du CERSA (UMR 7106, Paris Panthéon Assas) et CEThicS (EA 7446) de l'Université Catholique de Lille. Veuillez soumettre vos propositions d'environ 300 mots, accompagnées d'une courte biographie, avant le 25 juillet 2024 à l'organisatrice : Suhasini VINCENT – suhasini.vincent@u-paris2.fr. La journée d'étude est prévue comme un événement en présentiel à l'Université Paris Panthéon Assas et se tiendra le 8 octobre 2024.
Global Digital Surveillance, Artificial Intelligence and Human Rights
Symposium - October 8, 2024 – 9 am to 6pm
Salle Collinet, 4 rue Valette 75005 Paris, Esc. 4 3ème étage
Organizer: Suhasini VINCENT, MCF-HDR, Université Paris Panthéon Assas
Symposium organized with the support of CERSA (UMR 7106, Paris Panthéon Assas) and CEThicS ( EA 7446) of the Université Catholique de Lille
https://www.assas-universite.fr/en/call-papers-global-digital-surveillance-artificial-intelligence-human-rights
In the present age of digital surveillance, data can be traced and collected through AI sensors that imitate the neural networking of the human brain. Ranging from biometric sensors that recognize identity like the human senses of vision, audition and tactility to large language models (LLM) capable of predicting the next word in a pattern, writing computer code and having conversations, these newer generations of AI revel in their capacity to gobble up information and perform sophisticated tasks faster than the human brain. While proponents of AI vouch for its capacity of freeing up human mind space, providing a more accurate diagnosis in healthcare, and sparking creative ideas, the introduction of ChatGPT to the mainstream has produced skeptics who question how AI's rapidly advancing algorithms infringe the right to privacy. These new fears of our time of protecting personal data and integrity stem from AI's capacity to generate incredibly realistic fake images, videos, audio recordings and synthetic identities.
Considering the ubiquity of digital technology, how safe is our data? Data collected daily through digital surveillance from our online viewing habits also include our physical moments caught by sensors. Every action we take is being surveilled and tracked. While legislative efforts to weaken end-to-end encryption in the name of online safety are ongoing around the world, it is pertinent to consider how AI-supported surveillance tools and spyware that were greenlit during the COVID-19 pandemic gave governments access to private health details, photos for facial recognition, and home addresses. Investigative journalists contend that online surveillance of journalistic sources hampers the free flow of information, infringes the right of the freedom of expression and breaches confidentiality in communications and source protection.
While whistleblowers in the AI industry have sought to expose the potential dangers of new AI-powered chatbots, AI has also proved to be a fast emerging tool in the whistleblowing context with chatbots holding conversations with human users through voice or text or AI-based live translations. It would be interesting to consider how different continental and common law legal systems have set directives to regulate Artificial Intelligence (AI), machine learning and big data and keep pace with AI surveillance technology.
The ambition of the one-day symposium is to explore the impact of AI on human rights in the global context . The aim is to favour an interdisciplinary perspective that considers the spheres of Law, AI Technology and Journalistic Endeavor. The organizers wish to receive proposals from academics, policymakers, and legal practitioners. The following avenues may be explored pertaining to the EU/UK/US/Commonwealth countries.
- Digital Surveillance and the Self-censorship of Newsrooms and Journalists
- Solving the problem of fake news through AI
- The Role of Whisteblowers in Exposing Corruption and Abuse
- The Impact of Online Surveillance on Journalistic Freedom
- Legal Issues Arising from Digital Surveillance – evidence in criminal investigations/infringement of civil liberties
- Law-making in the era of AI.
- Legal Recourse for Algorithmic Bias
- Generative AI and Intellectual Property
- AI and Crime Fiction
Papers may be presented in English or French and a publication will be considered. Each presentation will last 20 minutes and will be followed by a discussion. This conference is organized with the support of CERSA (UMR 7106, Paris Panthéon Assas). Please submit your proposals of approximately 300 words, along with a short biography by July 25, 2024 to the organizer:
Suhasini VINCENT – suhasini.vincent@u-paris2.fr
The symposium is planned as an on-site event at the University Paris Panthéon Assas and will take place on October 8, 2024.
Journée d'étude organisée avec le soutien de CERSA (UMR 7106, Paris Panthéon Assas) et CEThicS (EA 7446) de l'Université Catholique de Lille.