Laure Tougne

Professeur
Informatique.
Faculté de Droit Julie-Victoire Daubié
Responsable de la formation :
PUBLICATIONS ENCADREMENT DOCTORAL
  • THESE

    Cercles discrets sur automates cellulaires, soutenue en 1997 à Lyon École normale supérieure sciences sous la direction de Jacques Mazoyer 

  • Laure Tougne, Bruce Macvicar, A. Hauet, N. E. Bergeron, Imtiaz Ali, « River monitoring with ground-based videography », in Carbonneau, H. Piégay (dir.), Remote Sensing of Rivers: Management and Applications, Wiley-Blackwell, ISBN 978-0470714270,, Wiley-Blackwell, 2011, pp. 367-383 

    Laure Tougne, L. Tougne, « Géométrie discrète sur des supports multirésolution », in Traité IC2, série Signal et image (dir.), Géométrie discrète et images numériques, 2007, pp. 375-385 

    Laure Tougne, Issameddine Boukhriss, Serge Miguet, L. Tougne, « Two dimensional discrete statistical shape models construction », Signal Processing for Image Enhancement and Multimedia Processing, Springer Verlag, 2007 

  • Laure Tougne, Devashish Lohani, Carlos Crispim-Junior, Quentin Barthélemy, Sarah Bertrand [et alii], « Perimeter Intrusion Detection by Video Surveillance: A Survey », Sensors, 2022, n°9, p. 3601 

    Laure Tougne, Clément Douarre, Carlos Crispim-Junior, Anthony Gelibert, Gérald Germain [et alii], « CTIS-Net: A Neural Network Architecture for Compressed Learning Based on Computed Tomography Imaging Spectrometers », IEEE Transactions on Computational Imaging, 2021 

    Laure Tougne, Pierre-Olivier Mazagol, P. Niogret, Jérémie Riquier, Michel Depeyre [et alii], « Tools Against Oblivion: 3D Visualization of Sunken Landscapes and Cultural Heritages Applied to a Dam Reservoir in the Gorges de la Loire (France) », Journal of Geovisualization and Spatial Analysis, 2021, n°2   

    Laure Tougne, Pierre Lemaire, Carlos Crispim-Junior, Lionel Robinault, « Registering Unmanned Aerial Vehicle Videos in the Long Term », Sensors, 2021, n°2, p. 513 

    Laure Tougne, Hossein Ghaffarian, Pierre Lemaire, Zhang Zhi, Bruce Macvicar [et alii], « Automated quantification of floating wood pieces in rivers from video monitoring: a new software tool and validation », Earth Surface Dynamics, 2021, n°3, pp. 519-537 

    Laure Tougne, Clément Douarre, Carlos Crispim-Junior, Anthony Gelibert, David Rousseau, « On the value of CTIS imagery for neural-network-based classification: a simulation perspective », Applied optics, 2020, n°28, p. 8697 

    Laure Tougne, Clément Douarre, Carlos Crispim-Junior, Anthony Gelibert, David Rousseau, « Novel data augmentation strategies to boost supervised segmentation of plant disease », Computers and Electronics in Agriculture, 2019, p. 104967     

    Laure Tougne, Julien Mille, Aurélie Leborgne, L. Tougne, « Euclidean Distance-Based Skeletons: A Few Notes on Average Outward Flux and Ridgeness », International Journal of Mathematical Imaging and Vision, 2019, n°3, pp. 310-330   

    Laure Tougne, Rémi Ratajczak, Carlos Crispim-Junior, Élodie Faure, Béatrice Fervers, « Automatic Land Cover Reconstruction From Historical Aerial Images: An Evaluation of Features Extraction and Classification Algorithms », IEEE Transactions on Image Processing, 2019   

    Laure Tougne, Clément Douarre, Carlos Crispim-Junior, Anthony Gélibert, David Rousseau, « Data for : Novel Data Augmentation Strategies To Boost Supervised Segmentation of Plant Disease Images », Computers and electronics in agriculture, 2019, p. -   

    Laure Tougne, Élodie Faure, Rémi Ratajczak, Carlos Crispim-Junior, Aurélie Danjou [et alii], « GOURAMIC: A Software to Estimate Historical Land Use in Epidemiological Studies », Environmental Epidemiology, 2019, p. 118 

    Laure Tougne, Élodie Faure, R. Ratajczak, Carlos Crispim-Junior, O. Pérol [et alii], « Development of a software based on automatic multi-temporal aerial images classification to assess retrospective environmental exposures to pesticides in epidemiological studies », Epidemiology and Public Health = Revue d'Epidémiologie et de Santé Publique, 2018 

    Laure Tougne, Sarah Bertrand, Rihab Ben Ameur, Guillaume Cerutti, Didier Coquin [et alii], « Bark and Leaf Fusion Systems to Improve Automatic Tree Species Recognition », Ecological Informatics, 2018 

    Laure Tougne, Xingyu Pan, « A New Database of Digits Extracted from Coins with Hard-to-Segment Foreground for OCR Evaluation », Frontiers in information and communication technologies, 2017 

    Laure Tougne, Manuel Grand-Brochier, Antoine Vacavant, Guillaume Cerutti, Camille Kurtz [et alii], « Tree leaves extraction in natural images: Comparative study of pre-processing tools and segmentation methods », IEEE Transactions on Image Processing, 2015, n°5, pp. 1549-1560   

    Laure Tougne, Aurélie Leborgne, Julien Mille, « Noise-resistant Digital Euclidean Connected Skeleton for graph-based shape matching », Journal of Visual Communication and Image Representation, 2015, p. 165176 

    Laure Tougne, Guillaume Cerutti, Didier Coquin, Antoine Vacavant, « Leaf margins as sequences: A structural approach to leaf identification », Pattern Recognition Letters, 2014, n°2014, pp. 177-184 

    Laure Tougne, Imtiaz Ali, Julien Mille, « Adding a rigid motion model to foreground detection: Application to moving object detection in rivers », Pattern Analysis and Applications, 2014, pp. 567-585 

    Laure Tougne, Antoine Vacavant, Lionel Robinault, Thierry Chateau, « Special section on background models comparison », Computer Vision and Image Understanding, 2014, pp. 1--3 

    Laure Tougne, Guillaume Cerutti, Julien Mille, Antoine Vacavant, Didier Coquin, « Understanding Leaves in Natural Images - A Model-Based Approach for Tree Species Identification », Computer Vision and Image Understanding, 2013, n°10, pp. 1482-1501   

    Laure Tougne, Imtiaz Ali, Julien Mille, « Space-time spectral model for object detection in dynamic textured background », Pattern Recognition Letters, 2012, pp. 1710-1716 

    Laure Tougne, Antoine Vacavant, David Coeurjolly, « Separable algorithms for distance transformations on irregular grids », Pattern Recognition Letters, 2011, pp. 1356-1364 

    Laure Tougne, Tristan Roussillon, Isabelle Sivignon, « Measure of circularity for parts of digital boundaries and its fast computation », Pattern Recognition, 2010, n°1, pp. 37-46     

    Laure Tougne, Tristan Roussillon, Hervé Piégay, Isabelle Sivignon, Franck Lavigne, « Automatic computation of pebble roundness using digital imagery and discrete geometry », Computers & Geosciences, 2009, n°10, pp. 1992-2000 

    Laure Tougne, Antoine Vacavant, David Coeurjolly, « A framework for dynamic implicit curve approximation by an irregular discrete approach », Graphical Models, 2009, pp. 113-124 

    Laure Tougne, Isabelle Sivignon, David Coeurjolly, « Pattern Recognition, Special Issue on Discrete Geometry for Computer Imagery », Pattern Recognition, 2009, p. 108 

    Laure Tougne, Fabien Feschet, L. Tougne, « On the min DSS problem of the closed discrete curves », Discrete Applied Mathematics, 2005, n°13, pp. 138-153 

    Laure Tougne, David Coeurjolly, S. Miguet, « 2D and 3D Visibility in Discrete Geometry : an Application to Discrete Geodesic Paths », Pattern Recognition Letters, 2004, n°5, pp. 561-570   

    Laure Tougne, David Coeurjolly, Yan Gerard, Jean-Pierre Reveillès, « An elementary algorithm for digital arc segmentation », Discrete Applied Mathematics, 2004, n°13, pp. 31--50   

    Laure Tougne, Fabien Feschet, L. Tougne, « An approach for the estimation of the precision of a real object from its digitization », Discrete Applied Mathematics, 2004, pp. 51-63 

    Laure Tougne, Fabien Feschet, L. Tougne, « On the min DSS problem of closed discrete curves », Electronic Notes in Computer Science, 2003, pp. 325-336 

    Laure Tougne, L. Tougne, Marianne Delorme, Jacques Mazoyer, « Discrete parabolas and circles on 2D cellular automata », Theoretical Computer Science, 1999, n°2 

  • Laure Tougne, Recognitions of figures with two-dimensional cellular automata., 1995, 285 p.   

  • Laure Tougne, Pierre Lemaire, Zhang Zhi, Bruce Macvicar, Hervé Piégay, Automated quantification of floating wood pieces in rivers from video monitoring: a new software tool and validation, 2020   

    Laure Tougne, Issameddine Boukhriss, Serge Miguet, L. Tougne, Three dimensional discrete morphing: Application to medical atlas construction, 2006 

    Laure Tougne, Description robustes de formes en Géométrie Discrète, 2004 

  • Laure Tougne, Carlos Crispim-Junior, Devashish Lohani, Quentin Barthélemy, Sarah Bertrand [et alii], « Leveraging Unsupervised and Self-Supervised Learning for Video Anomaly Detection », International Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications (VISAPP), Lisbonne Portugal (PT), le 19 février 2023     

    Laure Tougne, Devashish Lohani, Carlos Crispim-Junior, Quentin Barthélemy, Sarah Bertrand [et alii], « UNSUPERVISED AND ADAPTIVE PERIMETER INTRUSION DETECTOR », IEEE International Conference on Image Processing (ICIP), Bordeaux, le 16 octobre 2022   

    Laure Tougne, Romain Guesdon, Carlos Crispim-Junior, « Multitask Metamodel for Keypoint Visibility Prediction in Human Pose Estimation », International Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications (VISAPP), Virtual Conference, le 06 février 2022   

    Laure Tougne, Maxime Langlade, Debaleena Misra, Carlos Crispim-Junior, Romain Guesdon, « InterFolia: an embedded, educational application to identify plant species in the wild », 2nd Autonomous Vehicle Vision (AVVision) - International Conference on Computer Vision (ICCV) Workshop, Virtual Conference, le 11 octobre 2021     

    Laure Tougne, Julia Cohen, Carlos Crispim-Junior, Jean-Marc Chiappa, « Training An Embedded Object Detector For Industrial Settings Without Real Images », 2021 IEEE International Conference on Image Processing (ICIP), Anchorage, le 19 septembre 2021   

    Laure Tougne, Julia Cohen, Carlos Crispim-Junior, Jean-Marc Chiappa, « MobileNet SSD : étude d'un détecteur d'objets embarquable entraîné sans images réelles », ORASIS 2021, Saint Ferréol, le 13 septembre 2021   

    Laure Tougne, Clément Douarre, Carlos Crispim-Junior, Anthony Gélibert, David Rousseau, « On the value of CTIS imagery for neural network based classification : experimental results », OSA Imaging and Applied Optics Congress, Vancouver Canada (CA), le 19 juillet 2021 

    Laure Tougne, Matthieu Dubuis, Rémi Ratajczak, Lény Grassot, Béatrice Fervers, « Détermination semi-automatique de l’occupation du sol grâce au logiciel GOURAMIC : Evaluation des performances sur données historiques et opérateur dépendance », le 05 mai 2021 

    Laure Tougne, Clément Douarre, Carlos Crispim-Junior, Anthony Gélibert, David Rousseau, « Spectro-imagerie et apprentissage comprimé », 16èmes Journées Imagerie Optique Non Conventionnelle, Paris (en ligne), le 31 mars 2021   

    Laure Tougne, Devashish Lohani, Carlos Crispim-Junior, Quentin Barthélemy, Sarah Bertrand [et alii], « Spatio-Temporal Convolutional Autoencoders for Perimeter Intrusion Detection », Reproducible Research in Pattern Recognition (RRPR) (workshop of the 25th International Conference on Pattern Recognition), Milan (virtual) Italy (IT), le 11 janvier 2021   

    Laure Tougne, Clément Douarre, Carlos Crispim-Junior, Anthony Gélibert, David Rousseau, « Apprentissage comprimé sur images hyperspectrales de feuilles de pommier atteintes de tavelure », GdR ISIS : IA pour l'agriculture, Paris, le 25 novembre 2020 

    Laure Tougne, Rémi Ratajczak, Carlos Crispim-Junior, Béatrice Fervers, Élodie Faure, « Semantic Segmentation Post-processing with Colorized Pairwise Potentials and Deep Edges », International Conference on Image Processing Theory, Tools and Applications (IPTA 2020), Paris, le 09 novembre 2020 

    Laure Tougne, Rémi Ratajczak, Carlos Crispim-Junior, Béatrice Fervers, Élodie Faure, « Semantic Segmentation Refinement with Deep Edge Superpixels to Enhance Historical Land Cover », International Geoscience and Remote Sensing Symposium (IGARSS 2020), Virtual Symposium United States (US), le 26 septembre 2020 

    Laure Tougne, Debaleena Misra, Carlos Crispim-Junior, « Patch-based CNN evaluation for bark classification », Workshop on Computer Vision Problems in Plant Phenotyping, Edinburgh United Kingdom (GB), le 28 août 2020   

    Laure Tougne, Julia Cohen, Carlos Crispim-Junior, Céline Grange-Faivre, « CAD-based Learning for Egocentric Object Detection in Industrial Context », 15th International Conference on Computer Vision Theory and Applications, Valletta Malta (MT), le 27 février 2020   

    Laure Tougne, Rémi Ratajczak, Carlos Crispim-Junior, Béatrice Fervers, Élodie Faure, « Pseudo-Cyclic Network for Unsupervised Colorization with Handcrafted Translation and Output Spatial Pyramids », SUMAC @ ACM Multimedia, Nice, le 21 octobre 2019 

    Laure Tougne, Pierre Lemaire, Carlos Crispim-Junior, Lionel Robinault, « Jitter-free registration for Unmanned Aerial Vehicle Videos », International Symposium on Visual Computing, Lake Tahoe, NV United States (US), le 07 octobre 2019     

    Laure Tougne, Clément Douarre, Carlos Crispim-Junior, Anthony Gelibert, David Rousseau, « When spectro-imaging meets machine learning », Workshop on Machine Learning Assisted Image Formation, Nice, le 10 juillet 2019 

    Laure Tougne, Aurélie Leborgne, Julien Mille, L. Tougne, « Hierarchical structure of tree leaf veins », 7th International Workshop on Image Analysis Methods in the Plant Sciences, Lyon, le 04 juillet 2019 

    Laure Tougne, Rémi Ratajczak, Sarah Bertrand, Carlos Crispim-Junior, « Efficient Bark Recognition in the Wild », International Conference on Computer Vision Theory and Applications (VISAPP 2019), Prague Czech Republic (CZ), le 25 février 2019   

    Laure Tougne, Hervé Piégay, Hossein Ghaffarian, Pierre Lemaire, Z Zhang [et alii], « Video-monitoring of wood flux: recent advances and next steps », 4th international conference in wood in world rivers, Valdivia Chile (CL), le 07 janvier 2019 

    Laure Tougne, Clément Douarre, Carlos Crispim-Junior, Anthony Gelibert, David Rousseau, « Data simulation to improve supervised segmentation of apple scab images », 10e édition des Rencontres du végétal, Angers, le 04 décembre 2018 

    Laure Tougne, Xingyu Pan, « Image Anaysis and Deep Learning for Aiding Professional Coin Grading », International Conference on Image Video Processing and Artificial Intelligence, Shanghai China (CN), le 15 août 2018   

    Laure Tougne, Rémi Ratajczak, Carlos Crispim-Junior, Élodie Faure, Béatrice Fervers, « Reconstruction automatique de l'occupation du sol à partir d'images aériennes historiques monochromes : une étude comparative », Conférence Française de Photogrammétrie et de Télédétection (CFPT), Marne-la-Vallée, le 26 juin 2018     

    Laure Tougne, Élodie Faure, Rémi Ratajczak, Carlos Crispim-Junior, Olivia Pérol [et alii], « Development of a software based on automatic multi-temporal aerial images classification to assess retrospective environmental exposures to pesticides in epidemiological studies », CLARA 2018 Cancer Research Forum, Lyon, le 03 avril 2018   

    Laure Tougne, Aurélie Leborgne, Julien Mille, L. Tougne, « Automatic extraction of leaf network of veins », IAMPS - International Workshop on Image Analysis Methods for the Plant Sciences, Nottingham United Kingdom (GB), le 23 janvier 2018 

    Laure Tougne, Sarah Bertrand, Guillaume Cerutti, « Visualization of Leaf Botanical Features Extracted from AlexNet Convolutional Layers », le 22 janvier 2018   

    Laure Tougne, Sarah Bertrand, Guillaume Cerutti, « Segmentation Algorithm on Smartphone Dual Camera: Application to Plant Organs in the Wild », 10th International Conference on Machine Vision, Vienna Austria (AT), le 13 novembre 2017 

    Laure Tougne, Léo Nicolle, Julien Bonneton, Hubert Konik, Damien Muselet [et alii], « Towards an electronic orientation table: using features extracted from the image to register Digital Elevation Model », VISAPP 2017 - 12th International Conference on Computer Vision Theory and Applications, Porto Portugal (PT), le 27 février 2017   

    Laure Tougne, Xingyu Pan, « Topology-Based Character Recognition Method for Coin Date Detection », 18th International Conference on Image Analysis and Processing, Paris, le 24 octobre 2016 

    Laure Tougne, Aurélie Leborgne, Julien Mille, « Hierarchical skeleton for shape matching », ICIP (IEEE International Conference on Image Processing), Phoenix United States (US), le 25 septembre 2016   

    Laure Tougne, Sébastien George, Didier Coquin, Thierry Joliveau, Valéry Malécot, « Conception d'applications ludo-éducatives mobiles en botanique », Ludovia 2016, Ax-les-Thermes, le 23 août 2016 

    Laure Tougne, Jérôme Michalon, Florian Charvolin, Thierry Joliveau, « La grammaire des arbres. Les régimes de perception et de cognition de l’environnement chez les utilisateurs de l’application Folia. », XXème Congrès de l'Association Internationale des Sociologues de Langue Française, CR 29 Sociologie de la Science et de l'innovation technologique, Montréal Canada (CA), le 01 juillet 2016 

    Laure Tougne, Aurélie Leborgne, Julien Mille, « Squelette hiérarchique pour la description de formes », RFIA (Reconnaissance de Formes et Intelligence Artificielle), Clermont-Ferrand, le 27 juin 2016   

    Laure Tougne, Hervé Piégay, Véronique Benacchio, Maxime Boivin, Pierre Lemaire [et alii], « An automatic video monitoring system for estimating driftwood discharge in large rivers », Third International Conference on WOOD IN WORLD RIVERS 3, Padova Italy (IT), le 06 juillet 2015 

    Laure Tougne, Aurélie Leborgne, Julien Mille, Matthieu Rogez, Lionel Robinault, « Extracting Noise-resistant Skeleton on Digital Shapes for Graph Matching », International Symposium on Visual Computing (ISVC), Las Vegas United States (US), le 08 décembre 2014 

    Laure Tougne, Aurélie Leborgne, Julien Mille, Matthieu Rogez, Lionel Robinault, « Un système de suivi multi-objets utilisant une stratégie d'association en trois passes adapté à la vidéosurveillance », Compression et Représentation des Signaux Audiovisuels (CORESA), Reims, le 26 novembre 2014 

    Laure Tougne, Hervé Piégay, Véronique Benacchio, Pierre Lemaire, Maxime Boivin [et alii], « Assessment of wood mobility and wood budgeting using field measures, remote sensing techniques and experimentations: examples and challenging issues », XII International Association of Engineering Geology (IAEG) Congress. Session: Dynamics of Large wood in river basins, Turin Italy (IT), le 15 septembre 2014 

    Laure Tougne, Manuel Grand-Brochier, Antoine Vacavant, Robin Strand, Guillaume Cerutti [et alii], « About the Impact of Pre-processing Tools on Segmentation Methods, Applied for Tree Leaves Extraction », 9th International Conference on Computer Vision Theory and Applications (VISAPP), Lisbon Portugal (PT), le 15 décembre 2014 

    Laure Tougne, Guillaume Cerutti, Céline Sacca, Thierry Joliveau, Pierre-Olivier Mazagol [et alii], « Late Information Fusion for Multi-modality Plant Species Identification », Conference and Labs of the Evaluation Forum, Valencia Spain (ES), le 23 septembre 2013   

    Laure Tougne, Guillaume Cerutti, Julien Mille, Antoine Vacavant, Didier Coquin, « A Model-Based Approach for Compound Leaves Understanding and Identification », International Conference on Image Processing (ICIP), Melbourne Australia (AU), le 15 septembre 2013   

    Laure Tougne, Manuel Grand-Brochier, Antoine Vacavant, Guillaume Cerutti, Kevin Bianchi, « Comparative Study of Segmentation Methods for Tree Leaves Extraction », ACM ICVS, Workshop VIGTA (International Workshop on Video and Image Ground Truth in computer vision Applications), St Petersbourg Russia (RU), le 15 juillet 2013 

    Laure Tougne, Guillaume Cerutti, Didier Coquin, Antoine Vacavant, « Curvature-Scale-based Contour Understanding for Leaf Margin Shape Recognition and Species Identification », International Conference on Computer Vision Theory and Applications (VISAPP), Barcelona Spain (ES), le 21 février 2013   

    Laure Tougne, Matthieu Rogez, Lionel Robinault, « A Prior-Knowledge Based Casted Shadows Prediction Model Featuring OpenStreetMap Data », VISAPP, Barcelone Spain (ES), le 05 janvier 2013 

    Laure Tougne, Guillaume Cerutti, Violaine Antoine, Julien Mille, Lionel Valet [et alii], « ReVeS Participation - Tree Species Classification using Random Forests and Botanical Features », Conference and Labs of the Evaluation Forum (CLEF), Rome Italy (IT), le 17 septembre 2012   

    Laure Tougne, Guillaume Cerutti, Antoine Vacavant, Julien Mille, Violaine Antoine [et alii], « Projet ReVeS : Reconnaissance de Végétaux pour de interfaces Smartphones », 8èmes journées francophones Mobilité et Ubiquité (UBIMOB), Anglet, le 04 juin 2012 

    Laure Tougne, Loreta Suta, Mihaela Scuturici, Serge Miguet, Mircea Vaida, « Local Blur Assessment in Natural Images », VISAPP 2012, Rome Italy (IT), le 24 février 2012 

    Laure Tougne, Guillaume Cerutti, Antoine Vacavant, Didier Coquin, Julien Mille, « A Parametric Active Polygon for Leaf Segmentation and Shape Estimation », CLEF 2011, Conference on Multilingual and Multimodal Information Access Evaluation, Amsterdam Netherlands (NL), le 26 septembre 2011     

    Laure Tougne, Corentin Lallier, Emanuelle Reynaud, Lionel Robinault, « A Testing Framework for Background Subtraction Algorithms Comparison inIntrusion Detection Context », IEEE International Conference on Advanced Video and Signal-Based Surveillance, Klagenfurt Austria (AT), le 30 août 2011 

    Laure Tougne, Imtiaz Ali, Julien Mille, « Wood detection and tracking in videos of river », Scandinavian Conference on Image Analysis, Ystad Sweden (SE), le 23 mai 2011 

    Laure Tougne, Imtiaz Ali, « Unsupervised video analysis for counting of wood in river during floods », 5th International Symposium on Visual Computing, Las Vegas United States (US), le 30 novembre 2009 

    Laure Tougne, Antoine Vacavant, David Coeurjolly, « A Novel Algorithm for Distance Transformation on Irregular Isothetic Grids », DGCI 2009, Montréal Canada (CA), le 30 septembre 2009 

    Laure Tougne, Tristan Roussillon, Isabelle Sivignon, Bruce Macvicar, Hervé Piégay [et alii], « On Three Constrained Versions of the Digital Circular Arc Recognition Problem », AGU ; H59: Assessing Forms, Processes and Habitats in Freshwater Environments Using High Resolution Remote Sensing, San Francisco United States (US), le 01 janvier 2009     

    Laure Tougne, Tristan Roussillon, Isabelle Sivignon, « Robust Decomposition of a Digital Curve into Convex and Concave Parts », International Conference on Pattern Recognition (ICPR 2008), Tampa United States (US), le 08 décembre 2008 

    Laure Tougne, Tristan Roussillon, Isabelle Sivignon, « Test and Measure of Circularity for Digital Curves », The 2008 International Conference on Image Processing, Computer Vision, and Pattern Recognition (IPCV'08), Las Vegas United States (US), le 14 juillet 2008 

    Laure Tougne, Antoine Vacavant, David Coeurjolly, L. Tougne, « Distance Transformation en Two-Dimensional Irregular Isothetic Grids », 14th Discrete Geometry for Computer Imagery, Lyon, France, le 16 avril 2008 

    Laure Tougne, Tristan Roussillon, Isabelle Sivignon, « Computation of Binary Objects Sides Number using Discrete Geometry, Application to Automatic Pebbles Shape Analysis. », International Conference on Image Analysis and Processing, Modène Italy (IT), le 01 janvier 2007   

    Laure Tougne, Antoine Vacavant, David Coeurjolly, L. Tougne, « Reconstruction topologique et géométrique d'objets complexes sur grilles isothétiques irrégulières », COmpression et REprésentation de Signaux Audiovisuels, Caën, France, le 01 novembre 2006   

    Laure Tougne, Antoine Vacavant, David Coeurjolly, « Topological and Geometrical Reconstruction of Complex Objects on Irregular Isothetic Grids », 13th International Conference on Discrete Geometry for Computer Imagery, Szeged, le 01 octobre 2006   

    Laure Tougne, Issameddine Boukhriss, Serge Miguet, L. Tougne, « Two dimensional discrete statistical shape models construction », International Conference on SIGNAL IMAGE TECHNOLOGY & INTERNET BASED SYSTEMS, Hammamet Tunisia (TN), le 01 janvier 2006 

    Laure Tougne, Firas Alhalabi, L. Tougne, « Toward polygonalisation of thick discrete arcs », 11th International Conference on Computer Analysis of Images and Patterns, CAIP 2005, Versailles, le 05 septembre 2005 

    Laure Tougne, Issameddine Boukhriss, Serge Miguet, L. Tougne, « Discrete Average of Two-Dimensional Shapes », International Conference on Computer Analysis of Images and Patterns, Versailles, le 01 janvier 2005 

    Laure Tougne, David Coeurjolly, Issameddine Boukhriss, L. Tougne, Serge Miguet, « Digital straight line recognition on heterogeneous grids », International Workshop on Combinatorial Image Analysis, Auckland New Zealand (NZ), le 01 janvier 2004 

    Laure Tougne, David Coeurjolly, Frédéric Flin, Olivier Teytaud, « Multigrid Convergence and Surface Area Estimation », Theoretical Foundations of Computer Vision "Geometry, Morphology, and Computational Imaging", Dagsthul Germany (DE), le 01 janvier 2003 

    Laure Tougne, David Coeurjolly, Yan Gerard, Jean-Pierre Reveillès, Serge Miguet, « Discrete Curvature based on Osculating Circles Estimation », International Workshop on Combinatorial Image Analysis, Philadelphia United States (US), le 01 janvier 2001 

    Laure Tougne, Fabien Feschet, L. Tougne, « Discrete spheres on cellular automata », International Workshop on Combinatorial Image Analysis, Caen, le 01 janvier 2000 

    Laure Tougne, L. Tougne, « The moirés of circles », IEEE Southwest Symposium on Image Analysis and Interpretation, Tucson United States (US), le 01 janvier 1998 

    Laure Tougne, L. Tougne, « Circle digitization and cellular automata », International Conference on Discrete Geometry for Computer Imagery, Lyon, le 01 janvier 1996 

    Laure Tougne, Rémi Ratajczak, Carlos Crispim-Junior, Élodie Faure, Béatrice Fervers [et alii], « Toward an Unsupervised Colorization Framework for Historical Land Use Classification », International Geoscience and Remote Sensing Symposium (IGARSS 2019), Yokohama Japan (JP), le 30 novembre -0001     

  • Laure Tougne, Bastien Boisjot, Olivier Pouchoy, Maxime Langlade, Carlos Crispim-Junior, InterFolia App video, International Joint Conference on Artificial Intelligence (IJCAI 2021) 

Publications ENCADREMENT DOCTORAL
  • Romain Guesdon, Estimation de poses humaines par apprentissage profond : application aux passagers des véhicules autonomes, thèse soutenue en 2024 à Lyon 2, membres du jury : Vincent Frémont (Rapp.), François Brémond (Rapp.), Carlos Crispim-Junior, Renaud Marlet et Xuguang Wang  

    La recherche concernant les voitures autonomes a fortement progressé ces dernières décennies, en se concentrant particulièrement sur l'analyse de l'environnement extérieur et sur les tâches liées à la conduite. Cela a permis une importante croissance de l'autonomie des véhicules particuliers. Dans ce nouveau contexte, il peut être pertinent de s'intéresser aux passagers de ces véhicules autonomes afin d'étudier le comportement de ces derniers face à cette révolution du moyen de transport. C'est pour approfondir ces thématiques que le projet région AURA AutoBehave a été mis en place. Ce projet réunit plusieurs laboratoires menant des recherches dans différentes disciplines scientifiques liées à cette thématique telles que la vision par ordinateur, la biomécanique, les émotions ou encore l'économie des transports. Cette thèse menée au laboratoire LIRIS s'inscrit donc dans ce projet, dans laquelle nous nous intéressons aux méthodes d'estimation de poses humaines des passagers par apprentissage profond. Nous avons d'abord étudié les solutions de l'état de l'art, et avons développé un jeu de données ainsi qu'une métrique plus adaptée aux contraintes de notre contexte. Nous nous sommes également intéressés à la visibilité des points afin d'aider l'estimation de la pose. Par la suite, nous nous sommes attaqués à la problématique de généralisation de domaine pour l'estimation de poses dans le but de proposer une solution efficace dans des conditions inconnues. Ainsi, nous nous sommes intéressés à la génération de données synthétiques de passagers pour l'estimation de poses afin de combler le manque de jeux de données annotés disponibles dans notre contexte. Nous avons étudié l'application de réseaux génératifs ainsi que de méthodes modélisation 3D à notre problématique. Nous nous sommes appuyés sur ces données pour proposer différentes stratégies d'entraînement et deux nouvelles architectures. L'approche par fusion proposée associée aux stratégies d'entraînement permet de tirer profit de jeux de données génériques et de jeux de données spécifiques, afin d'améliorer les capacités de généralisation des méthodes d'estimation de poses à l'intérieur d'une voiture, en particulier sur le bas du corps.

    Devashish Lohani, Unsupervised deep learning for spatio-temporal representations of videos : application to video surveillance, thèse soutenue en 2023 à Lyon 2, membres du jury : Thierry Chateau (Rapp.), Nicolas Thome (Rapp.), Jenny Benois Pineau, Lionel Robinault et Carlos Crispim-Junior  

    Au cours des deux dernières décennies, nous avons assisté à une augmentation massive des caméras de surveillance dans notre environnement. L'une des utilisations les plus importantes de ces caméras est de détecter les comportements suspects ou anormaux. C'est une tâche extrêmement chronophage pour les professionnels de surveiller manuellement la vidéo. Par conséquent, l'analyse vidéo automatique est essentielle. Les systèmes traditionnels ont du mal à généraliser à des événements anormaux qu'ils n'ont jamais vus auparavant. Nous avons constaté d'énormes progrès dans les systèmes de vidéosurveillance basés sur l'apprentissage en profondeur. Ces systèmes dérivent des caractéristiques représentatives des données elles-mêmes. C'est pourquoi, dans cette thèse, nous explorons des méthodes basées sur l'apprentissage profond. Cependant, la majorité des travaux nécessitent un grand volume de données étiquetées. Mais comme les événements anormaux sont rares, il est très difficile d'avoir des données étiquetées. Nous avons donc besoin d'approches qui peuvent fonctionner directement sur les vidéos, sans nécessiter d'annotations. Puisque ces événements se produisent dans des vidéos, l'approche doit donc être capable d'apprendre des représentations spatio-temporelles pour différencier les événements anormaux des événements normaux.Ainsi, dans cette thèse, nous visons à apprendre des représentations spatio-temporelles à partir de vidéos non étiquetées pour détecter des événements anormaux. Plus précisément, nous abordons la tâche de détection d'anomalies vidéo et la détection d'intrusion périmétrique. Nous avons proposé des définitions mathématiques qui ont un impact direct sur l'évaluation, donc nous avons également proposé de nouveaux schémas d'évaluation adaptés. Concernant l'apprentissage des représentations spatio-temporelles sans annotations, nous avons deux approches. Dans la première approche, nous avons conçu un réseau d'auto-encodeur convolutif 3D. L'idée principale est d'apprendre la représentation normale à partir de données d'apprentissage sans intrusions (ou anomalies) et de détecter les intrusions (ou anomalies) lorsqu'elles s'écartent de la normalité apprise. Il a été utilisé pour la tâche de détection d'intrusion périmétrique. Pour faire face à l'évolution de la dynamique de la scène, nous avons introduit une approche de seuillage adaptatif. Nos nombreuses expérimentations ont montré la viabilité de notre approche. Pour améliorer encore la compréhension spatio-temporelle de la normalité, nous avons introduit notre seconde approche. Il s'agissait d'un cadre qui exploite l'apprentissage non supervisé et auto-supervisé dans un encodeur automatique. Nous avons proposé plusieurs tâches bien conçues (non supervisées et auto-supervisées) qui sont exécutées dans un seul auto-encodeur. Cette méthode est également entraînée de bout en bout et conjointement, où les données d'entraînement sont sans anomalies ni intrusions. Pour la détection d'anomalies (ou d'intrusions), chacune des tâches fournit un score d'anomalie et le score combiné est utilisé pour la détection finale. Cette approche est générique et a été appliquée aux deux tâches. Nous avons obtenu des résultats au-delà de l'état de l'art pour les deux tâches, dans les principaux ensembles de données publiques.

    Julia Cohen, Détection d'objets industriels à l'aide de modèles 3D dans des images égocentriques., thèse soutenue en 2022 à Lyon, membres du jury : Pascal Desbarats (Rapp.), Julien Mille (Rapp.), Mathieu Aubry et Carlos Crispim-Junior  

    L'assemblage de produits industriels peut aujourd'hui être facilité et accéléré par l'usage de solutions numériques innovantes telles que la réalité augmentée (RA). En effet, le développement de nouveaux supports tels que des casques de RA permet aux opérateurs de visualiser des instructions tout en ayant les mains libres pour la manipulation des pièces. La détection de ces objets industriels par une caméra positionnée sur le casque permet une adaptation des éléments virtuels à la scène réelle. Cependant, les images issues d'un casque de RA présentent des difficultés inhérentes à leur point de vue égocentrique. Bien que la détection d'objets dans des images soit l'une des applications dans lesquelles l'apprentissage profond excelle, les réseaux de neurones artificiels sont rarement appliqués aux images égocentriques et contenant des objets industriels. En particulier, la tâche se complique lorsqu'aucune image réelle des objets à identifier n'est disponible, et lorsque l'algorithme de détection doit être déployé sur un système embarqué pour une application en temps réel. Dans cette thèse menée au laboratoire LIRIS et en partenariat avec le bureau d'études en ingénierie et design DEMS, nous nous sommes attaqués à la problématique de la reconnaissance d'objets industriels à partir des images d'un casque de RA. Nous avons tiré parti de la disponibilité des modèles 3D des objets d'intérêt afin de générer un jeu de données synthétique égocentrique pour l'entraînement de réseaux de neurones compacts, dédiés à la détection mobile et en temps réel. Nous avons analysé les éléments de ce jeu de données permettant de se passer totalement d'images réelles pour entraîner ce réseau de neurones. Par la suite, nous avons étudié la possibilité d'utiliser l'information de profondeur contenue dans les images RGB-D afin d'améliorer la performance du détecteur d'objets. Nous avons ainsi abordé la problématique de la généralisation de domaine entre des images RGB-D synthétiques et réelles, et nous avons proposé différentes approches afin de réduire l'écart à la réalité, compatibles avec une inférence mobile et en temps réel.

    Clément Douarre, Spectro-imagerie et apprentissage profond : application à la détection de maladies de plantes, thèse soutenue en 2021 à Lyon en co-direction avec David Rousseau et Carlos Crispim-Junior, membres du jury : Marie Chabert (Rapp.), Christelle Gée (Rapp.), Antoine Vacavant (Rapp.), Anthony Gelibert  

    Cette thèse est le fruit d'une collaboration entre les laboratoires LIRIS et LARIS et l'entreprise Carbon Bee, un acteur français des technologies numériques pour l'agriculture. Carbon Bee développe une caméra couplée à un algorithme d'apprentissage profond à des fins de pulvérisation ciblée de produits phytosanitaires. Sont regroupés dans cette caméra plusieurs capteurs permettant de réaliser des acquisitions dans différentes gammes de longueurs d'onde. Nous y trouvons en particulier un capteur infrarouge ainsi qu'un capteur hyperspectral instantané peu étudié jusqu'alors : le spectromètre imageur par tomographie (Computed Tomography Imaging Spectrometer) en anglais, ou CTIS). Ce capteur permet une acquisition rapide d'une information spectrale riche mais qu'il est nécessaire de post-traiter par un algorithme de reconstruction pour la rendre interprétable par l'oeil humain. Dans ce travail, nous nous sommes intéressés à l'exploitation optimale des différents capteurs de cette caméra, pour un cas d'étude à fort intérêt agronomique: la détection de la tavelure du pommier. Nous nous sommes tout d'abord concentrés sur l'exploitation du signal produit par le CTIS, dans un cadre de classification d'images de feuilles saines et atteintes de lésions de tavelure. Nous avons développé une approche qui permet de s'affranchir de l'étape de reconstruction en conduisant un apprentissage directement dans l'espace brut des images CTIS, une démarche dite d'apprentissage comprimé. La conception d'une nouvelle architecture neuronale a permis d'obtenir des performances d'apprentissage supérieures à celles permises par la procédure classique, et ce en réduisant substantiellement les temps de calcul associés. Ces recherches ont par ailleurs mené au développement de plusieurs nouveaux simulateurs d'images permettant de pallier le manque d'images réelles annotées, une difficulté prégnante dans le domaine de l'apprentissage profond, et en particulier lors de l'étude de nouveaux systèmes d'imagerie.Les travaux portant sur le CTIS ayant été menés à l'échelle de la feuille de pommier individuelle, nous nous sommes par la suite focalisés sur un contexte plus exigeant, proche des situations industrielles rencontrées par Carbon Bee. Nous avons cherché à optimiser des détections de lésions de tavelure menées au niveau du pixel dans des images infrarouges représentant des canopées de feuilles, et ce avec un nombre restreint de données annotées. A cette fin, nous avons développé plusieurs simulateurs d'images inspirés des derniers développements dans la matière en sciences végétales. Nous avons en particulier conçu un simulateur de canopées dont les images ont permis de substantiellement réduire la quantité de données réelles annotées nécessaire pour mener à bien une segmentation dans ce contexte.Enfin, la présence au sein de la caméra de plusieurs capteurs aux résolutions spatiales et spectrales différentes ouvrait la voie à l'utilisation conjointe des informations qu'ils fournissaient, un procédé connu sous le nom de fusion de données. Nous avons exploré plusieurs pistes de travail dans ce cadre.

    Rémi Ratajczak, Analyse automatique d'images aériennes historiques : application à une étude épidémiologique, thèse soutenue en 2020 à Lyon en co-direction avec Béatrice Fervers, membres du jury : Nicolas Thome (Rapp.), Sébastien Lefèvre (Rapp.), Clément Mallet, Florence Tupin et Carlos Crispim-Junior  

    Cette thèse, co-financée par l’ADEME, se place dans le cadre d’une collaboration entre le LIRIS et le Centre Léon Bérard autour de l’étude épidémiologique TESTIS. L’étude TESTIS vise à estimer l’impact des pesticides sur le développement de la tumeur germinale du cancer du testicule. Cette maladie ayant un temps de développement long, il est nécessaire d’avoir accès à des informations remontant jusqu’à la naissance des sujets considérés. Dans le cas de TESTIS, les sujets les plus âgés sont nés au début des années 1970. Afin de tenir compte des expositions résidentielles individuelles aux pesticides propagés par les vents, le Centre Léon Bérard a mis au point une métrique se basant sur l’occupation du sol autour des habitations. Malheureusement, aucune base de données d’occupation du sol avant 1990 n’est actuellement suffisamment précise pour être utilisée. Afin d’obtenir ces informations, les géomaticiens du Centre Léon Bérard sont chargés de photo-interpréter des images aériennes historiques en niveaux de gris. Ce processus manuel étant particulièrement long et fastidieux, l’utilisation de méthodes automatiques ou semi-automatiques a été suggérée. L’objectif de cette thèse est de développer des algorithmes pour aider les géomaticiens à obtenir des cartes d’occupation du sol en un temps raisonnable. Pour cela, nous nous sommes intéressés à l’utilisation de méthodes de classification de textures que nous avons intégrées au sein d’un logiciel d’aide à l’annotation. Celui-ci est actuellement utilisé dans le cadre de l’étude TESTIS. Nous nous sommes ensuite intéressés à la colorisation automatique et non-supervisée des images aériennes historiques afin de proposer une visualisation alternative aux géomaticiens. Ces travaux nous ont également menés à étudier l’intérêt des couleurs générées artificiellement pour la classification des données historiques. Enfin, nous avons cherché à améliorer les cartes d’occupation du sol générées par notre logiciel au travers de méthodes de post-traitement, ouvrant la voie au développement de chaines de traitements plus performantes.

    Sarah Bertrand, Analyse d'images pour l'identification multi-organes d'espèces végétales, thèse soutenue en 2018 à Lyon en co-direction avec Guillaume Cerutti, membres du jury : Anne Verroust-Blondet, Pascal Desbarats, Christophe Ducottet et Jasmine Burguet  

    Cette thèse s’inscrit dans le cadre de l’ANR ReVeRIES dont l’objectif est d’utiliser les technologies mobiles pour aider l’homme à mieux connaître son environnement et notamment les végétaux qui l’entourent. Plus précisément, le projet ReVeRIES s’appuie sur une application mobile, nommée Folia développée dans le cadre du projet ANR ReVeS, capable de reconnaître les espèces d’arbres et arbustes à partir de photos de leurs feuilles. Ce prototype se différencie des autres outils car il est capable de simuler le comportement du botaniste. Dans le contexte du projet ReVeRIES, nous nous proposons d’aller beaucoup plus loin en développant de nouveaux aspects : la reconnaissance multimodale d’espèces, l’apprentissage par le jeu et les sciences citoyennes. L’objet de cette thèse porte sur le premier de ces trois aspects, à savoir l’analyse d’images d’organes de végétaux en vue de l’identification.Plus précisément, nous considérons les principaux arbres et arbustes, endémiques ou exotiques, que l’on trouve en France métropolitaine. L’objectif de cette thèse est d’étendre l’algorithme de reconnaissance en prenant en compte d’autres organes que la feuille. Cette multi-modalité est en effet essentielle si nous souhaitons que l’utilisateur apprenne et s’entraîne aux différentes méthodes de reconnaissance, pour lesquelles les botanistes utilisent la variété des organes (i.e. les feuilles, les fleurs, les fruits et les écorces). La méthode utilisée par Folia pour la reconnaissance des feuilles étant dédiée, car simulant le botaniste, ne peut s’appliquer directement aux autres organes. Ainsi, de nouveaux verrous se posent, tant au niveau dutraitement des images qu’au niveau de la fusion de données.Une première partie de la thèse a été consacrée à la mise en place de méthodes de traitement d’images pour l’identification des espèces végétales. C’est l’identification des espèces d’arbres à partir d’images d’écorces qui a été étudiée en premier. Les descripteurs développés prennent en compte la structure de l’écorce en s’inspirant des critères utilisés par les botanistes. Les fruits et les fleurs ont nécessité une étape de segmentation avant leur description. Une nouvelle méthode de segmentation réalisable sur smartphone a été développée pour fonctionner sur la grande variabilité des fleurs et des fruits. Enfin, des descripteurs ont été extraits sur les fruits et les fleurs après l’étape de segmentation. Nous avons décidé de ne pas faire de séparation entre les fleurs et les fruits car nous avons montré qu’un utilisateur novice en botanique ne sait pas toujours faire la différence entre ces deux organes sur des arbres dits «d’ornement» (non fruitiers). Pour les fruits et les fleurs, la prédiction n’est pas seulement faite sur les espèces mais aussi sur les genres et les familles, groupes botaniques traduisant d’une similarité entre ces organes.Une deuxième partie de la thèse traite de la combinaison des descripteurs des différents organes que sont les feuilles, les écorces, les fruits et les fleurs. En plus des méthodes de combinaison basiques, nous proposons de prendre en compte la confusion entre les espèces, ainsi que les prédictions d’appartenance aux taxons botaniques supérieurs à l’espèce.Enfin, un chapitre d’ouverture est consacré au traitement de ces images par des réseaux de neurones à convolutions. En effet, le Deep-Learning est de plus en plus utilisé en traitement d’images, notamment appliqué aux organes végétaux. Nous proposons dans ce contexte de visualiser les filtres de convolution extrayant de l’information, afin de faire le lien entre lesinformations extraites par ces réseaux et les éléments botaniques.

    Xingyu Pan, Analyse de formes et de textures : application à l'authentification et à la gradation de pièces de monnaies, thèse soutenue en 2018 à Lyon, membres du jury : Pascal Desbarats (Rapp.), Sylvie Treuillet (Rapp.), Alain Crouzil  

    Objets de collection depuis les temps anciens, de nos jours les pièces de monnaie constituent un marché de plus en plus important. L’évaluation par des experts de l’état de conservation des pièces de monnaie, que nous nommons gradation, joue un rôle important pour déterminer leur valeur sur le marché. Dans le but de grader des pièces de monnaie de manière efficace et objective, la société GENI collabore avec le laboratoire LIRIS, afin d’automatiser le processus de gradation à partir de photos de pièces de monnaie.L’objectif principal de cette thèse est de fournir une aide à la gradation des pièces de monnaie à partir des photos de qualité. Le projet est composé de quatre phases : segmentation des monnaies, identification du type monétaire, détection et reconnaissance du millésime et gradation des monnaies.Dans la première phase, la pièce de monnaie est segmentée de sa photo de manière précise à l’aide d’un modèle paramétrique déformable. Ce dernier permet également d’extraire des caractéristiques de la pièce de monnaie telles que sa taille, son nombre de coins, de pans, etc.Lors de la deuxième phase, nous cherchons dans une base de données le type monétaire de référence correspondant à la pièce de monnaie requête à l’aide de scores de similarité basés sur des graphes. Le premier score se base sur des caractéristiques locales des contours en relief, et le second, qui est semi-global, permet de mettre en évidence des différences de motifs.La troisième phase concerne la reconnaissance du millésime. Il s’agit d’un sujet difficile car les caractères, dans ce contexte, ont un premier plan de couleur très similaire à l’arrière-plan. Après avoir localisé la zone du millésime et l’avoir découpée en imagettes de chiffres, nous proposons une méthode de reconnaissance de chiffres à l’aide de caractéristiques « topologiques ».Enfin, concernant la gradation des monnaies, nous proposons une méthode se basant sur une quantification des « éléments inattendus » comme les rayures et les taches. La pièce de monnaie est d’abord recalée sur une monnaie de référence, puis, nous détectons les « éléments inattendus » significatifs sur des zones d’intérêt. Enfin, concernant les « éléments inattendus » ténus difficiles à repérer individuellement, nous détectons les zones granuleuses à l’aide du Deep Learning. Le résultat obtenu par cette méthode, proche de ce que l’expert réalise « à la main », servira d’aide aux numismates.

    Matthieu Rogez, Utilisation du contexte pour la détection et le suivi d'objets en vidéosurveillance, thèse soutenue en 2015 à Lyon 2, membres du jury : Thierry Chateau, François Brémond, Thierry Bouwmans, Antoine Vacavant et Lionel Robinault  

    Les caméras de surveillance sont de plus en plus fréquemment présentes dans notre environnement (villes, supermarchés, aéroports, entrepôts, etc.). Ces caméras sont utilisées, entre autres, afin de pouvoir détecter des comportements suspects (intrusion par exemple) ou de reconnaître une catégorie d'objets ou de personnes (détection de genre, détection de plaques d'immatriculation par exemple). D'autres applications concernent également l'établissement de statistiques de fréquentation ou de passage (comptage d'entrée/sortie de personnes ou de véhicules) ou bien le suivi d'un ou plusieurs objets se déplaçant dans le champ de vision de la caméra (trajectoires d'objets, analyse du comportement des clients dans un magasin). Compte tenu du nombre croissant de caméras et de la difficulté à réaliser ces traitements manuellement, un ensemble de méthodes d'analyse vidéo ont été développées ces dernières années afin de pouvoir automatiser ces tâches. Dans cette thèse, nous nous concentrons essentiellement sur les tâches de détection et de suivi des objets mobiles à partir d'une caméra fixe. Contrairement aux méthodes basées uniquement sur les images acquises par les caméras, notre approche consiste à intégrer un certain nombre d'informations contextuelles à l'observation afin de pouvoir mieux interpréter ces images. Ainsi, nous proposons de construire un modèle géométrique et géolocalisé de la scène et de la caméra. Ce modèle est construit directement à partir des études de prédéploiement des caméras et peut notamment utiliser les données OpenStreetMap afin d'établir les modèles 3d des bâtiments proches de la caméra. Nous avons complété ce modèle en intégrant la possibilité de prédire la position du Soleil tout au long de la journée et ainsi pouvoir calculer les ombres projetées des objets de la scène. Cette prédiction des ombres a été mise à profit afin d'améliorer la segmentation des piétons par modèle de fond en supprimant les ombres du masque de mouvement. Concernant le suivi des objets mobiles, nous utilisons le formalisme des automates finis afin de modéliser efficacement les états et évolutions possibles d'un objet. Ceci nous permet d'adapter le traitement de chaque objet selon son état. Nous gérons les occultations inter-objets à l'aide d'un mécanisme de suivi collectif (suivi en groupe) des objets le temps de l'occultation et de ré-identification de ceux-ci à la fin de l'occultation. Notre algorithme s'adapte à n'importe quel type d'objet se déplaçant au sol (piétons, véhicules, etc.) et s'intègre naturellement au modèle de scène développé. Nous avons également développé un ensemble de "rétro-actions" tirant parti de la connaissance des objets suivis afin d'améliorer les détections obtenues à partir d'un modèle de fond. En particulier, nous avons abordé le cas des objets stationnaires, souvent intégrés à tort dans le fond, et avons revisité la méthode de suppression des ombres du masque de mouvement en tirant parti de la connaissance des objets suivis. L'ensemble des solutions proposées a été implémenté dans le logiciel de l'entreprise Foxstream et est compatible avec la contrainte d'exécution en temps réel nécessaire en vidéosurveillance.

    Guillaume Cerutti, Segmentation et interprétation d'images naturelles pour l'identification de feuilles d'arbres sur smartphone, thèse soutenue en 2013 à Lyon 2, membres du jury : Jean-Philippe Domenger, Anne Verroust-Blondet, Didier Coquin, Antoine Vacavant, Erhan Abdullah et Pierre Bonnet  

    Les espèces végétales, et en particulier les espèces d'arbres, forment un cadre de choix pour un processus de reconnaissance automatique basé sur l'analyse d'images. Les critères permettant de les identifier sont en effet le plus souvent des éléments morphologiques visuels, bien décrits et référencés par la botanique, qui laissent à penser qu'une reconnaissance par la forme est envisageable. Les feuilles constituent dans ce contexte les organes végétaux discriminants les plus faciles à appréhender, et sont de ce fait les plus communément employés pour ce problème qui connaît actuellement un véritable engouement. L'identification automatique pose toutefois un certain nombre de problèmes complexes, que ce soit dans le traitement des images ou dans la difficulté même de la classification en espèces, qui en font une application de pointe en reconnaissance de formes.Cette thèse place le problème de l'identification des espèces d'arbres à partir d'images de leurs feuilles dans le contexte d'une application pour smartphones destinée au grand public. Les images sur lesquelles nous travaillons sont donc potentiellement complexes et leur acquisition peu supervisée. Nous proposons alors des méthodes d'analyse d'images dédiées, permettant la segmentation et l'interprétation des feuilles d'arbres, en se basant sur une modélisation originale de leurs formes, et sur des approches basées modèles déformables. L'introduction de connaissances a priori sur la forme des objets améliore ainsi de façon significative la qualité et la robustesse de l'information extraite de l'image. Le traitement se déroulant sur l'appareil, nous avons développé ces algorithmes en prenant en compte les contraintes matérielles liées à leur utilisation.Nous introduisons également une description spécifique des formes des feuilles, inspirée par les caractéristiques déterminantes recensées dans les ouvrages botaniques. Ces différents descripteurs fournissent des informations de haut niveau qui sont fusionnées en fin de processus pour identifier les espèces, tout en permettant une interprétation sémantique intéressante dans le cadre de l'interaction avec un utilisateur néophyte. Les performances obtenues en termes de classification, sur près de 100 espèces d'arbres, se situent par ailleurs au niveau de l'état de l'art dans le domaine, et démontrent une robustesse particulière sur les images prises en environnement naturel. Enfin, nous avons intégré l'implémentation de notre système de reconnaissance dans l'application Folia pour iPhone, qui constitue une validation de nos approches et méthodes dans un cadre réel.

    Imtiaz Ali, Object Detection in Dynamic Background, thèse soutenue en 2012 à Lyon 2, membres du jury : Vincent Barra, Jean-Philippe Domenger, Julien Mille, Thierry Chateau et Hervé Piégay  

    La détection et la reconnaissance d’objets dans des vidéos numériques est l’un des principaux challenges dans de nombreuses applications de vidéo surveillance. Dans le cadre de cette thèse, nous nous sommes attaqué au problème difficile de la segmentation d’objets dans des vidéos dont le fond est en mouvement permanent. Il s’agit de situations qui se produisent par exemple lorsque l’on filme des cours d’eau, ou le ciel,ou encore une scène contenant de la fumée, de la pluie, etc. Il s’agit d’un sujet assez peu étudié dans la littérature car très souvent les scènes traitées sont plutôt statiques et seules quelques parties bougent, telles que les feuillages par exemple, ou les seuls mouvements sont des changements de luminosité. La principale difficulté dans le cadre des scènes dont le fond est en mouvement est de différencier le mouvement de l’objet du mouvement du fond qui peuvent parfois être très similaires. En effet, par exemple, un objet dans une rivière peut se déplacer à la même allure que l’eau. Les algorithmes de la littérature extrayant des champs de déplacement échouent alors et ceux basés sur des modélisations de fond génèrent de très nombreuses erreurs. C’est donc dans ce cadre compliqué que nous avons tenté d’apporter des solutions.La segmentation d’objets pouvant se baser sur différents critères : couleur, texture,forme, mouvement, nous avons proposé différentes méthodes prenant en compte un ou plusieurs de ces critères.Dans un premier temps, nous avons travaillé dans un contexte bien précis qui était celui de la détection des bois morts dans des rivières. Ce problème nous a été apporté par des géographes avec qui nous avons collaboré dans le cadre du projet DADEC (Détection Automatique de Débris pour l’Aide à l’Etude des Crues). Dans ce cadre, nous avons proposé deux méthodes l’une dite " naïve " basée sur la couleur des objets à détecter et sur leur mouvement et l’autre, basée sur une approche probabiliste mettant en oeuvre une modélisation de la couleur de l’objet et également basée sur leur déplacement. Nous avons proposé une méthode pour le comptage des bois morts en utilisant les résultats des segmentations.Dans un deuxième temps, supposant la connaissance a priori du mouvement des objets,dans un contexte quelconque, nous avons proposé un modèle de mouvement de l’objet et avons montré que la prise en compte de cet a priori de mouvement permettait d’améliorer nettement les résultats des segmentations obtenus par les principaux algorithmes de modélisation de fond que l’on trouve dans la littérature.Enfin, dans un troisième temps, en s’inspirant de méthodes utilisées pour caractériser des textures 2D, nous avons proposé un modèle de fond basé sur une approche fréquentielle.Plus précisément, le modèle prend en compte non seulement le voisinage spatial d’un pixel mais également le voisinage temporel de ce dernier. Nous avons appliqué la transformée de Fourier locale au voisinage spatiotemporel d’un pixel pour construire un modèle de fond.Nous avons appliqué nos méthodes sur plusieurs vidéos, notamment les vidéos du projet DADEC, les vidéos de la base DynTex, des vidéos synthétiques et des vidéos que nous avons faites.

    Hervé Piégay, Géometrie discrète sur grilles irrégulières isothétiques, thèse soutenue en 2008 à Lyon 2 en co-direction avec David Coeurjolly 

    David Coeurjolly, Algorithmique et géométrie discrète pour la caractérisation des courbes et des surfaces, thèse soutenue en 2002 à Lyon 2 en co-direction avec Serge Miguet  

    Cette thèse se situe dans le cadre de la géométrie discrète qui constitue l'une des grandes familles de méthodes dédiées à l'analyse automatisée des formes dans les images numériques 2D et 3D. Tous les systèmes d'acquisition d'images fournissent des données organisées sur une grille régulière, appelées données discrètes. Les méthodes que nous nous proposons d'explorer et dé́tendre conservent aux données ce caractère discret, par opposition aux techniques qui construisent préalablement un modèle continu approximant les objets à analyser. Nous nous intéressons plus particulièrement à l'étude des courbes et des surfaces discrètes. Dans un premier temps, nous analysons les objets de base que sont les droites, les plans et les cercles discrets. Nous présentons des algorithmes qui permettent de les caractériser et proposons des extensions à ces méthodes. Ensuite, nous étudions des métriques sur les objets discrets comme la transformation en distance euclidiennne ou la notion de géodésique discrète. Une approche basée sur la visibilité dans les domaines discrets est introduite. La troisième partie est consacrée à la définition et à l'évaluation d'estimateurs de mesures euclidiennes telles que la longueur, la courbure ou l'aire. Des résultats de convergence de ces estimateurs sont établis. Dans une dernière partie, nous présentons les applications dans lesquelles ces recherches ont été utilisées : classification automatisée d'objets archéologiques et analyse des microstructures d'échantillon de neige.

  • Noémie Moreau, Utilisation de l'apprentissage profond pour la segmentation et la caractérisation des images TEP/TDM FDG dans le cadre du cancer du sein métastatique, thèse soutenue en 2022 à Nantes Université sous la direction de Nicolas Normand, Mathieu Rubeaux et Caroline Rousseau, membres du jury : Alexandre Cochet (Rapp.), Olivier Humbert (Rapp.)  

    Les patientes atteintes d’un cancer du sein métastatique reçoivent un traitement tout au long de leur vie et sont suivies très régulièrement afin d’estimer l’efficacité de leurs traitements. Pour évaluer la réponse au traitement, les médecins utilisent des critères d’interprétation des images comme RECIST ou PERCIST. Ces critères se limitent à l’évaluation quantitative d’une partie des tumeurs. La segmentation de toutes les tumeurs et leur caractérisation grâce à plusieurs paramètres (ou biomarqueurs) permettraient l’évaluation plus précise de la réponse au traitement des patientes. Cela permettrait aussi de prédire différentes informations sur les lésions (sous-type moléculaire) ou sur les patientes (survie sans progression, survie globale). Au cours de cette thèse, nous avons développé une méthode permettant la segmentation sur plusieurs acquisitions de toutes les lésions chez des patientes atteintes d’un cancer du sein métastatique. Les segmentations obtenues ont permis l’extraction de différents biomarqueurs que nous avons ensuite utilisés pour évaluer automatiquement la réponse thérapeutique des patientes. Enfin, nous avons utilisé l’apprentissage profond pour prédire le sous-type moléculaire des lésions métastatiques.

    Rémi Decelle, Éléments pour l'analyse et le traitement d'images : application à l'estimation de la qualité du bois, thèse soutenue en 2022 à Université de Lorraine sous la direction de Isabelle Debled-Rennesson, Fleur Longuetaud et Fleur Anne Longuetaud, membres du jury : Fabien Feschet (Rapp.), Philippe Borianne et Erwan Kerrien    

    Dans le contexte du changement climatique et de son atténuation, du développement de la bioéconomie circulaire, et d'une pression accrue qui en découle sur la ressource en bois, un des axes de recherche prioritaire est l'optimisation de la transformation de cette ressource qui peut se faire à différents niveaux. L'objectif ici est d'extraire des informations sur la qualité du bois à partir de l'analyse de sections transversales du grumes ou billons de bois en forêt ou en scierie. Pour estimer cette qualité, plusieurs caractéristiques visibles peuvent être extraites : zones d'aubier et de duramen, position de la moelle et du centre géométrique, le nombre de cernes et leur largeur. Dans un premier temps, nous nous intéressons à la segmentation de la grume dans l'image. Cette segmentation rend plus simple l'analyse des autres caractéristiques et permet de localiser le centre géométrique. Pour cela, nous proposons plusieurs approches. D'abord, des méthodes classiques issues du traitement d'images sont abordées, comme la méthode des K-Means ou les contours actifs. Nous utilisons également des réseaux de neurones convolutifs. Nous montrons l'avantage des réseaux de neurones par rapport à ces deux autres méthodes. La deuxième caractéristique estimée est la zone de duramen (zone centrale plus colorée). Nous proposons une nouvelle couche d'attention pour les réseaux de neurones utilisant la morphologie mathématique moins souvent utilisée. Les couches d'attention ont permis aux réseaux d'être plus performants en se focalisant sur les informations les plus pertinentes. Dans notre cadre, l'objectif de cette couche est double : réduire la quantité de paramètres et augmenter les performances. Notre couche d'attention montre de meilleures performances par rapport à d'autres couches d'attention. Dans un troisième temps, nous proposons d'analyser les cernes. Notre méthode est en trois grandes étapes. D'abord, un lissage directionnel pour rehausser les cernes (tout en gardant au mieux les contours) et réduire à la fois la texture intracernes et les marques de sciage. Puis, un seuillage adaptatif pour déterminer les zones de cernes potentiels. Enfin, un deuxième seuillage afin d'avoir les limites de cernes. À partir de la segmentation finale, l'analyse des cernes (nombre, largeur moyenne, etc.) est rendue possible. Enfin, l'estimation de la position de la moelle est abordée. Nous proposons une nouvelle approche originale basée sur l'algorithme des colonies de fourmis pour estimer la position de la moelle. L'utilisation de cet algorithme permet de s'abstraire d'une étape habituelle, à savoir l'accumulation des normales aux tangentes des cernes. Notre méthode montre de nombreux avantages par rapport aux approches de l'état de l'art, réseaux de neurones inclus. Dans une dernière partie, nous présenterons un travail en géométrie discrète : un filtre directionnel. Il estime les segments les plus longs en tout point d'un ensemble connexe. La présentation de cet outil est fait par le biais d'un filtre. En appliquant ce filtre,nous pouvons estimer des caractéristiques géométriques à l'échelle locale. Cet outil a pour objectif d'être appliqué aux cernes.

    Élise Séverine Louise Henry, Resilience modeling of urban multimodal transport networks, thèse soutenue en 2021 à Lyon sous la direction de Nour-Eddin el-Faouzi Faouzi et Angelo Furno, membres du jury : El Houssaine Aghezzaf (Rapp.), Bidisha Ghosh (Rapp.), David Rey  

    En plus de fonctionner proche de leur capacité maximale, les réseaux de transports, et particulièrement ceux urbains, sont soumis à de nombreuses perturbations qui peuvent être d'origine humaine, technique ou naturelle, qui impliquent régulièrement des pertes de performances, des dommages et des coûts de maintenance élevés. Introduite dans les années 70, la notion de résilience caractérise la capacité d'un système à maintenir un niveau de performance acceptable en présence de perturbations. Modéliser et quantifier la résilience multimodale de larges réseaux de transports urbains permettraient de garantir un service de mobilité de qualité aux villes, même en présence de perturbation et d'événements majeurs impactant les réseaux urbains. Les recherches présentées dans cette dissertation sont motivées par le besoin de définir fiablement la résilience des réseaux de transports pour comprendre leurs vulnérabilités. Une telle indication a pour but d'améliorer le fonctionnement des réseaux soumis à des perturbations et d'anticiper leurs pertes de performances en concevant des réseaux de transports plus résilients. Dans l'état de l'art, deux approches majoritaires permettent de quantifier la résilience des réseaux. D'une part, l'approche topologique, basée sur la théorie des graphes, qui caractérise la résilience statique des éléments du réseau, en s'intéressant à la redondance dans le réseau ou encore sa connectivité. D'autre part, l'approche dynamique, qui considèrent les dynamiques de trafic et exploite la théorie du trafic pour quantifier la résilience induite par les usagers du réseau et les performances du réseau de transport. Les mesures de centralités qui ont pour objectif de classer les composants d'un graphe en fonction de leur importance, sont beaucoup utilisées dans l'analyse de la caractérisation de la résilience des réseaux de transport. En les calculant sur un graphe pondéré dynamiquement qui permet de capturer les conditions de trafic et en adaptant leurs formules pour tenir compte de la demande des utilisateurs, nous sommes capable de considérer la topologie du réseau et les dynamiques de trafic dans la caractérisation de la résilience. Pour émuler l'impact de perturbations, nous considérons autant des données simulées que réelles. Une méthodologie de test de résistance, majoritairement étudiée dans les domaines du nucléaire et financier et qui permet simuler les pires scénarios de catastrophes en vue d'analyser l'impact et la réaction du réseau, est développée pour observer le comportement du réseau de transport. Enfin, nous développons une méthodologie, peu coûteuse en temps de calcul, pour optimiser la construction d'un nouveau mode de transport de manière à maximiser le gain de performance et en améliorer sa résilience. Nous proposons aussi un algorithme permettant de développer un système de park-and-ride adapté aux perturbations récurrentes.

    Cindy Becher, Désambiguïsation de la visualisation et de la manipulation d'objets 3D virtuels occultés en Réalité Augmentée : application à un cas de gestion de plans de réseaux sensibles enterrés., thèse soutenue en 2021 à Bordeaux sous la direction de Pascal Desbarats, membres du jury : Laure Leroy (Rapp.), Sébastien Bottecchia, Laurence Nigay et Pascal Guitton  

    Cette thèse de doctorat présente le travail qui nous a permis d’aboutir à un système de Réalité Augmentée efficace et agréable pour la gestion des plans de réseaux enterrés. De plus en plus d’institutions obligent à cartographier les souterrains, dans le but d’éviter d’endommager les ouvrages existants. Ces endommagements sont très dangereux, car les réseaux transportent des éléments comme du gaz ou de l’électricité. De nombreux accidents blessent des personnes chaque année à cause d’une méconnaissance des souterrains. Bien que les procédures de sécurité permettent de sauver des vies, l’interruption du trafic reste gênante et coûteuse. Outre le fait que ces plans sont parfois incorrects voire inexistants, ils sont d’abord difficiles à interpréter sur le terrain. De plus, leur maintenance implique un arrêt des travaux sur chantier et du retard qui est dommageable autant pour l’exploitant qui traite de son réseau, que pour le citoyen qui habite la rue où se déroulent les travaux et qui souhaite regagner son domicile. C’est pourquoi nous proposons un système complet, allant de la visualisation à la modification des plans de réseaux enterrés en Réalité Augmentée. Nous avons mené des travaux sur quatre visualisations et leur influence sur la perception des objets virtuels. Aussi, nous avons étudié deux modes de sélection et deux modes d’annotation afin de comprendre les éventuels bénéfices d’un système composé de deux périphériques : un casque de RA et un smartphone. Nous avons donc proposé un système permettant visualisation, sélection, modification de données attributaires textuelles et de la position des réseaux enterrés, de façon claire, efficace et peu fatigante directement in situ et en temps réel.

    Sirine Ammar, A System For Retrieving and Classifying Images Extracted From Video Surveillance Cameras, thèse soutenue en 2021 à La Rochelle sous la direction de Thierry Bouwmans et Mahmoud Neji, membres du jury : André Bigand (Rapp.), Antoine Vacavant (Rapp.), Walid Mahdi et Michel Berthier  

    Dans cette thèse, nous présentons un descripteur robuste pour la soustraction d’arrière-plan fondé sur un algorithme de détection des anomalies non-supervisé, appelé DeepSphere, capable de détecter les objets en mouvement dans les séquences vidéos. Contrairement aux algorithmes de séparation arrière-avant plan conventionnels, ce descripteur est tolérant aux variations d’illumination, robuste face aux bruits et aux régions d’arrière-plan dynamiques et détecte les objets de premier-plan sans utiliser de traitement d’image supplémentaire. En outre, ce descripteur exploite à la fois les autoencodeurs profonds et les méthodes d’apprentissage en hypersphère, ayant la capacité de capturer les dépendances spatio-temporelles entre les composants et à travers les pas de temps, d’apprendre de manière flexible une représentation non-linéaire des caractéristiques et de reconstruire les comportements normaux à partir des données d’entrée potentiellement anormales. Les représentations non linéaires de haute qualité apprises par l’autoencodeur aident l’hypersphère à mieux distinguer les cas anormaux en apprenant une frontière compacte séparant les données normales et anormales. En adaptant cet algorithme à la tâche de soustraction d’arrière-plan, les objets de premier plan sont bien capturés par DeepSphere et la qualité de la détection de ces objets est améliorée. Une fois que ces objets sont détectés (personnes/voitures...), une approche est proposée pour les classer en utilisant le réseau discriminateur du DCGAN de manière semi-supervisée. Le discriminateur est transformé en un classificateur multi-classes qui utilise à la fois un grand nombre de données non étiquetées et un très petit nombre de données étiquetées pour compenser la limite de manque de données et le coût élevé de collecte des données supplémentaires ou d’étiquetage de toutes les données. Enfin, nous avons proposé une approche basée sur le modèle FaceNet pour la reconnaissance faciale des personnes extraites. De plus, nous avons étendu notre proposition par une méthode d’augmentation des données basée sur DCGANs au lieu d’utiliser les méthodes standard d’augmentation des données. Cela augmente non seulement la précision du modèle, mais réduit aussi de près de moitié le temps d’exécution et le temps d’apprentissage du réseau neuronal profond.

    Aurélien Clairais, Calage en ligne d'un modèle dynamique de trafic routier pour l'estimation en temps réel des conditions de circulation, thèse soutenue en 2019 à Lyon sous la direction de Aurélien Duret, Nour-Eddin el-Faouzi Faouzi et Aurélien Duret, membres du jury : Vincent Aguiléra (Rapp.), Lyudmila Mihaylova (Rapp.), Florian de Vuyst  

    Les modèles de trafic ont une importance capitale pour la compréhension et la prévision des phénomènes liés aux conditions de circulation. Ils représentent une aide précieuse à tous les niveaux de gestion du trafic. Cette thèse s'attache aux problématiques liées à la gestion du trafic au quotidien. Pour les gestionnaires de réseaux, quatre enjeux sont traités. L'enjeu de rapidité renvoie au choix de l'échelle de représentation et la formulation du modèle d'écoulement. Le modèle retenu est le modèle LWR lagrangien-spatial. La fiabilité est un enjeu relatif à la prise en compte des erreurs de modèles dans les estimations des conditions de circulation. La réactivité est décrite comme la capacité de la méthode à prendre en compte en temps réel les états de trafic captés. Enfin, l'adaptabilité renvoie à la capacité des paramètres de la méthode à évoluer en tenant compte des situations de trafic observées. Les verrous scientifiques que les travaux présentés cherchent à lever s'articulent autour des quatre enjeux décrits précédemment. L'intégration de la propagation des incertitudes directement dans le modèle d'écoulement représente un premier verrou. Ensuite, la production d'indicateurs opérationnels rendant compte de la fiabilité des résultats. Concernant l'enjeu de réactivité, les verrous scientifiques traités sont la mise en place d'un schéma d'assimilation de données séquentiel et le calage des conditions internes du modèle d'écoulement intégrant les erreurs de modèle et d'observation. Enfin, concernant l'enjeu de réactivité, le verrou scientifique associé est le calage en ligne des paramètres du modèle d'écoulement. Un modèle de suivi d'erreur où les variables du modèle d'écoulement sont distribuées selon des mélanges de gaussienne est développé. Le suivi des erreurs dans le modèle est réalisé grâce à une méthode de perturbation adaptée à la formulation multi-composantes des mélanges de gaussiennes. Une analyse de sensibilité est menée afin d'établir le lien entre la robustesse de la méthode proposée et la discrétisation du réseau, le nombre de composantes dans le mélange de gaussiennes et les erreurs sur les paramètres du modèle d'écoulement. Ce modèle permet la production d'indicateurs opérationnels et leurs erreurs associées rendant compte de la fiabilité des conditions de circulation ainsi estimées. Le processus d'assimilation séquentielle permet d'estimer et de prévoir les conditions de trafic en accord avec les observations en cas de demande et d'offre non calées. L'état a posteriori est calculé à l'aide d'une formulation bayésienne connaissant les états a priori et les observations. Deux méthodes de mise à jour du modèle ont été testées. Devant les incohérences du modèle, introduites par la méthode de substitution des états a priori par les états a posteriori, la mise à jour agit aussi sur les véhicules via l'ajout, la suppression, l'avancement ou le retardement de leurs temps de passage. La validation des concepts étudiés est réalisée sur un réseau composé d'un simple lien homogène sans discontinuité. Lorsque les paramètres de l'écoulement du trafic ne sont pas calés, l'assimilation de données seule ne permet pas de propager correctement les états de trafic en accord avec la situation observée. Le calage des paramètres d'écoulement est traité dans un chapitre d'ouverture dans lequel des pistes de recherche sont suggérées afin de proposer des solutions à ce dernier verrou scientifique. Les travaux de cette thèse ouvrent la voie à des perspectives de recherche et opérationnelles. En effet, il est intéressant de quantifier le renforcement apporté par les méthodes modèle-centrées aux méthodes données-centrées usuelles dans l'estimation en temps réel et la prévision à court-terme des conditions de circulation. De plus, les méthodes développées, associées aux pistes de recherche évoquées, pourraient représenter un apport considérable aux outils d'aide à la gestion du trafic au quotidien.

    Mohamed Said Oughou, Quantification et modélisation de la morphogenèse foliaire, thèse soutenue en 2019 à Université ParisSaclay ComUE sous la direction de Philippe Andrey, membres du jury : Françoise Monéger (Rapp.), Paul-Henry Cournède (Rapp.)  

    Les feuilles des plantes sont des organes importants pour la production de biomasse dans la nature car elles sont le siège principal de la photosynthèse, qui permet de transformer la matière minérale en matière organique. Identifier les mécanismes responsables de la morphogenèse, i.e. la genèse de la forme pendant le développement, est donc une question d'intérêt. Pour être analysée, la morphogenèse doit être appréhendée tout au long de la croissance car la forme finale d'une feuille est le résultat de mécanismes coordonnés dans l'espace et le temps. Pour comprendre ce type de processus complexes, la modélisation est une approche de choix. L'objectif de cette thèse était donc de développer des stratégies de quantification et de modélisation de la morphogenèse pour mieux comprendre le développement des feuilles. Pour quantifier la morphogenèse, ma première contribution a été de développer des méthodes pour dater précisément l'apparition des feuilles sur la plante et celle des dentelures sur la marge foliaire, ce qui permet de recaler dans le temps et comparer différentes feuilles en croissance. En calculant les trajectoires de croissance de feuilles moyennes, il est alors possible de préciser où et quand le développement de feuilles peuvent différer, au niveau global ou des dentelures, pendant la croissance. En analysant des feuilles de formes différentes de la plante modèle Arabidopsis thaliana, j'ai ainsi pu montrer que malgré des différences importantes en taille et forme globale, il y a une similarité dans le développement des dentelures. Ces résultats suggèrent qu'il existe des processus identiques qui gouvernent l'apparition et la croissance des dentelures. J'ai ensuite proposé un modèle de développement des feuilles, à partir duquel il est possible de simuler la croissance d'une feuille. Il est basé sur des mécanismes biologiques qui on été identifiés comme étant importants dans la mise en place de la forme. Pour paramétrer le modèle, une approche d'optimisation a été mise au point pour déterminer les paramètres optimaux du modèle. Les résultats obtenus montrent que l'apparition séquentielle des dents ainsi que certains paramètres morphologiques peuvent être bien reproduits par le modèle.

    Andrews Cordolino Sobral, Robust low-rank and sparse decomposition for moving object detection : from matrices to tensors, thèse soutenue en 2017 à La Rochelle sous la direction de Thierry Bouwmans et El-Hadi Zahzah, membres du jury : Lucia Maddalena (Rapp.), Alfredo Petrosino (Rapp.), François Brémond et Jordi Gonzàlez  

    Dans ce manuscrit de thèse, nous introduisons les avancées récentes sur la décomposition en matrices (et tenseurs) de rang faible et parcimonieuse ainsi que les contributions pour faire face aux principaux problèmes dans ce domaine. Nous présentons d’abord un aperçu des méthodes matricielles et tensorielles les plus récentes ainsi que ses applications sur la modélisation d’arrière-plan et la segmentation du premier plan. Ensuite, nous abordons le problème de l’initialisation du modèle de fond comme un processus de reconstruction à partir de données manquantes ou corrompues. Une nouvelle méthodologie est présentée montrant un potentiel intéressant pour l’initialisation de la modélisation du fond dans le cadre de VSI. Par la suite, nous proposons une version « double contrainte » de l’ACP robuste pour améliorer la détection de premier plan en milieu marin dans des applications de vidéo-surveillance automatisées. Nous avons aussi développé deux algorithmes incrémentaux basés sur tenseurs afin d’effectuer une séparation entre le fond et le premier plan à partir de données multidimensionnelles. Ces deux travaux abordent le problème de la décomposition de rang faible et parcimonieuse sur des tenseurs. A la fin, nous présentons un travail particulier réalisé en conjonction avec le Centre de Vision Informatique (CVC) de l’Université Autonome de Barcelone (UAB).

    Landry Benoit, Imagerie multimodalité appliquée au phénotypage haut-débit des semences et plantules, thèse soutenue en 2015 à Angers sous la direction de François Chapeau-Blondeau, membres du jury : Marie-France Destain (Rapp.), Frédéric Cointault (Rapp.), David Rousseau et Carolyne Dürr  

    Au cours de ce travail nous avons utilisé les potentialités de différentes modalités d'imagerie, que nous appliquons au domaine du végétal afin de contribuer au phénotypage haut-débit des semences et plantules. Nous nous somme principalement consacré à la recherche de réponses à deux problématiques spécifiques et importantes de ce secteur. Nous commençons par montrer l'applicabilité de l'imagerie en lumière visible inactinique et de l'imagerie thermographique passive pour imager le développement des semences et plantules, un phénomène biologique se déroulant normalement dans le sol et l’obscurité. Nous présentons nos apports à ce type d’imagerie, au travers de nos contributions à la conception et à la réalisation d’un système de vision en imagerie visible inactinique, ayant pour finalité la réalisation de mesures individualisées automatisées sur les semences, les plantules et les organes des plantules. Ce système gère les croisements de plantules, via l'utilisation originale de la diffusion anisotrope, ce qui nous a permis de multiplier, sans perte d'information, les débits par dix. De plus, ce système réalise la séparation des organes au moyen d’un critère générique basé sur le gravitropisme. La validation des algorithmes de traitement d'images du système de vision utilise des voies originales (simulation numérique et test de l'influence de l'incertitude via simulation agronomique). L’imagerie thermographique, qui capte le rayonnement thermique passif des objets, nous permet de visualiser et de mesurer les semences et plantules dans l'obscurité. Elle permet aussi de réaliser la segmentation et le suivi des organes de plantules. Cette technologie d'imagerie nous a aussi permis de montrer la faisabilité d'un dosage non destructif de teneur en sucre des organes de plantules de betterave. Ensuite nous proposons une méthodologie générique permettant la conception de capteurs bas-coût spectralement optimisés, en fonction de tâches applicatives déterminées. Cette méthodologie utilise la théorie de l’information, pour extraire de l’imagerie hyperspectrale, relativement coûteuse, l’information utile à la conception des capteurs dédiés bas-coût. L’intérêt de cette méthodologie pour le phénotypage des plantes est montré et justifie le transfert de celle-ci au monde de la recherche en biologie végétale.

    Simon-Frédéric Désage, Contraintes et opportunités pour l'automatisation de l'inspection visuelle au regard du processus humain, thèse soutenue en 2015 à Université Grenoble Alpes ComUE sous la direction de Maurice Pillet et Hugues Favrelière, membres du jury : Yann Gavet (Rapp.), Ludovic Macaire (Rapp.), Serge Samper, Laurent Gwinner et Stéphane Maniglier  

    Ces travaux de recherche ont pour ambition de contribuer à l'automatisation de l'inspection visuelle, dans le cadre du contrôle qualité de pièces métalliques à géométrie complexe. En soi, de nombreuses techniques d'optique, de numérisation, d'implémentation de rendu photo-réaliste, de classification d'images ou de données, et de reconnaissance de formes sont déjà fortement développées et appliquées chacune dans des domaines particuliers. Or, elles ne sont pas, ou rarement pour des cas particuliers, combinées pour obtenir une méthode complète de numérisation de l'apparence jusqu'à la reconnaissance, effective et perceptuelle, de l'objet et des anomalies esthétiques.Ces travaux ont profité des avancements des thèses précédentes sur la formalisation du contrôle qualité ainsi que sur un système agile de numérisation d'aspect de surface permettant la mise en évidence de toute la diversité d'anomalies esthétiques de surfaces. Ainsi, la contribution majeure réside dans l'adaptation des méthodes de traitement d'images à la structure formalisée du contrôle qualité, au format riche des données d'apparence et aux méthodes de classification pour réaliser la reconnaissance telle que le contrôleur humain.En ce sens, la thèse propose un décryptage des différentes méthodologies liées au contrôle qualité, au comportement du contrôleur humain, aux anomalies d'aspect de surface, aux managements et traitements de l'information visuelle, jusqu'à la combinaison de toutes ces contraintes pour obtenir un système de substitution partielle au contrôleur humain. L'objectif de la thèse, et du décryptage, est d'identifier et de réduire les sources de variabilité pour obtenir un meilleur contrôle qualité, notamment par l'automatisation intelligente et structurée de l'inspection visuelle. A partir d'un dispositif de vision par ordinateur choisi, la solution proposée consiste à analyser la texture visuelle. Celle est considérée en tant que signature globale de l'information d'apparence visuelle supérieure à une unique image contenant des textures images. L'analyse est effectuée avec des mécanismes de reconnaissance de formes et d'apprentissage machine pour établir la détection et l'évaluation automatiques d'anomalies d'aspect.

    Thomas Penne, Développement d'un système de tracking vidéo sur caméra robotisée, thèse soutenue en 2011 à ClermontFerrand 2 sous la direction de Vincent Barra et Christophe Tilmant, membres du jury : Frédéric Lerasle (Rapp.), Vincent Charvillat (Rapp.), Thierry Chateau  

    Ces dernières années se caractérisent par la prolifération des systèmes de vidéo-surveillance et par l’automatisation des traitements que ceux-ci intègrent. Parallèlement, le problème du suivi d’objets est devenu en quelques années un problème récurrent dans de nombreux domaines et notamment en vidéo-surveillance. Dans le cadre de cette thèse, nous proposons une nouvelle méthode de suivi d’objet, basée sur la méthode Ensemble Tracking et intégrant deux améliorations majeures. La première repose sur une séparation de l’espace hétérogène des caractéristiques en un ensemble de sous-espaces homogènes appelés modules et sur l’application, sur chacun d’eux, d’un algorithme basé Ensemble Tracking. La seconde adresse, quant à elle, l’apport d’une solution à la nouvelle problématique de suivi induite par cette séparation des espaces, à savoir la construction d’un filtre particulaire spécifique exploitant une pondération des différents modules utilisés afin d’estimer à la fois, pour chaque image de la séquence, la position et les dimensions de l’objet suivi, ainsi que la combinaison linéaire des différentes décisions modulaires conduisant à l’observation la plus discriminante. Les différents résultats que nous présentons illustrent le bon fonctionnement global et individuel de l’ensemble des propriétés spécifiques de la méthode et permettent de comparer son efficacité à celle de plusieurs algorithmes de suivi de référence. De plus, l’ensemble des travaux a fait l’objet d’un développement industriel sur les consoles de traitement de la société partenaire. En conclusion de ces travaux, nous présentons les perspectives que laissent entrevoir ces développements originaux, notamment en exploitant les possibilités offertes par la modularité de l’algorithme ou encore en rendant dynamique le choix des modules utilisés en fonction de l’efficacité de chacun dans une situation donnée.

  • Olivier Laurendin, Identification de situations de mise en danger d'usagers aux alentours de portes automatiques de train par détection d'anomalies auto-supervisée, thèse soutenue en 2023 à Ecole nationale supérieure MinesTélécom Lille Douai sous la direction de Anthony Fleury, membres du jury : Bernard Kamsu-Foguem (Rapp.), Samia Ainouz, Romaric Audigier et Sébastien Ambellouis  

    Ce travail de recherche s’inscrit dans le cadre d’un projet d’autonomisation des trains de voyageurs et tout particulièrement ceux circulant sur les lignes régionales françaises. A terme, le prototype de train autonome développé vise le degré d’automatisation maximal, pour lequel toutes les fonctions d’opération du train actuellement sous la responsabilité des agents de bord seront traitées par des systèmes techniques. Nous nous sommes intéressons ici à l’autonomisation d’une de ces fonctions, à savoir l’opération en sécurité des portes extérieures du train.De nombreuses situations de mise en danger d’usagers ont été répertoriées lors de la fermeture des portes et certaines figurent aujourd’hui parmi les principales sources d’incidents voyageurs. L’objectif de cette thèse est de développer un système de détection de ces événements à partir de l’analyse automatique des flux vidéo d’un système de surveillance embarqué.Cette thèse adresse ce problème par l’application de réseaux de neurones profonds afin de détecter, localiser et identifier tout événement dangereux lié aux piétons et aux portes présent dans des flux vidéo fournis par des caméras fish-eye installées sur le plafond des plates-formes d’embarquement du train. Ces événements dangereux apparaissant très rarement au cours de l’exploitation du train, la solution proposée repose sur la notion d’anomalie définie comme un événement inconnu ou inattendu dans un contexte donné. L’architecture neuronale proposée constitue donc un modèle de normalité et identifie comme anomalie toute donnée aberrante qui s’en écarte.L’architecture du réseau neuronal que nous proposons se décompose en deux branches spécialisées capables d’apprendre un modèle d’interaction normale entre deux objets. Chaque branche est entraînée par l’apprentissage de tâches prétextes capables de modéliser différents aspects de normalité supposés pertinents pour la détection d’anomalies liées aux piétons et aux portes.Aucun jeu de données relatif à notre cas d’usage n’existant dans la littérature, nous avons récolté et annoté un ensemble de séquences d’images pour l’entraînement et l’évaluation de nos architectures. Ces séquences mettent en scène des usagers aux alentours d’une réplique de portes automatiques de train en laboratoire et d’un train réel instrumenté pour les expérimentations du projet. Enfin, nous avons mis au point des métriques d’évaluation de l’efficacité des modèles développés afin d’évaluer leur applicabilité opérationnelle.

    Katia Mirande, Segmentation sémantique et par instance de nuages de points 3D de plantes, thèse soutenue en 2022 à Strasbourg sous la direction de Franck Hétroy et Christophe Godin, membres du jury : David Rousseau (Rapp.), Peter Hanappe      

    L’obtention simultanée d’une segmentation sémantique et par instance de nuages de points 3D de plantes est une étape indispensable pour le phénotypage automatique de plantes. Chaque organe de la plante est généralement détecté à partir de la géométrie locale du nuage de points, mais la cohérence globale de la structure de la plante est rarement utilisée. Dans cette thèse, nous explorons l’utilisation de deux graphes à échelles différentes pour segmenter et classifier des nuages de points de plantes. A l’échelle du point, le graphe de similarité permet de calculer des attributs géométriques basés sur le spectre du graphe et de distinguer les organes linéaires (tige principale, branches, pétioles) des organes à deux dimensions et plus (limbes et apex). A l’échelle des organes, le graphe quotient est utilisé pour obtenir une classification détaillée et corriger des défauts potentiels. Nous proposons ainsi une chaîne de traitement rapide, automatique et intégrant la structure de la plante. Nous évaluons cette dernière sur des bases de données de nuages de points 3D de Chenopodium album (chénopodes blanc) et de Solanum lycopersicum (plants de tomates).

    Louis Lac, Méthodes de vision par ordinateur et d'apprentissage profond pour la localisation, le suivi et l'analyse de structure de plantes : application au désherbage de précision, thèse soutenue en 2022 à Bordeaux sous la direction de Jean-Pierre Da Costa, membres du jury : Christophe Debain (Rapp.), Olivier Ly, Marine Louargant et Marc Donias  

    L'agriculture fait aujourd'hui face au défi de la constante augmentation des besoins alimentaires, causée par la croissance démographique soutenue. En parallèle, la crise environnementale, dont l'agriculture est en partie responsable, risque d'impacter négativement les sociétés humaines. Limiter ces impacts tout en assurant la sécurité alimentaire mondiale est donc une nécessité. L'agriculture de précision visant à traiter les cultures de manière plus fine et plus localisée que les méthodes traditionnelles de l'agriculture intensive est l'un des leviers de la transition vers une agriculture plus résiliente et moins polluante. Les récentes avancées en vision par ordinateur, en robotique et en intelligence artificielle permettent d'imaginer de nouvelles solutions innovantes afin d'automatiser certaines tâches comme le désherbage de précision.Dans ce travail de thèse, des méthodes de vision par ordinateur et d'apprentissage profond sont explorées afin de détecter et de collecter des propriétés sur des plantes d'intérêt ainsi que pour suivre des plantes dans des séquences d'images. L'objectif est de fournir des algorithmes performants et robustes pouvant être employés dans des applications de désherbage de précision et de surveillance des cultures en plein champ. Le travail proposé s'appuie sur un prototype de bloc-outil de désherbage mécanique de précision nommé BIPBIP pour évaluer expérimentalement les méthodes développées.Différentes approches d'apprentissage profond conçues pour la localisation et la caractérisation de plantes sont explorées, paramétrées puis évaluées et un algorithme de suivi de plantes d'intérêt permettant d'améliorer la performance de la détection est proposé puis évalué. Les expérimentations présentées dans ce travail montrent qu'il est possible, d'une part, d'exploiter les réseaux de neurones profonds afin de détecter la structure des plantes et de localiser précisément leurs organes et, d'autre part, d'améliorer la performance via un algorithme de suivi temporel des détections.

    Thierry Malon, Analyse de détections concomitantes pour l'aide à la navigation interactive dans de grandes collections de vidéos, thèse soutenue en 2020 à Toulouse INPT sous la direction de Vincent Charvillat, Sylvie Julie Chambon et Alain Crouzil, membres du jury : Michèle Gouiffès (Rapp.)  

    Qu'il s'agisse de la caméra d'un smartphone ou d'une caméra de surveillance, les dispositifs d'enregistrement vidéo sont de plus en plus répandus et les quantités de vidéos disponibles ne cessent de croître. Cette surabondance de données disponibles est une épée à double tranchant : plus les vidéos de la scène dont on dispose sont nombreuses et variées, plus elles offrent une information riche et complète, mais plus elles nécessitent de temps pour être traitées. Dans de nombreuses applications, comme par exemple une enquête policière, les premières heures d’investigation sont décisives. Or la visualisation exhaustive de toutes les vidéos par un opérateur humain est une tâche pénible, peu efficace, longue et coûteuse. Cette thèse propose d'explorer plusieurs pistes dans le but d’automatiser la recherche d’information dans des vidéos. Plus précisément, nous cherchons à identifier parmi une collection de vidéos celles issues de caméras présentant un recouvrement partiel de leurs champs de vue. Pour réaliser cette tâche, nous avons également mis en oeuvre une méthode de navigation interactive entre les vidéos. Ainsi, dans ce contexte, trois contributions principales sont apportées. Tout d'abord, nous proposons une méthode permettant de déterminer quelles vidéos ont leurs champs de vue qui se recouvrent et offrent ainsi différents points de vue d'un même endroit. Pour ce faire, nous détectons la présence d'objets dans les vidéos au cours du temps, les caractérisons par une catégorie et une apparence et regroupons les vidéos qui présentent de façon concomitante des objets de même catégorie aux apparences similaires. Cependant, il arrive que des objets aient des apparences similaires bien qu'ils soient issus de paires de caméras dont les champs de vue ne se croisent pas, ce qui cause des erreurs dans les groupements de vidéos. Pour y remédier, nous proposons un mécanisme d'apprentissage actif, où le programme peut solliciter l'opérateur sur des cas difficiles pour apprendre à trouver les groupements de caméras qui présentent du recouvrement dans leurs champs de vue. Nous enrichissons également les critères employés en considérant l'arrière-plan en plus des objets apparaissant dans la vidéo. Nous montrons que les groupements de vidéos obtenus par la coopération entre l'homme et la machine sont meilleurs que ceux obtenus via notre approche précédente, entièrement automatisée. Enfin, nous proposons une méthode de navigation au sein d'un groupe de vidéos observant un même endroit. Depuis une vidéo courante, l'approche proposée permet aux utilisateurs de tracer une trajectoire requête et les redirige vers une autre vidéo dans laquelle cette trajectoire est plus longue, plus détaillée et donc mieux observable. Nous apprenons pour cela des cartes de correspondances entre régions de chaque vidéo et les utilisons pour reformuler la trajectoire tracée par l'utilisateur en son équivalent dans les autres vues. Afin de valider nos approches, nous identifions plusieurs jeux de données pertinents dans notre contexte. Cependant, le nombre de caméras dont les champs de vue se recouvrent est généralement limité. Nous proposons donc un jeu de données multivues que nous avons annoté et qui contient 25 caméras disposées sur un campus universitaire dont 19 présentent du recouvrement. Les résultats obtenus au travers de nos trois contributions sont encourageants.

    Thang Duong Quoc Le, Growth of the wheat grain investigated by morphometry and shape registration on 3D tomography images, thèse soutenue en 2020 à Nantes sous la direction de Anne-Laure Chateigner-Boutin, membres du jury : Philippe Andrey (Rapp.), Lionel Dupuy, Olivier Ali et Diana Carolina Mateus Lamus  

    Ce travail a permis de développer une méthode d’analyse de la croissance en 3D d’un grain de blé. Des images 3D, obtenues par micro-tomographie-RX sur des grains à différents stades de développement, ont permis non seulement d’étudier la morphologie externe des grains mais également de visualiser de manière non destructive leur structure interne, y compris pour des grains de petite taille et fortement hydratés. Une chaîne de traitements d’images a été mise au point pour quantifier la morphologie 3D des grains. Des mesures classiques telles que la longueur, largeur et épaisseur des grains ont été obtenues et se sont révélées cohérentes avec des mesures manuelles. De nouveaux traits, tels que le volume des compartiments internes, la profondeur du sillon tout le long du grain ainsi que des cartes de courbures 3D ont été extraits de l’analyse. Par ailleurs, une approche de recalage des images a été mise en oeuvre pour étudier les changements de forme au cours du développement des grains. Pour chaque stade de développement, la forme d’un grain moyen représentatif a été déterminée, puis des modèles de déformations ont été appliqués pour simuler les transformations des grains moyens entre deux stades consécutifs. Les propriétés géométriques obtenues permettent de révéler les zones des grains à croissance active. L’ensemble des opérations développées est original et suffisamment générique pour être appliqué à d’autres organes en croissance.

    Pierre Willaume, Modélisation de formes 3D par les graphes pour leur reconnaissance : application à la vision 3D en robotique dans des tâches de "Pick-and-Place", thèse soutenue en 2017 à Strasbourg sous la direction de Aline Deruyver, membres du jury : Cyril Fonlupt (Rapp.), Christophe Doignon, Antoine Vacavant et Pierre Parrend    

    L'objectif de cette thèse est de concevoir un système automatique constitué d'une ou plusieurs caméras capables de détecter en trois dimensions un amalgame d'objets stockés dans un conteneur. Pour ceci, il est nécessaire de modéliser, de reconnaître et de localiser des formes dans une image. Dans un premier temps, Nous proposons une solution d'optimisation du calibrage de caméras. C'est une tâche essentielle pour récupérer des informations quantitatives sur les images capturées. Cette méthode nécessite des compétences spécifiques en matière de traitement d'image, ce qui n'est pas toujours le cas dans l'industrie. Nous proposons d'automatiser et d'optimiser le système d'étalonnage en éliminant la sélection des images par l'opérateur. Ensuite, nous proposons d'améliorer les systèmes de détection d'objets fins et sans motif. Enfin, nous proposons d'adapter des algorithmes évolutionnaires dans le but d'optimiser les temps de recherche.

    Nicolas Aubry, Segmentation et mesures géométriques : application aux objets tubulaires métalliques, thèse soutenue en 2017 à Université de Lorraine sous la direction de Isabelle Debled-Rennesson et Bertrand Kerautret, membres du jury : Pascal Desbarats (Rapp.), Sylvain Contassot-Vivier    

    La présence de spécularité sur un objet est un problème récurrent qui limite l'application de nombreuses méthodes de segmentation. En effet, les spécularités sont des zones ayant une intensité très élevée et perturbent énormément la détection dès lors que l'on utilise la notion de gradient de l'image. Les travaux menés dans cette thèse permettent de proposer une nouvelle méthode de détection d'un objet tubulaire métallique dans une image. La méthode s'affranchit de la notion de gradient en utilisant la notion de profil d'intensité. Nous proposons dans ce manuscrit, un processus qui parcourt des zones rectangulaires prédéfinies de l'image, par balayage d'un segment discret à la recherche d'un profil d'intensité référence. Ces travaux s'inscrivent dans une collaboration avec Numalliance, une entreprise qui fabrique des machines-outils. Cette collaboration permet de mettre en pratique cette méthode dans le cadre d'un système de contrôle qualité automatique et temps-réel des pièces manufacturées par les machines-outils. Pour cela, la méthode présentée doit être rapide, robuste aux spécularités et à l'environnement industriel tout en étant suffisamment précise pour permettre de conclure sur la conformité ou non de la pièce

    Klervi Rannou, Tessellations à base de champs aléatoires gaussiens. Application à la modélisation spatiale et temporelle de l'endothélium cornéen humain., thèse soutenue en 2016 à Lyon sous la direction de Yann Gavet, membres du jury : Isabelle Bloch (Rapp.), Christian Germain, Emanuele Trucco, Gilles Thuret et Jean-Charles Pinoli  

    Les tessellations, aussi appelées mosaïques, permettent de modéliser de nombreuses structures, comme des assemblages de cellules en biologie ou de grains en science des matériaux. La tessellation aléatoire la plus connue est le diagramme de Voronoï qui à partir d'un ensemble de points, appelés germes, partitionne le plan. L'approche innovante de cette thèse est d'utiliser des champs aléatoires gaussiens pour générer des germes et des distances aléatoires, qui vont permettre de simuler une grande variété de tessellations en termes de formes et de tailles des cellules.Pour connaître les propriétés des tessellations simulées à partir de champs aléatoires gaussiens, celles-ci vont être caractérisées et comparées à d'autres tessellations. Tout d'abord par une approche ponctuelle en étudiant les germes, dont leur distribution spatiale. Puis par une approche par région, en étudiant la géométrie et la morphométrie des cellules.L'endothélium cornéen humain est une monocouche de cellules formant un pavage hexagonal régulier à la naissance, et perdant de sa régularité ensuite. La qualité du greffon cornéen est donnée par certaines observations, comme la densité, l'homogénéité de la forme et des tailles des cellules endothéliales.L'évolution avec l'âge de cette mosaïque cornéenne va être caractérisée à partir d’une base d’images de l’endothélium. L'originalité est ensuite d'effectuer une estimation de l'âge d’un endothélium à partir des différentes mesures permettant de caractériser les tessellations, et enfin de mettre en place une méthode prometteuse afin de savoir si une cornée a une évolution normale.

    Julien Badie, Optimisation du suivi de personnes dans un réseau de caméras, thèse soutenue en 2015 à Nice sous la direction de François Brémond, membres du jury : Xavier Roca Marva (Rapp.), Frédéric Precioso et Thierry Chateau  

    Cette thèse s’intéresse à l’amélioration des performances du processus de suivi de personnes dans un réseau de caméras et propose une nouvelle plate-forme appelée global tracker. Cette plate-forme évalue la qualité des trajectoires obtenues par un simple algorithme de suivi et permet de corriger les erreurs potentielles de cette première étape de suivi. La première partie de ce global tracker estime la qualité des trajectoires à partir d’un modèle statistique analysant des distributions des caractéristiques de la cible (ie : l’objet suivi) telles que ses dimensions, sa vitesse, sa direction, afin de détecter de potentielles anomalies. Pour distinguer de véritables erreurs par rapport à des phénomènes optiques, nous analysons toutes les interactions entre l’objet suivi et tout son environnement incluant d’autres objets mobiles et les éléments du fond de la scène. Dans la deuxième partie du global tracker, une méthode en post-traitement a été conçue pour associer les différentes tracklets (ie : segments de trajectoires fiables) correspondant à la même personne qui n’auraient pas été associées correctement par la première étape de suivi. L’algorithme d’association des tracklets choisit les caractéristiques d’apparence les plus saillantes et discriminantes afin de calculer une signature visuelle adaptée à chaque tracklet. Finalement le global tracker est évalué à partir de plusieurs bases de données de benchmark qui reproduit une large variété de situations réelles. A travers toutes ces expérimentations, les performances du global tracker sont équivalentes ou supérieures aux meilleurs algorithmes de suivi de l’état de l’art.

  • Maryam Ouhami, Apprentissage profond multimodal pour la détection des maladies des plantes à l'aide de la télédétection et de l'analyse des données climatiques, thèse soutenue en 2023 à Bourges INSA Centre Val de Loire sous la direction de Adel Hafiane et Youssef Es-Saady, membres du jury : Sanaa El Fkihi (Rapp.), Ludovic Macaire (Rapp.), Mustapha Amrouch (Rapp.), Zine El Abidine El Morjani, Raphaël Canals et Mohamed El Hajji  

    La détection des maladies des plantes revêt une importance capitale pour prévenir les pertes de récoltes et maintenir la productivité agricole. Cependant, ce défi complexe nécessite des approches avancées pour améliorer la précision et l’efficacité des systèmes de détection. Dans cette thèse, nous nous concentrons sur l’utilisation de la fusion de données multimodales pour relever ce défi. Nous avons pu mettre en lumière les avancées récentes dans le domaine et identifier les lacunes et les opportunités de recherche. Nous avons ensuite proposé une architecture de fusion post-apprentissage permettant d’intégrer les données provenant d’images de drones et de données météorologiques pour une compréhension plus profonde de l’état de santé de la plante et l’identification du mildiou. Enfin, nous avons créer une architecture de fusion multimodale basée sur les transformeurs combinant les images satellites et les données météorologiques pour la détection du mildiou. Dans l’ensemble, les résultats de cette thèse mettent en évidence l’importance de la fusion de données multimodales dans la détection des maladies des plantes. Nos contributions ont permis de réaliser des avancées dans la problématique de la détection des maladies des plantes tout en ouvrant de nouvelles perspectives sur l’utilisation de la fusion de données multimodales dans le domaine de l’agriculture.

    Koubouratou Idjaton, Analyse d'images et apprentissage machine pour la détection des altérations des pierres des monuments historiques, thèse soutenue en 2022 à Orléans sous la direction de Sylvie Treuillet, membres du jury : Catherine Achard (Rapp.), Abderrahim Elmoataz (Rapp.), Xavier Desquesnes, Xavier Brunetaud, Frédéric Bosché et Rachid Harba    

    La préservation des monuments historiques exige une surveillance de leur état pour assurer la sécurité des visiteurs et planifier au mieux les opérations de restauration.Cette surveillance repose essentiellement sur une observation visuelle réalisée par des experts sur site et sur un lourd et fastidieux travail d’inventaire et d’annotations manuelles sur des photos. Cette thèse propose de nouveaux outils d’aide au diagnostic assisté par ordinateur, basés sur l’intelligence artificielle pour réaliser une détection automatique des altérations des pierres dans des images couleurs. Une plateforme Web opérationnelle permet aux experts d’appliquer les algorithmes proposés et de visualiser les résultats de segmentation pierre-à-pierre et de détecter les altérations des pierres via une interface conviviale, pour faciliter leur diagnostic sur les façades des châteaux. Ces contributions ouvrent la voie au développement d’un outil convivial multi acteurs pour un diagnostic plus précis des grands monuments.

    Jhony Heriberto Giraldo Zuluaga, Graph-based Algorithms in Computer Vision, Machine Learning, and Signal Processing, thèse soutenue en 2022 à La Rochelle sous la direction de Thierry Bouwmans, membres du jury : Lucia Maddalena (Rapp.), Marc Van Droogenbroeck (Rapp.), Jenny Benois Pineau, François Brémond, Antonino Staiano et Laura Toni  

    L'apprentissage de la représentation graphique et ses applications ont suscité une attention considérable ces dernières années. En particulier, les Réseaux Neuronaux Graphiques (RNG) et le Traitement du Signal Graphique (TSG) ont été largement étudiés. Les RNGs étendent les concepts des réseaux neuronaux convolutionnels aux données non euclidiennes modélisées sous forme de graphes. De même, le TSG étend les concepts du traitement classique des signaux numériques aux signaux supportés par des graphes. Les RNGs et TSG ont de nombreuses applications telles que l'apprentissage semi-supervisé, la segmentation sémantique de nuages de points, la prédiction de relations individuelles dans les réseaux sociaux, la modélisation de protéines pour la découverte de médicaments, le traitement d'images et de vidéos. Dans cette thèse, nous proposons de nouvelles approches pour le traitement des images et des vidéos, les RNGs, et la récupération des signaux de graphes variant dans le temps. Notre principale motivation est d'utiliser l'information géométrique que nous pouvons capturer à partir des données pour éviter les méthodes avides de données, c'est-à-dire l'apprentissage avec une supervision minimale. Toutes nos contributions s'appuient fortement sur les développements de la TSG et de la théorie spectrale des graphes. En particulier, la théorie de l'échantillonnage et de la reconstruction des signaux de graphes joue un rôle central dans cette thèse. Les principales contributions de cette thèse sont résumées comme suit : 1) nous proposons de nouveaux algorithmes pour la segmentation d'objets en mouvement en utilisant les concepts de la TSG et des RNGs, 2) nous proposons un nouvel algorithme pour la segmentation sémantique faiblement supervisée en utilisant des réseaux de neurones hypergraphiques, 3) nous proposons et analysons les RNGs en utilisant les concepts de la TSG et de la théorie des graphes spectraux, et 4) nous introduisons un nouvel algorithme basé sur l'extension d'une fonction de lissage de Sobolev pour la reconstruction de signaux graphiques variant dans le temps à partir d'échantillons discrets.

    Anthony Berthelier, Etudes techniques de compression de réseaux de neurones pour sa mise en place dans une architecture embarquée de type Smartphone, thèse soutenue en 2021 à Université Clermont Auvergne 2021 sous la direction de Thierry Chateau, membres du jury : Alice Caplier (Rapp.), Donatello Conte (Rapp.), Stefan Duffner, Christophe Blanc, Christophe Garcia et Grégoire Lefebvre  

    Au cours de ces dernières années, les réseaux de neurones profonds se sont montrés être des éléments centraux dans le développement de solutions intelligentes. Ils ont atteint des performances remarquables au détriment de la grande taille de leurs modèles avec de nombreuses couches profondes et des millions de paramètres. Ainsi, utiliser ces modèles pour des applications en réalité augmentée devant fonctionner sur des plateformes possédant des ressources limitées comme des systèmes embarqués ou des smartphones est une tâche loin d'être évidente. Dans ce contexte, cette thèse s'intéresse au problème de la compression et de l'optimisation de réseaux de neurones dans le but de réduire la taille de leur modèle sur des systèmes ayant des ressources limitées.Nous présentons dans une première partie différentes méthodes de compression de la littérature ainsi que leurs forces, leurs faiblesses et une brève comparaison entre elles. Nous nous intéressons également aux méthodes permettant d'optimiser la construction des architectures de réseaux de neurones profonds, allant de simples modules à la construction autonome de modèles.Nous montrons dans une deuxième partie la faisabilité technique d'une application en réalité augmentée et en temps réel utilisant un modèle d'apprentissage profond pour de l'analyse de visages. En utilisant des frameworks adaptés et une architecture optimisée, nous arrivons à segmenter différents composants du visage de manière robuste en temps réel sur un iPhone X.Les deux dernières parties sont consacrées au développement et à l'évaluation d'une nouvelle méthode de compression de réseaux de neurones convolutifs profonds. Basée sur un terme de régularisation défini sur les coefficients des filtres du modèle, notre approche permet d'introduire de la dispersion au sein des poids du réseau. Cela a pour effet de redistribuer l'information entre les filtres du modèle, nous permettant de supprimer les filtres ayant une valeur faible suite à cette opération. Nous évaluons les performances de notre méthode sur des tâches de classification classiques. Nous introduisons aussi l'efficacité de notre technique sur des modèles et des tâches de classification, segmentation et détection plus complexes en spécialisant les modèles sur certaines sous-catégories de jeux de données.

    Kevin Bascol, Adaptation de domaine multisource sur données déséquilibrées : application à l'amélioration de la sécurité des télésièges, thèse soutenue en 2019 à Lyon sous la direction de Élisa Fromont, Rémi Emonet et Rémi Emonet, membres du jury : Patrick Pérez (Rapp.), Christian Wolf (Rapp.), Diane Larlus  

    Bluecime a mis au point un système de vidéosurveillance à l'embarquement de télésièges qui a pour but d'améliorer la sécurité des passagers. Ce système est déjà performant, mais il n'utilise pas de techniques d'apprentissage automatique et nécessite une phase de configuration chronophage. L’apprentissage automatique est un sous-domaine de l'intelligence artificielle qui traite de l'étude et de la conception d'algorithmes pouvant apprendre et acquérir des connaissances à partir d'exemples pour une tâche donnée. Une telle tâche pourrait consister à classer les situations sûres ou dangereuses dans les télésièges à partir d'exemples d'images déjà étiquetées dans ces deux catégories, appelés exemples d’entraînement. L'algorithme d'apprentissage automatique apprend un modèle capable de prédire la catégories de nouveaux cas. Depuis 2012, il a été démontré que les modèles d'apprentissage profond sont les modèles d'apprentissage machine les mieux adaptés pour traiter les problèmes de classification d'images lorsque de nombreuses données d’entraînement sont disponibles. Dans ce contexte, cette thèse, financée par Bluecime, vise à améliorer à la fois le coût et l'efficacité du système actuel de Bluecime grâce à l'apprentissage profond.