Journée Traitement d'Images
(dans le cadre du Projet M2NUM du GRR LMN)
Organisation: J. Fadili (GREYC, ENSICAEN), C. Le Guyader (LMI, INSA Rouen)
et S. Ruan/C. Petitjean (LITIS, U. Rouen)
Jeudi 9 Avril 2015 - INSA Rouen (Campus du Madrillet) - Amphithéâtre Dumont d'Urville - B.RJ.02
Inscription
L'inscription est gratuite mais obligatoire. Pour procéder à l'inscription, veuillez vous identifier via la fédération d'identités en sélectionnant votre établissement puis en vous authentifiant via ce lien. Si votre établissement ne figure pas dans la fédération d'identités, inscrivez-vous directement via ce lien en saisissant manuellement vos nom, prénom et email. La liste des participants sera mise à jour ultérieurement.
Programme
9h : Accueil.
9h15-10h : Vincent Duval (INRIA, Rocquencourt)
Titre : Déconvolution avec a priori de parcimonie sur des grilles fines.
10h-10h30 : François Lozes (GREYC, Université de Caen)
Titre : Traitements d'images sur surfaces et variétés.
10h30-11h : Pause, échanges entre participants.
11h-11h30 : Solène Ozeré (LMI, INSA Rouen)
Titre : Un modèle de segmentation/registration basé sur la variation totale pondérée et l’élasticité non linéaire.
11h30-12h : David Tschumperlé (GREYC, CNRS)
Titre : Blending Methods and Other Improvements for Exemplar-based Image Inpainting Techniques.
12h-14h : Pause déjeuner
14h-14h45 : Etienne Mémin (INRIA, Rennes)
Titre : Analyse d'écoulements fluides à partir de séquences d'images.
14h45-15h15 : Caroline Petitjean (LITIS, Université de Rouen)
Titre : Image segmentation with statistical shape prior.
15h15-15h45 : Pause, échanges entre participants.
15h45-16h15 : Julien Rabin (GREYC, Université de Caen)
Titre : Co-segmentation non-supervisée d'images par les distances de Sinkhorn.
16h15-16h45 : Jérôme Lapuyade-Lahorgue (LITIS, Université de Rouen)
Titre : Techniques d'inférence bayésienne en segmentation statistique d'images. Application à la
fusion d'images TEP multi-traceur.
Titles and abstracts / Titres et résumés des présentations:
- Vincent Duval (INRIA, Rocquencourt) : Déconvolution avec a priori de parcimonie sur des grilles fines.
Le problème de déconvolution consiste à retrouver un signal à partir de ses basses fréquences et d'un a priori sur le type de signal recherché.
Introduites en Géophysique pour la reconstruction de signaux concentrés sur quelques pics (des sommes de masses de Dirac), les techniques de déconvolution avec régularisation de type $\ell^1$ ont connu leur essor à la suite notamment des travaux de Donoho (Basis Pursuit) d'une part et Tibshirani (LASSO) d'autre part.
Il existe de nombreux travaux sur les propriétés de robustesse et de stabilité du support pour le LASSO, mais on montrera dans cet exposé que dans le cas particulier de la déconvolution sur des grilles fines, les critères proposés ne sont pas valides. Le support n’est pas stable, et le LASSO identifie en fait deux fois plus de masses de Diracs que celles présentes dans le signal original.
On fera le lien entre les propriétés du LASSO sur des grilles fines et un problème récent, étudié notamment par Candès et Fernandez-Granda, pour la reconstruction de mesures de Radon dans un cadre continu. - François Lozes (GREYC, Université de Caen) : Traitements d'images sur surfaces et variétés.
De plus en plus de données sont quotidiennement récoltées sous forme de nuages de points 3D ou nD ou de fonctions sur ces nuages de points. Les exemples de domaines d'applications sont nombreux : imagerie 3D, classification de données, etc. Dans cet exposé, je commencerai par présenter un cadre général très simple pour transposer et résoudre des Équations aux dérivées partielles (EDP) ou des méthodes variationnelles sur surfaces ou nuages de points. Ce cadre est basé sur la représentation d'un nuage de points par des graphes pondérés et sur l'utilisation des Équations aux différences Partielles (EdPs). Cette approche permet naturellement d'étendre des EDPs sous une formulation non-locale. Pour illustrer l'approche, différents exemples utilisant les EDPs sur nuages de points seront montrés tels que la restauration, l'interpolation de données et le calcul de distances géodésiques.
- Solène Ozeré (LMI, INSA Rouen) : Un modèle de segmentation/registration basé sur la variation totale pondérée et l’élasticité non linéaire.
L'objectif de cette méthode est de construire un modèle conjoint de registration et segmentation permettant de traiter de larges déformations.
Nous introduisons un modèle variationnel combinant un terme d'attache aux données basé sur la variation totale pondérée et une terme de régularisation basée sur la densité d'énergie du matériau de Saint-Venant Kirchhoff.
Le terme de variation totale pondérée permet ainsi d'aligner les bords des objets même si les modalités des images sont différentes.
Cependant, la densité d'énergie introduite n'est pas quasiconvexe, cela induit un problème de nature théorique, puisqu'on ne peut pas établir la semi-continuité inférieure faible de la fonctionnelle et donc l'existence de minimiseurs.
L'idée consiste alors en la formulation du problème relaxé associé et plus précisément en la détermination de l'expression explicite de l'enveloppe quasiconvexe.
Plusieurs résultats théoriques ont été obtenus: existence de solutions généralisées, résultat de \Gamma-convergence pour le problème étudié numériquement.
Des résultats numériques ont été obtenus sur des images synthétiques ainsi que sur des images biologiques (cerveau, coeur). - David Tschumperlé (GREYC, CNRS) : Blending Methods and Other Improvements for Exemplar-based Image Inpainting Techniques.
- Etienne Mémin (INRIA, Rennes) : Analyse d'écoulements fluides à partir de séquences d'images.
Dans cet exposé nous passerons en revue un certain nombre d’outils permettant, à partir d'une séquence d'images, d'extraire les vitesses d'un écoulement fluide ou de suivre dans le temps des quantités transportées par l’écoulement. Nous décrirons dans un premier temps comment définir un estimateur de mouvement dédié aux écoulements fluides. Nous montrerons ensuite comment ce problème d'estimation du mouvement peut être étendu de façon à inclure un modèle dynamique de l’écoulement. La coopération entre le modèle dynamique et les observations extraites des images est ici exprimée soit dans un cadre de filtrage stochastique soit par le biais d’une technique de contrôle optimal. Nous montrerons également comment les techniques d'assimilation peuvent être utilisées afin d'estimer un modèle dynamique empirique de l’écoulement ou de variables géométriques de l'image. - Caroline Petitjean (LITIS, Université de Rouen) : Image segmentation with statistical shape prior.
In many segmentation applications, the shape of the object to be segmented is known a priori, up to a few variabilities. Automatic segmentation can benefit from the use of information regarding shape and/or gray levels, to increase its robustness against noise and occlusions. In particular, the shape knowledge may be incorporated by first constructing a shape space from training cases, and then constraining the segmentation results to be within the learned shape space. The shape space can be constructed with statistical analysis, e.g. with tools such as PCA. The main assumption of PCA is that the shape is a linear space, which might not hold for real world shape set. Thus non linear techniques have developed (such as Laplacian eigenmaps and diffusion maps) and a framework for image segmentation based on non linear shape modeling has been proposed recently. Statistical models can be integrated in any variational approaches for segmentation (active contour, Markov Random field…), still some challenges remain. In this talk we will present a graph cut based approach, with a non linear statistical model used to encode the shape variation. We will show some results on a medical imaging application. - Julien Rabin (GREYC, Université de Caen): Co-segmentation non-supervisée d'images par les distances de Sinkhorn.
Nous proposons une formulation convexe et robuste du problème de co-segmentation de paire d'images non supervisé. Ce modèle définit l'adéquation statistique des régions segmentées dans le cadre du transport optimal, en mesurant le coût de transport entre les histogrammes de descripteurs (ici la couleur).
Afin de réduire la complexité de mise en oeuvre de ce modèle, le coût de transport optimal est approximé par les distances de Sinkhorn, qui sont formulées comme la régularisation entropique du transport optimal. Un algorithme itératif exploitant la formulation primale-duale du problème est utilisé pour résoudre le problème de manière efficace et exacte.
- Jérôme Lapuyade-Lahorgue (LITIS, Université de Rouen) : Techniques d'inférence bayésienne en segmentation statistique d'images. Application à la fusion d'images TEP multi-traceur.
Dans cet exposé, je présenterai dans un premier lieu l'inférence bayésienne en toute généralité ainsi que les différents domaines d'application de l'inférence bayésienne. Dans cette première partie essentiellement mathématique, je parlerai des différents modèles statistiques utilisés ainsi que des estimateurs des modèles associés. J'introduirai la notion de copule et son lien avec les mesures scalaires de dépendance telles que les corrélations de Pearson, de Spearman et de Kendall. J'aborderai différentes familles de copules telles que les copules elliptiques dont la copule gaussienne fait partie, les copules archimédiennes ainsi que des copules issues de modèles de régression non linéaires. Je présenterai également la théorie bayésienne de l'information ainsi que son application en tests statistiques du type "Neyman-Pearson". Dans un second temps, nous nous focaliserons sur l'application de l'inférence bayésienne en imagerie TEP multi- traceurs. L'inférence bayésienne est essentiellement utilisée pour la détection des volumes tumoraux en estimant pour chaque voxel la valeur binaire d'appartenance à la tumeur. Cette valeur booléenne d'appartenance constitue l'état caché du modèle bayésien. Je présenterai les travaux effectués sur l'utilisation des copules pour la fusion d'images TEP issues de différents traceurs (FDG, FLT, FMISO) ainsi que les problématiques futures à savoir : le choix automatique du modèle statistique à copules, la détection de tumeur résiduelle en utilisant des tests de Neyman-Pearson et l'historique avant et pendant traitement et l'utilisation des copules pour corriger les effets de volume partiel.
This workshop is supported by M2NUM project (GRR LMN - Haute Normandie)
and Normandie Mathématiques (FR CNRS 3335)
and 'Axe Image' de NormaStic (FR CNRS 3638)
and GDR CNRS 2286 Mathématiques de l'Imagerie et de ses Application.
En lien avec les thématiques du GT SMAI-SIGMA