Détails du projet

Type: Projet du centre CRTI
Organisme: Centre de Recherche en Technologies Industrielles (CRTI)
Unité: Centre de recherche en technologie industrielles CRTI
Division: Division de Traitement du Signal et Imagerie
Equipe résponsable: Equipe N°10 « Segmentation et analyse d’images »
Période: 2019 - 2021
Version PDF: (.pdf)
Mots Clés: segmentation d’images, gradient, level sets, approche variationnelle, méthodes Bayésiennes paramétriques et non paramétriques.
Description:
La segmentation automatique des images est une étape cruciale pour de nombreux systèmes de traitement de l’information. A titre d’exemples, on peut citer : les systèmes de vision, d’imagerie (médicale, astrophysique,..), de contrôle non destructif et bien d’autres encore. Le sujet a déjà souvent été abordé et par de multiples approches. Ces approches reposent sur des outils variés tels que la morphologie mathématique, la décomposition en ondelettes, les contours actifs, les statistiques bayésiennes,... Certaines sont fondées sur la détection de contours d’autres au contraire sur l’identification de régions. Chacune de ces classes de méthodes possèdent ses avantages et ses inconvénients. Le cadre Bayésien est de plus en plus populaire pour résoudre de nombreux problèmes mal posés tels que la segmentation et le suivi d’objets. De plus, grâce au développement des méthodes de Monte Carlo par Chaines de Markov, il est maintenant possible de réaliser des segmentations d’images qui soient complètement bayésiennes. Dans ce projet nous nous focaliserons sur les modèles bayésiens non paramétriques qui définissent une distribution de probabilité sur des espaces fonctionnels (de dimension infinie). Un modèle non paramétrique peut ainsi être simplement considéré comme un modèle statistique avec un nombre infini de paramètres. Une définition alternative est un modèle dont la complexité augmente avec le nombre de données. Ceci évite ainsi de fixer la complexité ou l'ordre du modèle,le nombre de paramètres pouvant augmenter dynamiquement avec le nombre de données. Nous avons donc commencé par étudier quelques méthodes d’échantillonnage (Gibbs,Metropolis Hasting,..) et nous avons programmé quatre algorithmes. Les deux premiers algorithmes ont concerné les processus des restaurants chinois (Chinese Restaurant Process and Pitman-Yor Chinese Restaurant Process) qui trouvent des applications en statistiques dans ce qu'on appelle les modèles de mélange (mixture models). Les deux autres algorithmes permettent de générer les poids utilisés dans la représentation (stick-breaking construction) du processus de Dirichlet et du processus de Pitman-Yor. On a ensuite utilisé les méthodes MCMC par échantillonnage de Gibbs qui est un cas particulier de l’algorithme de Metropolis-Hastings pour échantillonner selon la densité a posteriori marginale. Les premiers résultats concernant des signaux synthétiques ont été satisfaisants. Durant les trois prochaines années, nous envisageons d’étudier et d’implémenter les trois algorithmes suivants : ? Etude de l’algorithme Gibbs sampler basé sur le processus du restaurant chinois? Etude de l’algorithme collapsed Gibbs sampler basé sur le processus du restaurant chinois ? Etude de l’algorithme Gibbs sampler basé sur sur l’urne de Blackwell Mac Queen