Vendredi 18 juin 2010 - 13h30 - amphi 260
|
Local and global shape models for medical image analysis
Yoshinobu Sato - Department of Radiology,
Graduate School of Medicine, Osaka University
Abstract: Shape models of the organs, in which global and local shape constraints are embedded, are useful for shape discrimination and recovery of organ and tissue structures from medical images. Firstly, as local shape models, parametric shape models of tubular and sheet structures are used for accurate recovery of thin structures, such as peripheral vessel and articular cartilage, from 3D images by combining constraints derived from the eigenvalues of the Hessian matrix. Secondly, as global shape models, hierarchical statistical atlases are utilized for the abdominal organ and hip joint segmentation in order to incorporate not only global constraints but also relatively local constraints into the atlases. Finally, future perspective of statistical atlases is described, including their applications to automated surgical planning.
|
Jeudi 17 juin 2010 - 13h30 - amphi 210
|
Chaînes de Markov discrètes, discrétisation de processus de diffusion et de fonctions de Green. Applications au débruitage d'images
Marc Sigelle - TELECOM ParisTech
Résumé : Nous présentons d'abord les définitions et principales propriétés des chaînes de Markov à nombre discret et fini d'états. Nous présentons ensuite une méthode classique de discrétisation d'équations aux dérivées partielles de type elliptique (Laplace) et son interprétation en termes de marche aléatoire (diffusion) sur un réseau (graphe) fini. Enfin on présente l'application de ces résultats au débruitage d'images, avec ou sans processus contour.
Plus d'information...
|
Jeudi 3 juin 2010 - 13h30 - amphi 260
|
Vision Artificielle par Apprentissage Automatique Multi-Niveau
Yann Le Cun - Courant Institute of Mathematical Sciences, New York University
Résumé : Le système visuel des animaux et des humains apprend spontanément, et sans effort apparent, à reconnaître et à localiser des objets, à reconnaître des endroits, et à naviguer entre les obstacles. Quel "algorithme" d'apprentissage utilise le cortex visuel pour s'organiser ? Pourrait-on entraîner des robots à voir, simplement en leur faisant regarder leur entourage comme les animaux ? Un des principaux défis de l'apprentissage automatique et de la vision par ordinateur est de produire des architectures et des méthodes d'apprentissage qui pourraient apprendre de telles tâches visuelles complexes à partir d'images et de vidéos brutes et non-étiquetées. A l'instar des systèmes visuels biologiques, de tels systèmes de vision doivent posséder une architecture multi-niveaux qui calcule une hiérarchie de représentations apprises. L'empilement de plusieurs étages permet d'extraire des primitives de plus en plus globales, abstraites, et invariantes: pixels, contours, motifs, parties d'objets, objets, scènes. Le dévelopement récents des techniques "d'apprentissage profond" (deep learning), a produit des algorithmes pouvant entraîner de telles architectures multi-étages de manière non-supervisée et supervisée.
Tout d'abord, je décrirai le modèle classique de réseau convolutif supervisé, dont l'architecture est conceptuellement inspirée de celle du cortex visuel. Chaque étage est constitué d'une série de filtres, suivie d'une opération non-linéaire, et d'une opération de rassemblement spatial ("spatial pooling") qui produit de l'invariance vis-à-vis de petites transformation géométriques de l'entrée. Ensuite, je présenterai une classe d'algorithmes, basée sur les décompositions clairsemées, qui permet l'apprentissage de bonnes représentations (de bonnes primitives) de manière non-supervisée.
Des applications seront décrites, accompagnées de démonstrations en temps réel pour la détection et la reconnaissance d'objets. D'excellentes performancess en reconnaissance peuvent être obtenues sur des bases de données standard. Une autre application pour la navigation visuelle de robots mobiles en environement extérieur naturel sera décrite. Après une phase d'apprentissage non-supervisé en laboratoire, le système s'auto-entraîne de manière entièrement autonome, pendant qu'il se déplace, à classifier les obstacles des zone traversables. Il utilise des étiquettes pour les zones proches, produites par un système de vision stéreo. D'autres applications de l'apprentissage profond produites par notre labo et par d'autres seront mentionnées.
Collaborateurs: Y-Lan Boureau, Clément Farabet, Rob Fergus, Karol Gregor, Raia Hadsell, Koray Kavakcuoglu, Marc'Aurelio Ranzato, Pierre Sermanet.
|
Jeudi 3 juin 2010 - 15h00 - amphi 260
|
NeuFlow: A Custom Data-Flow Computer for Visual Processing
Clément Farabet
- Courant Institute of Mathematical Sciences, New York University
and Electrical Engineering Dept, Yale University
Résumé : Les algorithmes de vision qui offrent les meilleures performances en termes de reconnaissance d'objets sont pour la plupart basés sur une extraction hiérarchique de primitives/caractéristiques à partir d'images brutes. Ces systèmes ont une architecture commune, composée d'une banque de filtres (appris ou choisis en fonction des applications: filtres de Gabor), d'une transformation non-linéaire (quantification, seuil, normalisation, sigmoïde), et d'une opération de réduction (max, moyenne ou histogramme). Les réseaux convolutifs (ConvNets) font partie de cette classe. Leur architecture, inspirée par la biologie, est capable de capturer des dépendances complexes présentes dans les images naturelles, et s'est prouvée très efficace dans des applications de reconnaissance d'objets, détection de visages, ou de segmentation de scènes naturelles.
Je présenterai un nouveau processeur basé sur les ordinateurs dataflow, parfaitement adapté pour calculer ce type d'algorithme de vision en temps réel sur des images ou flux vidéo. Les premiers calculateurs dataflow sont apparus dans les années 60, avec l'intention de formaliser et de simplifier le parallélisme. Cette classe d'architecture se révèle complexe à programmer et utiliser dans des applications classiques qui requièrent un contrôle d'exécution précis, mais elle se montre extrêmement performante dans des applications orientées données avec des fortes contraintes de bande passante/mémoire. Le gain obtenu en consommation et vitesse de calcul pourrait permettre d'ajouter des capacités de vision complexe à des systèmes embarqués tels que les micro-drones, mini-robots, téléphones sans fil, ...
Tout d'abord je décrirai notre architecture dataflow, à commencer par des considérations et choix de bas niveau (chemins de données, pipelines de calcul, distribution de la mémoire), puis, en remontant les couches d'abstraction, conclurai sur un langage unifié basé sur les 'flows' qui permet de décrire naturellement des pipelines complexes de traitement de l'image/vidéo, tout en exprimant le parallélisme de façon explicite. Enfin je donnerai des comparaisons entre plusieurs plateformes: un Intel Pentium; les GPUs nVidia via leur API (CUDA); notre plateforme custom construite autour d'un FPGA Virtex-4, et notre dernière génération de grille dataflow, actuellement simulée sur un FPGA Virtex-6, et destinée à un process IBM 65nm.
Mots-clés : convolutional networks, dataflow, flow-based programming, FPGA, GPGPU
En collaboration avec : Yann LeCun, Eugenio Culuricello, Berin Martini, Polina Akselrod, Selcuk Talay, Benoit Corda.
|
Jeudi 27 mai 2010 - 13h30 - amphi 260
|
Universal models for targeted image segmentation
Leo Grady - Siemens Corporation, Corporate Research, Princeton
Abstract: Traditional image segmentation methods have the goal of localizing all objects which are present in an image. In contrast, many practical applications of image segmentation (e.g., medical imaging) seek to localize a particular object within an image. Unfortunately, the design of these targeted image segmentation algorithms is often very specific to the particular object and acquisition device, which requires a new algorithm design for each targeted segmentation application. I will discuss the progress in our community toward creating a universal segmentation algorithm which can successfully find any target object in any image when sufficient targeting information has been supplied.
|
Vendredi 21 mai 2010 - 13h30 - amphi 160
|
Hyperaccurate Least Squares and Its Applications
Kenichi Kanatani - Department of Computer Science, Okayama University, Okayama Japan
Abstract: Fitting an algebraic equation to observed data is one of the first steps of many computer vision applications. For example, we fit lines and curves to points in 2D and planes and surfaces in 3D. Computing computing the fundamental matrix or the homography matrix can also be viewed as fitting in a high-dimensional space.
A naive way for this is the least squares, also known as ``algebraic distance minimization'', minimizing the sum of squares of terms that should be zero in the absence of noise, and the solution is obtained by algebraic operations without iterations. However, this is known to be of low accuracy, and known high-accuracy methods are based on maximum likelihood (ML).
The problem of all ML-based methods, including bundle adjustment, FNS, and HEIV, is that they require iterations, which may not converge in the presence of large noise. Also, an appropriate initial guess is necessary to start the iterations. Thus, accurate algebraic procedure that yields high accuracy solution, even though it is not exactly optimal, is very much desired.
In this talk, we propose a new approach to improve the algebraic fitting based on least squares to the utmost accuracy, which we call ``hyperaccuracy''. We analyze the error of a general parameterized algebraic fitting scheme up to high order noise terms and adjust the parameters so that the resulting solution has the highest accuracy. We apply our analysis to ellipse fitting and homography computation. By simulation, we demonstrate that our approach indeed produces an accurate solution even in highly noisy situations where ML-based iterations fail to converge.
|
Jeudi 27 avril 2010 - 16h
|
Modeling Brain Circuitry using Scales Ranging from Micrometer to Nanometer
Pascal Fua - Computer Vision Lab, EPFL
Abstract: If we are ever to unravel the mysteries of brain function at its most fundamental level, we will need a precise understanding of how its component neurons connect to each other. Furthermore, given the many recent advances in genetic engineering, viral targeting, and immunohistochemical labeling of specific cellular structures, there is a growing need for automated quantitative assessment of neuron morphology and connectivity.
Electron microscopes (EM) can now provide the nanometer resolution that is needed to image synapses, and therefore connections, while Light Microscopes (LM) see at the micrometer resolution required to model the 3D structure of the dendritic network. Since both the arborescence and the connections are integral parts of the brain's wiring diagram, combining these two modalities is critically important.
In fact, these microscopes now routinely produce high-resolution imagery in such large quantities that the bottleneck becomes automated processing and interpretation, which is needed for such data to be exploited to its full potential. We have therefore begun looking into both processing images acquired using a specific modality and creating an integrated representation using all available modalities. In particular, we are working on approaches to building the dendritic arborescence from LM images and to segmenting intra-neuronal structures from EM images.
More...
|
Jeudi 15 avril 2010 - 13h30 - amphi 110
|
Analyse de données complexes : l’approche symbolique
Edwin Diday - CEREMADE, Université Paris-Dauphine
Résumé : Dans le site de ECML/PKDD 2007 consacré à la fouille de données complexes, ce type de données est défini de la façon suivante : « contrairement aux données classiques tabulaires, les données complexes sont constituées de données hétérogènes, provenant de différentes sources dans des espaces de grandes dimensions. Elles conduisent à de nouvelles stratégies de traitement. ». Parfois les données complexes proviennent d’objets complexes comme des images , des textes, des signaux ou leur mélange (ce qui se produit par exemple, pour les données médicales associées à un patient) ; parfois elles concernent leur structure qui peut être distribuée ou relationnelles par exemple.
Dans la pratique, les données complexes se ramènent souvent à des tableaux multiples plus ou moins reliés entre eux par certaines variables dans une base de données relationnelle. La fusion de ces différentes tables afin d’en extraire des connaissances nouvelles fait apparaître des « données symboliques » pour exprimer la variation des données fusionnées. Les données symboliques constituent une extension des données classiques, (de type qualitatif ou quantitatif), car elles décrivent les observations par des intervalles, des distributions, des suites de valeur qui peuvent être pondérées.
Pour traiter les données complexes, on présentera une stratégie à deux étapes : la première consiste à fusionner les données complexes pour aboutir à une table de données symboliques, la seconde à analyser cette table par des méthodes adaptée aux données symboliques qui contiennent comme cas particulier les méthodes du Data Mining ou de l’Analyse des Données classiques. On présentera quelques avancées récentes dans ce domaine, en particulier une extension de la classification hiérarchique aux pyramides spatiales (qui peuvent êtreconceptuelles) ou l’ACP au cas de variables à valeur diagramme où l’on montre que les variables symboliques utilisées se projettent dans le plus petit hypercube (de côtés parallèles aux axes factorielles), qui contient la sphère des corrélations. Plusieurs applications industrielles concernant des données complexes illustreront cet exposé en particulier l’étude de la dégradation de tours de refroidissement de centrales nucléaires d’EDF.
|
Mardi 13 avril 2010 - 10h00 - amphi 110
|
Cardiac Segmentation in MR Cine Data Using Inverse Consistent Deformable Registration
Marie-Pierre Jolly - Siemens Corporation, Corporate Research, Princeton
Abstract: This talk is about a registration-based segmentation technique to fully automatically segment the left ventricle in cardiac cine magnetic resonance studies. We propose an inverse consistent deformable registration algorithm to recover one set of forward and backward deformation fields that allow us to access the deformation from any frame to any other frame in the cardiac sequence. Cardiac phases are segmented using a shortest path algorithm and time consistency is enforced through the deformation fields. We demonstrate on 52 datasets with expert outlined ground truth that the algorithm produces accurate (1.39 pixels median error, 2.10 pixels RMS error, 0.88 Dice coefficient) and fast (0.3 s/image) results.
|
Jeudi 25 mars 2010
|
Atelier doctotants
Generic Initialization Step for Motion Capture From 3D Shape
Benjamin Raynal - A3SI/LIGM/UPEMLV
Abstract:
Real time and markerless motion capture is an active research area, due to applications in human-computer interactions, for example. A large part of the existing markerless motion capture methods require an initialization step, consisting in finding the initial position of the different limbs of the subject.
We propose a new method for interactive time initialization step, only based on morphological and topological information and which can be easily adapted to any kind of model (full human body or only hand, animals, for example).
Parallel Algorithm for Concurrent Computation of Connected Component Tree
Petr Matas - A3SI/LIGM/ESIEE - Univ. of West Bohemia in Pilsen
Abstract:
A new parallel connected-component-tree construction algorithm based on line independent building and progressive merging of partial 1-D trees will be presented. Two parallelization strategies were developed: the parallelism maximization strategy, which balances the workload of the processes, and the communication minimization strategy, which minimizes communication among the processes. The new algorithm is able to process any pixel data type, thanks to not using a hierarchical queue. The algorithm needs only the input and output buffers and a small stack. A speedup of 3.57 compared to the sequential algorithm was obtained on Opteron 4-core shared memory ccNUMA architecture. Performance comparison with existing state of the art is also discussed. An FPGA implementation will discussed.
Software Architecture for Generic Image Processing Tools
Roland Levillain - A3SI/LIGM/EPITA
Abstract:
Most image processing frameworks are not generic enough to provide effective reusability of data structures and algorithms, while preserving performance and ease of use as well as remaining close to theory. In fact, programming languages, tools and implementation habits do not generally favor generic approaches; yet genericity allows users to write and experiment virtually any method on any compatible inputs. In this presentation, we propose an image processing framework centered on the paradigm of generic programming, addressing both practical and theoretical needs of scientists and developers: fast and reusable methods, progressive level of genericity, ability to handle large data sets, automatic and efficient memory management, safe type-checking, orthogonality of data structures and algorithms, etc. This approach enables users to design and implement new methods without the usual constraints imposed by software tools, explore cross-domain experiments, generalize results, and easily transform prototypes into efficient applications.
Advances in Continuous Maximum Flow algorithms
Lazlo Marak - A3SI/LIGM/ESIEE
Abstract:
In this talk we focus on describing efficient paralllel implementations of Continuous Maximum Flows (CMF). Proposed a few years ago, CMFs are used in image segmentation and filtering. They are the equivalent of graph cuts in the continous domain, and correspond to a convex formulation of the geodesic active contour model. With some extentions they can be used for efficient Total Variation-based convex denoising.
Although the original formulation of CMFs is simple and apparently trivial to parallelize, an efficient implementation is a significant undertaking. On CPUs, memory bandwidth limitations prevent good performances, especially in multi-processors setting. On GPUs, an implementation may be still more problematic due to lack of per-thread logic unit. In this talk we present a reasonable multi-CPU implementation with ideas for future improvements. We show that CMFs can exhibit very good performances especially in 3D. This implementation is available in a new version of Pink, featuring a library design and a python interface.
We will also discuss some of the fundamental issues regarding CMFs, in particular the lack of a proof of convergence.
|
Jeudi 25 février 2010
|
Programmation par contraintes : le modèle CSP et les principales méthodes de résolution.
Bertrand Neveu - IMAGINE/ENPC/A3SI/LIGM
Résumé :
Nous présenterons les notions de bases de la programmation par contraintes :
- le modèle du problème de satisfaction de contraintes en domaines finis : le modèle CSP;
- les cohérences partielles (cohérence d'arc, de chemin);
- quelques contraintes globales (tous différents, contrainte globale de cardinalité).
Nous montrerons quelques problèmes pouvant se modéliser en CSP : coloriage de graphe, sudoku,
emploi du temps, tournoi sportif, chaîne de montage de véhicules.
Les principales méthodes de résolution complètes (recherche arborescente avec heuristique de choix
de variable et valeurs), et incomplètes (recherche locale avec voisinage et métaheuristiques )
seront ensuite présentées.
|
Grammaires stochastiques pour la reconnaissance d'objets
Bastien Jacquet - M2 IMA
Résumé :
Une nouvelle approche de la reconnaissance d'objet par la modélisation à l'aide de grammaires stochastiques dépendant du contexte. Les graphes ET-OU permettent de formaliser les contraintes contextuelles inhérente à chaque objet, pour ensuite parser des images dans le cadre bayésien.
Plusieurs problèmes seront abordés par la présentation de cas appliqués, de l'apprentissage du graphe et des relations de contraintes dans celui-ci, à l'utilisation de ce graphe pour détecter des objets.
|
Jeudi 4 février 2010
|
4-Points Congruent Sets for Robust Pairwise Surface Registration
Dror Aiger - LIGM/A3SI/ESIEE
Abstract:
We introduce 4PCS, a fast and robust alignment scheme for 3D pointsets that uses wide bases, which are known to be resilient to noise and outliers. The algorithm allows registering raw noisy data, possibly contaminated with outliers, without pre-filtering or denoising the data. Further, the method significantly reduces the number of trials required to establish a reliable registration between the underlying surfaces in the presence of noise, without any assumptions about starting alignment. Our method is based on a novel technique to extract all coplanar 4-points sets from a 3D pointset that are approximately congruent, under rigid transformation, to a given set of coplanar 4-points. This extraction procedure runs in roughly O(n^2+ k) time, where n is the number of candidate points and k is the number of reported 4-points sets. In practice, when noise level is low and there is sufficient overlap, using local descriptors the time complexity reduces to O(n + k). We also propose an extension to handle similarity and affine transforms. Our technique achieves an order of magnitude asymptotic acceleration compared to common randomized alignment techniques. We demonstrate the robustness of our algorithm on several sets of multiple range scans with varying degree of noise, outliers, and extent of overlap.
|
Jeudi 28 janvier 2010
|
The Content Ordering
Jean Serra - LIGM/A3SI/ESIEE
Abstract:
Given a set E, the partitions of E are usually ordered by merging of classes. In segmentation procedures, this ordering often generates small parasite classes. A new ordering, called content ordering, is proposed. It requires a connection over E and states that A ≤ B, with A,B ⊆ E, when each connected component of B contains a connected component of A. The content ordering extends to partitions, to tessellations, and to numerical functions.
Thickenings ψ with respect to the content ordering are introduced as extensive idempotent operators that do not create connected components. The composition product ψγ of a connected opening by a thickening is still a thickening. Moreover, when {γi, i ∈ I} is a granulometric family, then the two sequences {ψγi, i ∈ I} and {γiψ, i ∈ I} generate hierarchies, from which semi-groups can be derived. Finally, the approach allows us to combine any set of partitions or of tessellations into a synthetic one. Examples are given.
|
Jeudi 7 janvier 2010
|
Atelier doctotants
Quantitative analysis of the human airway trees
Michal Postolski - A3SI/ESIEE/University of Lodz
Abstract:
Modern medical computer tomography (CT) which uses multidetector spiral scanners can produce three-dimensional volumetric images of very high quality and simply allows to non-invasive look into inside of a human body. This is a very powerful and useful technique being used in a variety of medical applications. 3D volumetric scans of a human organs provide an excellent basis for quantification of anatomical structures, for example airway trees. Automatic quantitative description of an airway tree extracted from volumetric CT data set is a useful information supporting the non-invasive diagnosis of bronchial trees pathologies, especially chronic obstructive pulmonary disease (COPD) which is common name for pathological changes characterized by airflow limitation due to different combinations of airways disease and asthma - one of the most widespread disease in the world. Computer analysis of bronchial tree will allow a doctor to obtain precise data on the airway remodelling, which opens new possibilities such as: early identification of pathological changes, precise treatment control, diagnosis of the airway remodelling reason, development of new drugs, etc. The goal of the research is to build a system for automatic measurements of diameter of an airway lumen and thickness of an airway wall. The system should be suitable for use it in everyday clinical routine and due to application of modern effective image processing and analysis algorithms it should provide results of high accuracy.
Dense and Accurate Spatio-Temporal Multi-View Stereovision
Jérôme Courchay A3SI/ENPC
Abstract:
In this presentation, we will show a novel method to simultaneously and accurately estimate the 3D shape and 3D motion of a dynamic scene from multiple-viewpoint calibrated videos. We follow a variational approach in the vein of previous work on stereo reconstruction and scene flow estimation.
We adopt a representation of a dynamic scene by an animated mesh, i.e. a polygonal mesh with fixed connectivity whose time-varying vertex positions sample the trajectories of material points. Interestingly, this representation ensures a consistent coding of shape and motion by construction. Our method accurately recovers 3D shape and 3D motion by optimizing the positions of the vertices of the animated mesh. This optimization is driven by an energy function which incorporates multi-view and inter-frame photo-consistency, smoothness of the spatio-temporal surface and of the velocity field. Central to our work is an image-based photo-consistency score which can be efficiently computed and which fully handles projective distortion and partial occlusions. We demonstrate the effectiveness of our method on several challenging realworld dynamic scenes.
Réseau d'interconnexion dynamiquement adaptable pour des traitements vidéos multi-flux temps réel embarqué
Nicolas Ngan - A3SI/ESIEE
Résumé :
Les équipements de vision embarqués et mobiles doivent répondre aux contraintes fortes de temps réel (latence minimale), de consommation (autonomie en énergie), d'évolutivité et de prix. Les équipements modernes nécessitent d'intégrer des applications vidéo complexes (traitement temporel, fusion de trames, etc.) avec de multiples flux tout en conservant une flexibilité d'utilisation (modification d'une d'application par exemple). Une étude algorithmique de ces applications suivant les axes théoriques d'adaptabilité et de scalabilité d'architecture nous dirige vers des propositions permettant une adaptation dynamique du chemin de donnée entre les unités de calcul et une topologie d'interconnexion scalable qui respecte les différents modes d'exécution des tâches demandée par l'application. Ainsi, nous présentons une nouvelle architecture multi processeurs élémentaires dédiée au traitement vidéo multi-flux basée sur un réseau d'interconnexion en anneau dynamiquement adaptable. Cette architecture permet entre autres de réaliser une adaptation pipeline-parallèle des processeurs élémentaires pour traiter de multiples flux. Ce mécanisme a été implémenté pour une application vidéo particulière sur un FPGA.
Segmentation and classification of brain vessels from 3D MR images
Olena Tankyevych - A3SI/ESIEE
Abstract:
Segmentation and analysis of blood vessels is an important issue in medical imaging. In 3D cerebral angiographic data, the vascular signal is however hard to detect accurately and is often disconnected as a result.
As a filtering step, second-order derivatives are applied in order to detect the tubular objects and their direction. And later these directions are used to reconnect the vascular objects with novel spatially variant mathematical morphology operations.
Once the vessels networks are detected, filtered from background noise and reconnected, a seeded region growing method together with other methods is performed to segment the vessels.
Finally, the segmentation result is skeletonised and topological analysis is performed in order to find the centrelines of the vessels and their topological relationships.
|
Jeudi 17 décembre 2009
|
Le rôle du traitement d'images dans le diagnostic et le traitement percutané des maladies coronaires
Vincent Bismuth - GE Healthcare, LIGM
Résumé :
Les maladies coronaires sont, à échelle mondiale, la première cause de
mortalité. Elles touchent 3 millions de personnes en France et sont à
l'origine de 50 000 décès par an. Ce sont elles qui sont responsables
de l'infarctus aigu du myocarde appelé communément « crise cardiaque ».
Ces maladies peuvent être diagnostiquées et traitées de manière
minimalement invasive dans une salle de cathéterisation. Le geste du
médecin, ainsi qu'un certain nombre de ses décisions, sont guidés par
les vidéos produites en temps réel pendant l'intervention à l'aide de
rayons X. Cet exposé traitera dans un premier temps du contexte
médical. Nous illustrerons ensuite le rôle qu'y joue le traitement
d'images dans les applications de présentation d'images, de
quantification automatique de pathologies et de débruitage.
|
Vendredi 11 décembre 2009
|
Soutenance de thèse : Multi-view Reconstruction and Texturing
Ehsan Aganj - LIGM/A3SI, ENPC/IMAGINE
Abstract:
In this thesis, we study the problem of static and dynamic multi-view
reconstruction and texturing, particularly focusing on real
applications. First, we propose three reconstruction methods sharing
the objective of estimating a representation of a static/dynamic scene
from a set of multiple images/videos. Then, we consider the problem of
multi-view texturing, focusing on the visual correctness of the
rendering. The contributions of this thesis are as follows,
- A shape from silhouette approach is proposed producing a compact
and high quality 4D representation of the visual hull, offering easy
and extensive control over the size and quality of the output mesh as
well as over its associated reprejection error.
- A dynamic multi-view reconstruction method is proposed computing
a 4D representation of a dynamic scene, based on a global optimization
of a true spatio-temporal energy, taking visibility into account.
- A photo-consistent surface reconstruction method is proposed
incorporating the input images for better accuracy and robustness.
- A multi-view texturing method is proposed computing a visually correct texturing of an imprecise mesh.
Manuscrit
|
Jeudi 10 décembre 2009
|
Relations on Graphs and Hypergraphs
John Stell - School of Computing, University of Leeds
Abstract:
The theory of rough sets provides one approach to understanding data at
different levels of detail. An equivalence relation on a set can
represent a notion of indistinguishability and arbitrary subsets can
then be described approximately with respect to this relation. While
this is very well-known, the generalization to graphs raises a number
of issues such as: what should we mean by a relation on a graph or a
hypergraph, and what role do these relations play in describing graphs
at multiple levels of detail?
Another approach to granularity is provided by mathematical
morphology which, in a sense, subsumes rough set theory. In this talk I
will discuss relations on graphs and hypergraphs and their connections
with the lattice-theoretic account of mathematical morphology. A
particular technical question is whether there is a good notion for the
converse of a relation on a graph, and it should mean for a relation on
a graph to be symmetric.
|
Vendredi 4 décembre 2009
|
Soutenance de thèse : Simplification polyedrique optimale pour le rendu
Émilie Charrier - LIGM/A3SI, ESIEE
Résumé
|
Vendredi 4 décembre 2009
|
Soutenance de thèse : La présence en réalité virtuelle, une approche centrée utilisateur
Patrice Bouvier - LIGM/A3SI, UPEMLV
Résumé
|
Jeudi 26 novembre 2009
|
Soutenance de thèse : Manifold learning and applications to shape and image processing
Nicolas Thorstensen - LIGM/A3SI, ENPC/IMAGINE
|
Jeudi 19 novembre 2009
|
Calcul Hautes Performances sur processeur graphique
Alexis Hérault - Chercheur associé à l'Istituto Nazionale di Geofisica e Vulcanologia (Catane, Italie)
Résumé :
Les processeurs graphiques (GPU), massivement parallèles, d'un à deux
ordres de grandeurs plus puissants que les CPU, se révèlent
particulièrement prometteurs pour le calcul scientifique. Encore
faut-il avoir les outils de développement adéquats pour les programmer
en dehors d'un contexte strictement graphique. C'est chose faite depuis
maintenant deux ans, date à laquelle NVidia a mis à disposition des
utilisateurs un compilateur et un ensemble d'outils (le Compute Unified
Device Architecture, CUDA) dédiés à ses processeurs.
C'est dans ce cadre que nous nous avons implémenté sur GPU un code de
calcul basé sur les Smoothed Particles Hydrodynamics (SPH) pour la
simulation d'écoulements complexes et en particulier de coulées de
lave. Par rapport à un coeur de CPU le gain en performances est de deux
ordres de grandeurs.
Nous présenterons les SPH, l'architecture du code et en particulier les
spécificités liées aux GPU ainsi que les résultats obtenus.
|
Jeudi 1 septembre 2009
|
Total Variation, Relaxation and Convex Optimization for Image Segmentation and Graph Clustering
Xavier Bresson, UCLA
Abstract:
In this talk, I will introduce two algorithms for image segmentation
and graph clustering. One of the most influential image segmentation
models is the Mumford-Shah's model (1800 citations). Several algorithms
such as the level set method have been introduced to compute a
minimizing solution to the MS's problem, but none of them can compute a
global solution. We introduce a convex formulation for the multiphase
piecewise constant MS problem (which is equivalent to the NP-hard
problem of Potts in the discrete literature) and compute exact global
minimizing solutions. We believe our method is the first in the
literature that can make this claim. The second model will focus on
graph clustering, which aims at grouping similar high-dimensional data
s.a. images. The main problem of graph clustering is to minimize a cut
of the graph. Popular cuts are the normalized cut of Shi-Malik (3000
citations) and the Cheeger's cut, which are NP-hard problems. We
introduce a continuous relaxation of the Cheeger's cut problem and we
show that the relaxation is actually equivalent to the original
problem, which is not the case with the Shi-Malik's relaxation. We also
give an algorithm which is experimentally very efficient on some
clustering benchmarks since the algorithm can cluster 10,000
high-dimensional points in a few seconds.
This is joint work with T. Chan (NSF & UCLA), E. Brown, T. Goldstein, S. Osher (UCLA), and A. Szlam (NYU).
|
|
|