• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 114
  • 76
  • 11
  • 2
  • Tagged with
  • 210
  • 90
  • 46
  • 33
  • 33
  • 33
  • 33
  • 32
  • 32
  • 30
  • 26
  • 24
  • 23
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Modèles déformables 2-D et 3-D : application à la segmentation d'images médicales

Cohen, Isaac 03 June 1992 (has links) (PDF)
La segmentation d'images à l'aide des modèles déformables permet d'imposer des contraintes globales aux contours détectés. La résolution des équations aux dérivées partielles caractérisant les courbes et les surfaces déformables est faite à l'aide d'une méthode d'éléments finis conformes. Cette méthode plus élaborée, permet une détection des points de contour 2-D et 3-D plus précise et une réduction de la complexité algorithmique par rapport à la méthode des différences finies. Le modèle de courbes déformables a permis d'établir une première segmentation d'images 3-D ainsi qu'un suivi de structures dans des images spatio-temporelles. Ce suivi global a été complété par un suivi ponctuel des contours à l'aide d'une description explicite de la mise en correspondance basée sur les caractéristiques géométriques de la courbe et la régularité du champ de déplacement. Nous proposons également une méthode de détermination des paramètres de régularisation à partir de la géométrie de la surface (ou de la courbe) et des données. Cette méthode permet d'imposer implicitement des discontinuités de position et de tangente aux modèles déformables 2-D et 3-D. L'ensemble des modèles proposés est illustré par des expérimentations sur des images synthétiques et médicales.
92

Modélisation, déformation et reconnaissance d'objets tridimensionnels à l'aide de maillages simplexes

Delingette, Hervé 05 July 1994 (has links) (PDF)
Dans cette thèse, une représentation originale d'objets tridimensionnels est introduite: les maillages simplexes. un k-maillage simplexe est un maillage ou chaque sommet est connecte à k + 1 sommets voisins. Ainsi un contour est représenté par un 1-maillage simplexe et une surface tridimensionnelle par un 2-maillage simplexe. La structure d'un maillage simplexe est duale de celle des triangulations. Plusieurs propriétés topologiques et géométriques originales rendent l'utilisation des maillages simplexes particulièrement bien adaptée à la représentation de surfaces déformables. Nous introduisons la notion d'angle simplexe, de courbure moyenne discrète et de paramètre métrique à chaque sommet du maillage. La propriété géométrique essentielle des maillages simplexes est la possibilité de représenter localement la forme d'un k-maillage en un sommet à l'aide de (k + 1) quantités adimensionnées. Les maillages simplexes déformables sont alors utilisés dans un système de modélisation d'objets tridimensionnels. En présence d'images volumiques ou de profondeur, un maillage simplexe est déformé sous l'action de forces régularisantes et de forces externes. Les maillages simplexes sont adaptatifs à plusieurs titres. D'une part, les sommets se concentrent aux endroits de fortes courbure et d'autre part, le maillage peut être raffiné ou décimé en fonction de la proximité des sommets aux données. Enfin, l'utilisation de maillages simplexes sphériques quasi-réguliers permet la reconnaissance de forme d'objets tridimensionnels, même en présence d'occultations. La forme d'un objet est alors représentée par l'ensemble des valeurs des angles simplexes du maillage simplexe déformé, projeté sur le maillage sphérique originel. La forme de deux objets est comparée par l'intermédiaire de leur image simplexe (simplex angle image)
93

Analyse fractale d'une famille de fonctions aléatoires: les fonctions de bosses

Demichel, Yann 24 November 2006 (has links) (PDF)
Nous étudions les séries aléatoires définies sur R^D par F(t) = Σ n^(-α/D)G(n^(1/D)(t − Xn)) , où α > 0, G est une "bosse élémentaire" et (Xn)n>1 une suite de variables aléatoires indépendantes et de même loi. Nous commençons par discuter l'existence de séries plus générales, appelées fonctions de bosses, en soulignant le rôle de chacun des paramètres. C'est dans ce cadre que sont établies des conditions suffisantes d'intégrabilité, d'existence et de continuité. Nous poursuivons l'étude de la régularité presque sûre des trajectoires du modèle standard et déterminons en particulier un exposant de Hölder uniforme. Nous nous intéressons alors naturellement aux dimensions fractales de son graphe. Pour cela, nous développons des outils d'analyse généraux permettant de traiter les fonctions uniformément höldériennes. Nous énonçons des résultats concernant l'estimation des dimensions de boîte et de régularisation, et, plus généralement, d'une large classe d'indices dimensionnels, certains liés à l'analyse multifractale. Nous calculons ensuite<br />la dimension de Hausdorff du graphe de F . La seconde partie de notre thèse est consacrée à l'application des fonctions de bosses à la modélisation de profils rugueux. On met en évidence de nouvelles propriétés théoriques, notamment à l'aide des fonctions de structure. Celles-ci donnent<br />naissance à des diagrammes logarithmiques, les courbes de structure, qui permettent d'analyser un signal en tenant compte des contraintes expérimentales. Elles sont utilisées pour l'identification d'une fonction de bosses et l'estimation de ses paramètres. Nous proposons pour cela de nombreuses méthodes en construisant des estimateurs adaptés. Il est alors possible de modéliser un signal donné par une fonction de bosses. Les courbes de structure servent encore à l'élaboration de critères de conformité. Des exemples de données théoriques et expérimentales illustrent notre propos.
94

Pénalités hiérarchiques pour l'ntégration de connaissances dans les modèles statistiques

Szafranski, Marie 21 November 2008 (has links) (PDF)
L'apprentissage statistique vise à prédire, mais aussi analyser ou interpréter un phénomène. Dans cette thèse, nous proposons de guider le processus d'apprentissage en intégrant une connaissance relative à la façon dont les caractéristiques d'un problème sont organisées. Cette connaissance est représentée par une structure arborescente à deux niveaux, ce qui permet de constituer des groupes distincts de caractéristiques. Nous faisons également l'hypothèse que peu de (groupes de) caractéristiques interviennent pour discriminer les observations. L'objectif est donc de faire émerger les groupes de caractéristiques pertinents, mais également les caractéristiques significatives associées à ces groupes. Pour cela, nous utilisons une formulation variationnelle de type pénalisation adaptative. Nous montrons que cette formulation conduit à minimiser un problème régularisé par une norme mixte. La mise en relation de ces deux approches offre deux points de vues pour étudier les propriétés de convexité et de parcimonie de cette méthode. Ces travaux ont été menés dans le cadre d'espaces de fonctions paramétriques et non paramétriques. L'intérêt de cette méthode est illustré sur des problèmes d'interfaces cerveaux-machines.
95

Méthodes multivariées pour l'analyse jointe de données de neuroimagerie et de génétique

Le Floch, Edith 28 September 2012 (has links) (PDF)
L'imagerie cérébrale connaît un intérêt grandissant, en tant que phénotype intermédiaire, dans la compréhension du chemin complexe qui relie les gènes à un phénotype comportemental ou clinique. Dans ce contexte, un premier objectif est de proposer des méthodes capables d'identifier la part de variabilité génétique qui explique une certaine part de la variabilité observée en neuroimagerie. Les approches univariées classiques ignorent les effets conjoints qui peuvent exister entre plusieurs gènes ou les covariations potentielles entre régions cérébrales.Notre première contribution a été de chercher à améliorer la sensibilité de l'approche univariée en tirant avantage de la nature multivariée des données génétiques, au niveau local. En effet, nous adaptons l'inférence au niveau du cluster en neuroimagerie à des données de polymorphismes d'un seul nucléotide (SNP), en cherchant des clusters 1D de SNPs adjacents associés à un même phénotype d'imagerie. Ensuite, nous prolongeons cette idée et combinons les clusters de voxels avec les clusters de SNPs, en utilisant un test simple au niveau du "cluster 4D", qui détecte conjointement des régions cérébrale et génomique fortement associées. Nous obtenons des résultats préliminaires prometteurs, tant sur données simulées que sur données réelles.Notre deuxième contribution a été d'utiliser des méthodes multivariées exploratoires pour améliorer la puissance de détection des études d'imagerie génétique, en modélisant la nature multivariée potentielle des associations, à plus longue échelle, tant du point de vue de l'imagerie que de la génétique. La régression Partial Least Squares et l'analyse canonique ont été récemment proposées pour l'analyse de données génétiques et transcriptomiques. Nous proposons ici de transposer cette idée à l'analyse de données de génétique et d'imagerie. De plus, nous étudions différentes stratégies de régularisation et de réduction de dimension, combinées avec la PLS ou l'analyse canonique, afin de faire face au phénomène de sur-apprentissage dû aux très grandes dimensions des données. Nous proposons une étude comparative de ces différentes stratégies, sur des données simulées et des données réelles d'IRM fonctionnelle et de SNPs. Le filtrage univarié semble nécessaire. Cependant, c'est la combinaison du filtrage univarié et de la PLS régularisée L1 qui permet de détecter une association généralisable et significative sur les données réelles, ce qui suggère que la découverte d'associations en imagerie génétique nécessite une approche multivariée.
96

Diagnostic non invasif de piles à combustible par mesure du champ magnétique proche

Le Ny, Mathieu 10 December 2012 (has links) (PDF)
Cette thèse propose une technique innovante de diagnostic non invasive pour les systèmes piles à combustible. Cette technique s'appuie sur la mesure de la signature magnétique générée par ces systèmes. A l'aide de ces champs magnétiques externes, il est possible d'obtenir une cartographie de la densité de courant interne par résolution d'un problème inverse. Ce problème est néanmoins mal posé : la solution est non unique et est extrêmement sensible au bruit. Des techniques de régularisation ont ainsi été mises en place pour filtrer les erreurs de mesures et obtenir une solution physiquement acceptable. Afin d'augmenter la qualité de reconstruction des courants, nous avons conçu notre outil de diagnostic de manière à ce qu'il soit uniquement sensible aux défaillances de la pile (capteur de défauts). De plus, cette reconstruction se base sur un nombre extrêmement faible de mesures. Une telle approche facilite l'instrumentation du système et augmente la précision et la rapidité de celui-ci. La sensibilité de notre outil à certaines défaillances (assèchements, appauvrissement en réactifs, dégradations) est démontrée.
97

Indexation vidéo par l'analyse de codage

Brunel, Lionel 30 March 2004 (has links) (PDF)
Ce travail de thèse porte sur l'indexation, normalisée par MPEG7, de séquences vidéos. A partir d'un flux MPEG1-2, ou de tout autre codec basé sur la prédiction de mouvement et la DCT, sans totalement le décompresser, nous exploitons l'analyse effectuée lors du codage. Ainsi de façon non-supervisée et en quasi temps réel, nous proposons une méthode d'estimation du mouvement de la caméra ainsi que d'extraction des objets en déplacement. Pour l'estimation du mouvement de la caméra, nous utilisons les vecteurs de prédiction temporelle présents dans le flux. L'étude des images d'erreur nous permet d'en évaluer la pertinence. Pour la détection des objets en mouvement, nous segmentons tout d'abord la séquence en zones de couleur uniforme directement sur les coefficients DCT. Nous établissons une distance colorimétrique, non seulement entre deux pixels voisins d'une image, mais aussi entre deux images successives, ce qui définit une zone en trois dimensions. Afin de segmenter plus précisément et de régulariser les contours sur chaque image, nous utilisons les B-Splines. Chaque objet candidat est déformé par la présence de tous ses voisins à partir d'un potentiel de couleur, ce qui, itérativement, permet d'éliminer les zones trop réduites. En combinant le mouvement de la caméra, les vecteurs de prédiction et les zones de couleur 2D+t, nous réalisons une fusion adaptative de façon à obtenir une bonne représentation des objets.
98

Voronoi Centered Radial Basis Functions

Samozino, Marie 11 July 2007 (has links) (PDF)
Cette thèse s´inscrit dans la problématique de la reconstruction de surfaces à partir de nuages de points. Les récentes avancées faites dans le domaine de l´acquisition de formes 3D à l´aide de scanners donnent lieu à de nouveaux besoins en termes d´algorithmes de reconstruction. Il faut être capable de traiter de grands nuages de points bruités tout en donnant une représentation compacte de la surface reconstruite. La surface est reconstruite comme le niveau zéro d´une fonction. Représenter une surface implicitement en utilisant des fonctions de base radiales (Radial Basis Functions) est devenu une approche standard ces dix dernières années. Une problématique intéressante est la réduction du nombre de fonctions de base pour obtenir une représentation la plus compacte possible et réduire les temps d´évaluation. Réduire le nombre de fonctions de base revient à réduire le nombre de points (centres) sur lesquels elles sont centrées. L´objectif que l´on s´est fixé consiste à sélectionner un "petit" ensemble de centres, les plus pertinents possible. Pour réduire le nombre de centres tout en gardant un maximum d´information, nous nous sommes affranchis de la correspondance entre centres des fonctions et points de donnée, qui est imposée dans la quasi-totalité des approches RBF. Au contraire, nous avons décidé de placer les centres sur l´axe médian de l´ensemble des points de donnée et de montrer que ce choix était approprié. Pour cela, nous avons utilisé les outils donnés par la géométrie algorithmique et approximé l´axe médian par un sous-ensemble des sommets du diagramme de Voronoi des points de donnée. Nous avons aussi proposé deux approches diférentes qui échantillonnent de manière appropriée l´axe médian pour adapter le niveau de détail de la surface reconstruite au budget de centres alloué par l´utilisateur.
99

Étude d'écrans supraconducteurs à haute température critique massifs. Application à la réalisation d'une machine électrique de conception originale.

Masson, Philippe 17 December 2002 (has links) (PDF)
Lors d'un refroidissement sous champ magnétique extérieur nul, les supraconducteurs à haute température critique ont la capacité d'expulser les lignes de champ de leur volume. Nous proposons d'utiliser cette propriété pour réaliser un inducteur de machine électrique utilisant des écrans supraconducteurs pour concentrer l'induction magnétique. L'étude théorique du système nécessitant l'utilisation d'outils de calcul numérique, nous avons utilisé une modélisation coulombienne du système et nous avons développé un logiciel de calcul du champ magnétique en 3D basé sur une méthode de Monte-Carlo à base de chaînes de Markov. Cette méthode probabiliste conduit à une erreur quantifiable<br />de calcul que nous avons minimisé en appliquant une méthode de régularisation. Nous avons dimensionné et réalisé un inducteur modèle qui a ainsi permis de vérifier l'efficacité de la structure ainsi que les outils de calcul développés.
100

Accélération et régularisation de la méthode d'inversion des formes d'ondes complètes en exploration sismique

Castellanos Lopez, Clara 18 April 2014 (has links) (PDF)
Actuellement, le principal obstacle à la mise en œuvre de la FWI élastique en trois dimensions sur des cas d'étude réalistes réside dans le coût de calcul associé aux taches de modélisation sismique. Pour surmonter cette difficulté, je propose deux contributions. Tout d'abord, je propose de calculer le gradient de la fonctionnelle avec la méthode de l'état adjoint à partir d'une forme symétrisée des équations de l'élastodynamique formulées sous forme d'un système du premier ordre en vitesse-contrainte. Cette formulation auto-adjointe des équations de l'élastodynamique permet de calculer les champs incidents et adjoints intervenant dans l'expression du gradient avec un seul opérateur de modélisation numérique. Le gradient ainsi calculé facilite également l'interfaçage de plusieurs outils de modélisation avec l'algorithme d'inversion. Deuxièmement, j'explore dans cette thèse dans quelle mesure les encodages des sources avec des algorithmes d'optimisation du second-ordre de quasi-Newton et de Newton tronqué permettait de réduire encore le coût de la FWI. Finalement, le problème d'optimisation associé à la FWI est mal posé, nécessitant ainsi d'ajouter des contraintes de régularisation à la fonctionnelle à minimiser. Je montre ici comment une régularisation fondée sur la variation totale du modèle fournissait une représentation adéquate des modèles du sous-sol en préservant le caractère discontinu des interfaces lithologiques. Pour améliorer les images du sous-sol, je propose un algorithme de débruitage fondé sur une variation totale locale au sein duquel j'incorpore l'information structurale fournie par une image migrée pour préserver les structures de faible dimension.

Page generated in 0.0892 seconds