• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 5
  • 3
  • Tagged with
  • 15
  • 15
  • 7
  • 6
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Estimations et tests non paramétriques en tomographie quantique homodyne

Méziani, Katia 09 December 2008 (has links) (PDF)
En optique quantique, la reconstruction de l'état quantique (fonction de Wigner ou matrice de densité infini-dimensionnelle) d'un faisceau de lumière correspond en statistique à un problème inverse trés mal posé. Premièrement, nous proposons des estimateurs de la matrice de densité basés sur les fonctions \textit{pattern} et des estimateurs à noyau de la fonction de Wigner. Nous faisons l'hypothèse que la matrice de densité inconnue appartient à une classe non paramétrique définie en accord avec les exemples étudiés par les physiciens. Nous en déduisons pour la fonction de Wigner associée à cette matrice des propriétés de décroissance rapide et de régularité. Deuxièmement, nous estimons une fonctionnelle quadratique de la fonction de Wigner par une U-statistique d'ordre deux sur une classe plus large. Cette fonctionnelle peut être vue comme une indication sur la pureté de l'état quantique considéré. Nous en déduisons un estimateur adaptatif aux paramètres de régularité de la fonction de Wigner. La dernière partie de ce manuscrit est consacrée au problème de test d'adéquation à la matrice de densité. Cette procédure est construite à partir d'un estimateur de type projection sur les fonctions \textit{pattern}. Nous étudions les bornes supérieures de type minimax de toutes ces procédures. Les procédures d'estimation de la matrice de densité et de test d'adéquation à une matrice de densité sont implémentées et leurs performances numériques sont étudiées.
12

Image Representations for Pattern Recognition

Hoang, Thai V. 14 December 2011 (has links) (PDF)
La pertinence d'une application de traitement de signal relève notamment du choix d'une "représentation adéquate''. Par exemple, pour la reconnaissance de formes, la représentation doit mettre en évidence les propriétés salientes d'un signal; en débruitage, permettre de séparer le signal du bruit; ou encore en compression, de synthétiser fidèlement le signal d'entrée à l'aide d'un nombre réduit de coefficients. Bien que les finalités de ces quelques traitements soient distinctes, il apparait clairement que le choix de la représentation impacte sur les performances obtenues. La représentation d'un signal implique la conception d'un ensemble génératif de signaux élémentaires, aussi appelé dictionnaire ou atomes, utilisé pour décomposer ce signal. Pendant de nombreuses années, la conception de dictionnaire a suscité un vif intérêt des chercheurs dans des domaines applicatifs variés: la transformée de Fourier a été employée pour résoudre l'équation de la chaleur; celle de Radon pour les problèmes de reconstruction; la transformée en ondelette a été introduite pour des signaux monodimensionnels présentant un nombre fini de discontinuités; la transformée en contourlet a été conçue pour représenter efficacement les signaux bidimensionnels composées de régions d'intensité homogène, à frontières lisses, etc. Jusqu'à présent, les dictionnaires existants peuvent être regroupés en deux familles d'approches: celles s'appuyant sur des modèles mathématiques de données et celles concernant l'ensemble de réalisations des données. Les dictionnaires de la première famille sont caractérisés par une formulation analytique. Les coefficients obtenus dans de telles représentations d'un signal correspondent à une transformée du signal, qui peuvent parfois être implémentée rapidement. Les dictionnaires de la seconde famille, qui sont fréquemment des dictionnaires surcomplets, offrent une grande flexibilité et permettent d'être adaptés aux traitements de données spécifiques. Ils sont le fruit de travaux plus récents pour lesquels les dictionnaires sont générés à partir des données en vue de la représentation de ces dernières. L'existence d'une multitude de dictionnaires conduit naturellement au problème de la sélection du meilleur d'entre eux pour la représentation de signaux dans un cadre applicatif donné. Ce choix doit être effectué en vertu des spécificités bénéfiques validées par les applications envisagées. En d'autres termes, c'est l'usage qui conduit à privilégier un dictionnaire. Dans ce manuscrit, trois types de dictionnaire, correspondant à autant de types de transformées/représentations, sont étudiés en vue de leur utilisation en analyse d'images et en reconnaissance de formes. Ces dictionnaires sont la transformée de Radon, les moments basés sur le disque unitaire et les représentations parcimonieuses. Les deux premiers dictionnaires sont employés pour la reconnaissance de formes invariantes tandis que la représentation parcimonieuse l'est pour des problèmes de débruitage, de séparation des sources d'information et de classification. Cette thèse présentent des contributions théoriques validées par de nombreux résultats expérimentaux. Concernant la transformée de Radon, des pistes sont proposées afin d'obtenir des descripteurs de formes invariants, et conduisent à définir deux descripteurs invariants aux rotations, l'échelle et la translation. Concernant les moments basés sur le disque unitaire, nous formalisons les stratégies conduisant à l'obtention de moments orthogonaux. C'est ainsi que quatre moments harmoniques polaires génériques et des stratégies pour leurs calculs rapides sont introduits. Enfin, concernant les représentations parcimonieuses, nous proposons et validons un formalisme de représentation permettant de combiner les trois critères suivant : la parcimonie, l'erreur de reconstruction ainsi que le pouvoir discriminant en classification.
13

Validation de la simulation Monte-Carlo de la gamma-caméra petit animal Biospace sur la grille de calcul légère CiGri. Application à l'évaluation de l'algorithme de l'inversion analytique de la transformée de Radon atténuée

Aoun, Joe 30 October 2009 (has links) (PDF)
Les Simulations Monte-Carlo SMC représentent actuellement en imagerie médicale nucléaire un outil puissant d'aide à la conception et à l'optimisation des détecteurs, et à l'évaluation des algorithmes de reconstruction et des méthodes de correction des effets physiques responsables de la dégradation des images reconstruites (atténuation, diffusion, etc.). L'inconvénient majeur des simulations Monte-Carlo réside dans le temps de calcul important qu'elles nécessitent. Au cours de cette thèse, nous avons tiré parti de la plate-forme de SMC GATE (Geant4 Application for Tomographic Emission) dédiée aux examens SPECT/PET pour une modélisation réaliste des phénomènes physiques, et de la grille de calcul légère CiGri (CIMENT Grid) afin de réduire le temps de calcul. Le premier objectif de cette thèse consiste à modéliser la gamma-caméra Biospace dédiée à l'imagerie petit animal à l'aide du logiciel GATE. Le modèle de la gamma-caméra est validé en comparant les résultats issus des simulations GATE avec les données acquises expérimentalement. Les résultats des simulations reproduisent avec précision les performances mesurées de la gamma-caméra. Le modèle validé est ensuite utilisé pour l'évaluation de l'algorithme de Novikov-Natterer de reconstruction analytique de la transformée de Radon atténuée. Les résultats de cette étude montrent que l'algorithme de reconstruction de Novikov-Natterer permet d'améliorer les images d'un point de vue qualitatif et quantitatif par rapport à la méthode analytique standard FBP
14

On-line C-arm intrinsic calibration by means of an accurate method of line detection using the radon transform / On-line C-arm Calibration intrinsèque "On-line" d'un C-arm par une méthode de détection de droite avec la transformée de Radon

Spencer, Benjamin 18 December 2015 (has links)
Les ``C-arm'' sont des systémes de radiologie interventionnelle fréquemment utilisés en salle d'opération ou au lit du patient. Des images 3D des structures anatomiques internes peuvent être calculées à partir de multiples radiographies acquises sur un ``C-arm mobile'' et isocentrique décrivant une trajectoire généralement circulaire autour du patient. Pour cela, la géométrie conique d'acquisition de chaque radiographie doit être précisément connue. Malheureusement, les C-arm se déforment en général au cours de la trajectoire. De plus leur motorisation engendre des oscillations non reproductibles. Ils doivent donc être calibrés au cours de l'acquisition. Ma thèse concerne la calibration intrinsèque d'un C-arm à partir de la détection de la projection du collimateur de la source dans les radiographies.Nous avons développé une méthode de détection de la projection des bords linéaires du collimateur. Elle surpasse les méthodes classiques comme le filtre de Canny sur données simulées ou réelles. La précision que nous obtenons sur l'angle et la position (phi,s) des droites est de l'ordre de: phi{RMS}=+/- 0.0045 degrees et s{RMS}=+/- 1.67 pixels. Nous avons évalué nos méthodes et les avons comparés à des méthodes classiques de calibration dans le cadre de la reconstruction 3D. / Mobile isocentric x-ray C-arm systems are an imaging tool used during a variety of interventional and image guided procedures. Three-dimensional images can be produced from multiple projection images of a patient or object as the C-arm rotates around the isocenter provided the C-arm geometry is known. Due to gravity affects and mechanical instabilities the C-arm source and detector geometry undergo significant non-ideal and possibly non reproducible deformation which requires a process of geometric calibration. This research investigates the use of the projection of the slightly closed x-ray tube collimator edges in the image field of view to provide the online intrinsic calibration of C-arm systems.A method of thick straight edge detection has been developed which outperforms the commonly used Canny filter edge detection technique in both simulation and real data investigations. This edge detection technique has exhibited excellent precision in detection of the edge angles and positions, (phi,s), in the presence of simulated C-arm deformation and image noise: phi{RMS} = +/- 0.0045 degrees and s{RMS} = +/- 1.67 pixels. Following this, the C-arm intrinsic calibration, by means of accurate edge detection, has been evaluated in the framework of 3D image reconstruction.
15

Generalized Parton Distributions and their covariant extension : towards nucleon tomography / Distributions de Partons Généralisées et extension covariante : vers une tomographie du nucléon

Chouika, Nabil 17 September 2018 (has links)
Les Distributions de Partons Généralisées (GPDs) encodent les corrélations entre impulsion longitudinale et position transverse des partons dans les hadrons et permettent d'imager la structure du nucléon en 2+1 dimensions. Elles ont été étudiées théoriquement et expérimentalement pendant deux décennies et une nouvelle ère expérimentale débute actuellement (à Jefferson Lab et COMPASS, mais aussi à l'avenir à un collisionneur électron-ion) pour les extraire avec grande précision. La difficulté est que seul un accès expérimental indirect est possible, à travers divers canaux de diffusion exclusive et les observables associés. Cela implique de prendre nécessairement en compte les nombreuses contraintes théoriques si l'on veut concevoir des modèles fiables pour la phénoménologie. En particulier, deux contraintes cruciales sont les propriétés de "polynomialité" et de "positivité". L'approche de cette thèse consiste à tirer partie des deux propriétés en modélisant d'abord les fonctions d'onde sur le cône de lumière des premiers états de Fock du nucléon, permettant d'obtenir une GPD dans la région appelée DGLAP via overlap où le nombre de partons est conservé, puis l'étendre de manière covariante à la région ERBL, avec une inversion de transformée de Radon. In fine, le but est d'appliquer cette procédure à un modèle de quark-constituant pour GPDs de valence, ce qui permettrait de produire de manière inédite pour ce genre de modèle des résultats à comparer à l'expérience (sur le processus de diffusion Compton profondément virtuelle en l’occurrence). Pour atteindre cette objectif, on utilise la librairie PARTONS sous différentes hypothèses perturbatives. / Generalized Parton Distributions (GPDs) encode the correlations between longitudinal momentum and transverse position of partons inside hadrons and can give access to a picture of the nucleon structure in 2+1 dimensions. They have been studied theoretically and experimentally for almost two decades and a new experimental era is starting (at JLab and COMPASS currently, and in the future at an EIC) to extract them. The difficulty is that only an indirect experimental access is so far possible, through different exclusive channels and various observables. Therefore, one has to take into account the many theoretical constraints to be able to produce accurate models and rely on their phenomenology. Two important constraints are called the polynomiality and positivity properties. The approach of this thesis is to make use of both of them by first modeling low Fock states light-front wave-functions, which gives a GPD in the DGLAP region by a parton number conserved overlap, and then covariantly extending this GPD to the ERBL region, through an inverse radon transform. In fine, the goal is to apply this on a constituent quark-like model for valence GPDs, which would allow to produce a phenomenological output (on DVCS data for instance) from this kind of models, which was impossible before. We make use of the versatile PARTONS framework to achieve this under various perturbative QCD assumptions.

Page generated in 0.0494 seconds