• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 338
  • 97
  • 24
  • 2
  • 1
  • Tagged with
  • 457
  • 457
  • 130
  • 128
  • 84
  • 82
  • 81
  • 65
  • 64
  • 64
  • 58
  • 56
  • 53
  • 50
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Improvements to ultrasonic imaging with post-processing of full matrix capture data

Deschênes Labrie, Patrick 11 April 2022 (has links)
Ce mémoire présente les comparaisons entre les différentes méthodes de reconstruction "Total Focusing Method" (TFM) et des différents algorithmes modifiés qui utilisent les données obtenues avec la "Full Matrix Capture" (FMC) dans le but d'améliorer certains points clés présents dans les méthodes d'imageries, tel que les problèmes de reconstructions en sous-résolution ou bien des améliorations sur la détection. Les algorithmes conçus sont comparés en analysant les mêmes données pour les différents cas. De ces cas, l'imagerie de défauts isolés et puis ensuite celle d'une séquence de défauts très rapprochée ont été effectuées. Différentes recherches ont été effectuées sur les performances des algorithmes de reconstruction TFM en basse résolution. Ce mémoire montre que tous les types d'algorithmes présentés, soit la TFM standard, la TFM avec enveloppe d'Hilbert, la TFM intégration, la TFM intégration avec enveloppe d'Hilbert, la TFM restreinte en angle, la Migration et la Migration d'Hilbert sont toutes des méthodes valides de post-traitements des données capables d'imager convenablement les défauts présentés. Les différentes méthodes de reconstruction démontrent également des habilitées dépassant celles de la TFM standard dans certains points clés, en ayant seulement quelques points négatifs, tel que les temps de traitement ou bien l'augmentation du bruit de l'image. / This study shows the comparison between standard Total Focusing Method (TFM) and various modified algorithms using the data obtained from the Full Matrix Capture (FMC) in order to improve on some key points present in the aforementioned standard method of imaging, such as sub-resolution problems and improvements on detection. The designed algorithms were compared by processing the same data for different cases. Off those cases, the imaging of isolated defects and then imaging an array of close defects were analyzed. Further work have also been done on the performance of TFM algorithms in low resolution settings. The study has shown that all presented algorithms, which are the standard TFM, the Hilbert envelope TFM, the integration TFM, the Hilbert integration TFM, the angle restricted TFM, the Migration and the Hilbert Migration are all valid image post-processing reconstruction methods able to properly detect the defects presented. The different reconstruction methods used have also shown to outperform the standard TFM in a few key points, while having a few negative points such as the processing time and the increase noise.
112

Implémentation matérielle d'un réseau de neurones à décharges pour synchronisation rapide / Hardware implementation of a spiking neural network for fast synchronization

Caron, Louis-Charles January 2011 (has links)
In this master thesis, we present two different hardware implementations of the Oscillatory Dynamic Link Matcher (ODLM). The ODLM is an algorithm which uses the synchronization in a network of spiking neurons to realize different signal processing tasks. The main objective of this work is to identify the key design choices leading to the efficient implementation of an embedded version of the ODLM. The resulting systems have been tested with image segmentation and image matching tasks. The first system is bit-slice and time-driven. The state of the whole network is updated at regular time intervals. The system uses a bit-slice architecture with a large number of processing elements. Each processing element, or slice, implements one neuron of the network and takes the form of a column on the hardware. The columns are placed side by side and they are locally connected to their 2 neighbors. This local hardware connection scheme makes the system scalable, which means that columns can be easily added to increase the capacity of the system. Each column consists of a weight vector, a synapse model unit and a membrane model unit. The system can implement any network topology, making it very flexible. The function governing the time evolution of the neurons' membrane potential is approximated by a piece-wise linear function to reduce the amount of logical resources required. With this system, a fully-connected network of 648 neurons can be implemented on a Virtex-5 Xilinx XC5VSX5OT FPGA clocked at 100 MHz. The system is designed to process simultaneous spikes in parallel, reaching a maximum processing speed of 6 Mspikes/s. It can segment a 23×23 pixel image in 2 seconds and match two pre-segmented 90×30 pixel images in 550 ms. The second system is event-driven. A single processing element sequentially processes the spikes. This processing element is a 5-stage pipeline which can process an average of 1 synapse per 7 clock cycles. The synaptic weights are not stored in memory in this system, they are computed on-the-fly as spikes are processed. The topology of the network is also resolved during operation, and the system supports various regular topologies like 8-neighbor and fully-connected. The membrane potential time evolution function is computed with high precision using a look-up table. On the Virtex-5 FPGA, a network of 65 536 neurons can be implemented and a 406×158 pixel image can be segmented in 200 ms. The FPGA can be clocked at 100 MHz. Most of the design choices made for the second system are well adapted to the hardware implementation of the ODLM. In the original ODLM, the weight values do not change over time and usually depend on a single variable. It is therefore beneficial to compute the weights on the fly rather than saving them in a huge memory bank. The event-driven approach is a very efficient strategy. It reduces the amount of computations required to run the network and the amount of data moved in and out of memory. Finally, the precise computation of the neurons' membrane potential increases the convergence speed of the network.
113

Implantation d'imagerie temps réel par ondes guidées pour écran tactile

Brault, Louis-Philippe January 2016 (has links)
Les techniques d'imagerie développées pour la surveillance embarquée des structures ont maintenant des applications dans d'autres domaines. Par exemple, le domaine de l'écran tactile est en pleine expansion et de nouvelles technologies commencent à apparaître pour des applications spécifiques. Au niveau médical, des surfaces tactiles pouvant fournir des données sur la répartition du poids et la posture seraient une avancée pour le diagnostique des patients et la recherche. L'écran tactile est une technologie utilisée dans un nombre croissant d'appareils. Les écrans tactiles capacitifs et résistifs dominent le marché, mais ils sont connus pour être difficiles à fabriquer, facilement cassables et coûteux pour les grandes dimensions. Par conséquent, de nouvelles technologies sont encore explorées pour les écrans tactiles de grandes tailles et robustes. Les technologies candidates comprennent des approches basées sur les ondes. Parmi eux, des ondes guidées sont de plus en plus utilisés dans la surveillance des structures (SHM) pour de nombreuses applications liées à la caractérisation des propriétés des matériaux. Les techniques d'imagerie utilisées en SHM telles que Embedded Ultrasonic Structural Radar (EUSR) et Excitelet sont fiables, mais elles ont souvent besoin d'être couplées avec du traitement d'image pour donner de bons résultats. Dans le domaine du NDT (essais non destructifs), les ondes guidées permettent d'analyser les structures sans les détériorer. Dans ces applications, les algorithmes d'imagerie doivent pouvoir fonctionner en temps réel. Pour l'écran tactile, une technique d'imagerie de la pression en temps réel doit être développée afin d'être efficace et performante. Il faut obtenir la position et l'amplitude de la pression appliquée en un ou plusieurs points sur une surface. C'est ici que les algorithmes et l'expertise par rapport aux ondes guidées seront mises de l'avant tout pensant à l'optimisation des calculs afin d'obtenir une image en temps réel. Pour la méthodologie, différents algorithmes d'imagerie sont utilisés pour obtenir des images de déformation d'un matériau et leurs performances sont comparées en termes de temps de calcul et de précision. Ensuite, plusieurs techniques de traitement d'images ont été implantées pour comparer le temps de calcul en regard de la précision dans les images. Pour l'écran tactile, un prototype est conçu avec un programme optimisé et les algorithmes offrant les meilleures performances pour un temps de calcul réduit. Pour la sélection des composantes électroniques, ce sont la vitesse d'exécution et la définition d'image voulues qui permettent d'établir le nombre d'opérations par seconde nécessaire.
114

Recalage de flux de données cinématiques pour l'application à l'imagerie optique

Savinaud, Mickaël 08 October 2010 (has links) (PDF)
Parmi les approches d'imagerie préclinique, les techniques optiques sur petit animal fournissent une information fonctionnelle sur un phénomène biologique ainsi que sur sa localisation. De récents développements permettent d'exploiter ces méthodes dans le cadre de l'imagerie sur animal vigile. Les conditions physiologiques se rapprochent alors de celles du fonctionnement normal de l'organisme. Les travaux de cette thèse ont porté sur l'utilisation optimale de cette modalité via des méthodes originales d'analyse et de traitement.Les problèmes soulevés par la fusion des flux cinématiques et de données de bioluminescence nous ont amené à proposer des approches complémentaires d'estimationde mouvement de l'animal. La représentation sous forme implicite des informations issuesde la vidéo de l'animal permettent de construire un critère robuste à minimiser. L'ajout d'uncritère global mesurant la compacité du signal optique permet de considérer dans sa totalité les données multicanaux acquises pour augmenter la précision du recalage. Finalement ces deux modélisations offrent des résultats pertinents et validés expérimentalement.Dans le but de s'affranchir des contraintes de l'observation planaire de nos données nous avons conçu une méthode d'estimation du mouvement 3D de l'animal à partir d'un modèle pré-calculé. Grâce à un système d'acquisition multi-vues et simultanée de la scène, il est possible d'ajouter une contrainte sur l'estimation de la position de la source pour rendre robuste le suivi des poses issues de la vidéo. Les résultats expérimentaux montrent le potentiel de cette méthode pour fournir des mesures 3D précises sur l'animal vigile.
115

Two problems of digital image formation : recovering the camera point spread function and boosting stochastic renderers by auto-similarity filtering / Deux problèmes dans la formation des images numériques : l'estimation du noyau local de flou d'une caméra et l'accélération de rendus stochastiques par filtrage auto-similaire

Delbracio, Mauricio 25 March 2013 (has links)
Cette thèse s'attaque à deux problèmes fondamentaux dans la formation des images numériques : la modélisation et l'estimation du flou introduit par une caméra numérique optique, et la génération rapide des images de synthèse photoréalistes. L'évaluation précise du flou intrinsèque d'une caméra est un problème récurrent en traitement d'image. Des progrès technologiques récents ont eu un impact significatif sur la qualité de l'image. Donc, une amélioration de la précision des procédures de calibration est impérative pour pousser plus loin cette évolution. La première partie de cette thèse présente une théorie mathématique de l'acquisition physique de l’image par un appareil photo numérique. Sur la base de cette mo\-dé\-li\-sa\-tion, deux algorithmes automatiques pour estimer le flou intrinsèque de la l’appareil sont proposés. Pour le premier, l'estimation est effectuée à partir d'une photographie d'une mire d’étallonnage spécialement conçue à cet effet. L'une des principales contributions de cette thèse est la preuve qu’une mire portant l’image d’un bruit blanc est proche de l'optimum pour estimer le noyau de flou. Le deuxième algorithme évite l'utilisation d'une mire d’étallonnage, procédure qui peut devenir un peu encombrante. En effet, nous montrons que deux photos d'une scène plane texturée, prises à deux distances différentes avec la même configuration de l’appareil photo, suffisent pour produire une estimation précise. Dans la deuxième partie de cette thèse, nous proposons un algorithme pour accélérer la synthèse d'images réalistes. Plusieurs heures, et même plusieurs jours peuvent être nécessaires pour produire des images de haute qualité. Dans un rendu typique, les pixels d'une image sont formés en établissant la moyenne de la contribution des rayons stochastiques lancés à partir d'une caméra virtuelle. Le principe d'accélération, simple mais puissant, consiste à détecter les pixels similaires en comparant leurs histogrammes de rayons et à leur faire partager leurs rayons. Les résultats montrent une accélération significative qui préserve la qualité de l’image. / This dissertation contributes to two fundamental problems of digital image formation: the modeling and estimation of the blur introduced by an optical digital camera and the fast generation of realistic synthetic images. The accurate estimation of the camera's intrinsic blur is a longstanding problem in image processing. Recent technological advances have significantly impacted on image quality. Thus improving the accuracy of calibration procedures is imperative to further push this development. The first part of this thesis presents a mathematical theory that models the physical acquisition of digital cameras. Based on this modeling, two fully automatic algorithms to estimate the intrinsic camera blur are introduced. For the first one, the estimation is performed from a photograph of a specially designed calibration pattern. One of the main contributions of this dissertation is the proof that a pattern with white noise characteristics is near optimal for the estimation purpose. The second algorithm circumvents the tedious process of using a calibration pattern. Indeed, we prove that two photographs of a textured planar scene, taken at two different distances with the same camera configuration, are enough to produce an accurate estimation. In the second part of this thesis, we propose an algorithm to accelerate realistic image synthesis. Several hours or even days may be necessary to produce high-quality images. In a typical renderer, image pixels are formed by averaging the contribution of stochastic rays cast from a virtual camera. The simple yet powerful acceleration principle consists of detecting similar pixels by comparing their ray histograms and letting them share their rays. Results show a significant acceleration while preserving image quality.
116

IRM cardio-vasculaire, des séquences d'acquisition aux paramètres physiologiques

Lalande, Alain 29 May 2012 (has links) (PDF)
Mes travaux de recherche s'articulent principalement autour de l'extraction automatisée de paramètres anatomiques et fonctionnels en L'Imagerie par Résonance Magnétique (IRM) du cœur et de l'aorte (les renvois des références dans ce document correspondent aux numéros de la liste des publications). Plus précisément, ces travaux sur l'IRM portent sur les thématiques suivantes : - Etude de la fonction cardiaque - Etude de la désynchronisation cardiaque - Etude de la perfusion myocardique et de la viabilité - Etude de l'élasticité de l'aorte - Etude du flux sanguin et détermination de zones de stress au niveau de la paroi de l'aorte - Métrologie des sinus de Valsalva Ces différents points vont être détaillés dans les paragraphes suivants. L'IRM, en particulier l'utilisation de séquences ciné-IRM, constitue de nos jours la technique de référence pour étudier la fonction cardiaque. Cependant, malgré les efforts déployés en traitement numérique des images, l'interprétation médicale subjective est toujours la méthode la plus répandue dans les services cliniques. La quantification automatique de la fonction cardiaque constituant une aide au diagnostic importante fut la thématique de mes travaux de thèse [1,2,5,21]. Ceux-ci portaient sur la segmentation automatique du ventricule gauche à partir de coupes petit-axe acquises en ciné-IRM. La méthode développée, basée sur la logique floue et la programmation dynamique, permet une segmentation automatique des contours endocardique et épicardique sur chaque image de chaque coupe, rendant ainsi possible le calcul automatique du volume du ventricule gauche au cours du cycle cardiaque, des volumes diastolique et systolique et par conséquent de la fraction d'éjection du ventricule gauche [21]. Je participe à une étude multicentrique (initiée conjointement par le CNRS et l'INSERM et impliquant de nombreux laboratoires français) sur les méthodes de détection automatique des contours du cœur sur des séquences cinétiques d'images, ainsi que sur les méthodes d'évaluation et de validation de ces segmentations [99]. Actuellement, des méthodologies permettant de comparer plusieurs méthodes d'estimation d'un paramètre d'intérêt clinique sans connaître de valeur de référence (i.e. sans gold standard) sont étudiées [102]. La seule segmentation du cœur sur des IRM n'est pas suffisante pour étudier certaines pathologies telles que la désynchronisation cardiaque. Des réglages spécifiques sur des séquences ciné-IRM conventionnelles ont permis d'obtenir des données appropriées à l'étude du mouvement local du cœur par des méthodes de flux optique basées sur la phase du signal [70,78]. Une étape supplémentaire consiste à transformer la modélisation locale du mouvement cardiaque en un paramètre de désynchronisation, calculé à partir du délai de contraction entre deux parois. Nos résultats, obtenus sur des patients présentant une désynchronisation, vont être confrontés aux paramètres utilisés en routine clinique. En effet, tous les patients ont un examen échographique, et le paramètre calculé en IRM sera comparé au Septal-to-Posterior Wall Motion Delay (SPWMD) calculé en échographie, ainsi qu'à la durée du QRS. L'étude de la fonction cardiaque n'est pas le seul outil disponible en IRM permettant d'étudier les atteintes cardio-vasculaires. En effet, l'IRM de perfusion après injection d'un produit de contraste à base de gadolinium permet d'obtenir des valeurs diagnostiques et pronostiques dans l'étude de l'obstruction micro-vasculaire après infarctus du myocarde [12,17,26]. Une automatisation du traitement permet une évaluation en routine clinique de l'étude de la perfusion du myocarde au premier passage d'un produit de contraste [13,18,24]. De plus, l'utilisation d'images acquises dix minutes après injection de ce produit permet la quantification de la viabilité myocardique, notamment en évaluant la taille et le degré de l'infarctus du myocarde [20,28]. Nos travaux ont entre autre montré les liens entre la taille de l'infarctus et l'hyperglycémie ainsi qu'une valeur pronostique importante de l'obstruction micro-vasculaire persistante [29,31,34]. Actuellement, nous travaillons sur le développement d'un outil informatique qui permettra l'évaluation complètement automatisée de la zone de l'infarctus, ainsi que de la zone périphérique de l'infarctus. Les anévrismes de l'aorte (ascendante ou descendante) présentent un risque naturel de rupture ou de dissection de la paroi. L'IRM fonctionnelle a ouvert d'autres critères d'évaluation du risque que le diamètre maximal en permettant d'étudier les propriétés élastiques de la paroi aortique, le stress hémodynamique ainsi que le flux au sein de l'aorte. Dans ce cadre, j'ai développé des séquences appropriées pour l'évaluation de ces propriétés de l'aorte ainsi que des protocoles de recherches spécifiques pour l'étude des anévrismes et/ou dissections de l'aorte abdominale, ou de l'aorte thoracique, notamment dans le cadre de suivi de syndromes génétiques ou de patients porteurs de bicuspidie aortique. Parmi les paramètres étudiés, la compliance et la distensibilité aortiques sont deux paramètres associés à l'élasticité de l'aorte. Nos travaux sur l'évaluation automatisée de la compliance aortique sur des populations à risques (entre autres des patients porteurs de syndromes liés au système cardio-vasculaire) [11,32] ont été intégrés dans des études plus vastes (comprenant des informations cliniques, biologiques, d'imagerie et de génétique) [15, 25, 27], certaines en collaborations avec l'APHP et le Collège de France (INSERM U36). Nous avons aussi montré que chez des sujets sains, la compliance aortique varie en fonction de l'âge, alors que le sexe et le tabac n'ont aucune influence sur ce paramètre [100]. De plus, la mesure de la distensibilité aortique est bien corrélée à une autre méthode non-invasive de mesure de l'élasticité de l'aorte, utilisant une technique d'impédance bioélectrique [35]. Cette étude a été effectuée en collaboration avec le laboratoire LISA et le CHU d'Angers. Un autre paramètre d'élasticité est la vitesse de l'onde de flux du sang, définie à partir d'IRM anatomiques et codées en vitesse de flux. Une méthode semi-automatique a été mise au point pour calculer ce paramètre, et le confronter à la compliance aortique. L'augmentation de la vitesse de l'onde de flux est liée à une diminution de la compliance aortique, et donc à une augmentation de la rigidité de l'aorte [30]. L'étude de l'élasticité de l'aorte en routine clinique est actuellement mise en place pour des examens concernant des syndromes familiaux de pathologie de l'aorte thoracique. L'IRM procure la possibilité d'acquisitions tridimensionnelles codées en vitesse de flux, permettant d'extraire de nombreux paramètres, comme la vitesse maximale du flux sanguin (en 3D), la vitesse radiale maximale (pour étudier les contraintes au niveau de la paroi), le débit sanguin instantané, la fraction de reflux, ainsi qu'une estimation, pour l'instant visuelle, de la forme tridimensionnelle du flux (flux laminaire, hélicoïdal ou turbulent) [43]. Par rapport aux sujets sains, la vitesse du flux sanguin maximale augmente significativement pour les patients porteurs d'une bicuspidie et diminue significativement pour les patients porteurs de la mutation MYH11 [79]. Actuellement, nos recherches se concentrent sur l'étude de la vitesse radiale, et de son impact dans l'évolution d'anévrisme de l'aorte thoracique, en particulier dans le cas de bicuspidie aortique. Un atout majeur de l'IRM est de pouvoir positionner les plans d'acquisition selon n'importe quelle orientation. Ainsi, l'utilisation d'une série de plans perpendiculaires à l'axe de l'aorte doit permettre une reconstruction 4D de celle-ci, sans effet de volume partiel. La collaboration avec le laboratoire MOIVRE de l'Université de Sherbrooke (Canada) a fournit des premiers résultats satisfaisants quant à la segmentation automatique de la lumière de l'aorte [44]. La segmentation automatique du thrombus et de la paroi de l'aorte s'avère plus difficile. Une amélioration de l'algorithme permet une segmentation semi-automatique générique (avec une interaction minime de l'utilisateur) de la lumière aortique et de la paroi aortique, aussi bien sur des IRM que sur des images tomodensitométriques de l'aorte, où les contraintes ne sont pas les mêmes. L'évaluation de l'élasticité de la paroi, ainsi que la modélisation du flux sanguin, seront intégrées dans la représentation 3D de l'aorte, pour associer la déformation de l'aorte à l'amplitude et l'orientation du flux sanguin, dans le but de rechercher de zones de fragilité, dites de " stress ". L'IRM permet une étude fiable des sinus de Valsalva en faisant l'acquisition des images selon un plan perpendiculaire à l'axe de l'aorte. Cependant, il n'y a pas actuellement de consensus sur les mesures à considérer à partir de ce plan pour évaluer les sinus, ou les anévrismes localisés sur un seul sinus. Le développement d'une méthode automatique de segmentation des sinus de Valsalva [45] procure une mesure et précise des différentes longueurs entre les commissures, les cuspides et le centre des sinus (lui aussi localisé automatiquement) [80,101]. Les mesures obtenues avec cet outil seront confrontées aux diamètres mesurés manuellement sur des images en coupe sagittale (IRM de types SSFP (en respiration libre ou en apnée), écho de spin (en respiration libre) et Turbo spin-echo (en apnée)).
117

Reconnaissance de partitions musicales par modélisation floue des informations extraites et des règles de notation /

Rossant, Florence. January 1900 (has links)
Thèse de doctorat--Signal et images--Paris--ENST, 2006. / Bibliogr. p. 209-214. Résumé en français et en anglais.
118

Contribution à la caractérisation de la cavitation dans les injecteurs Diesel à haute pression

Baz, Ihab Champoussin, Jean-Claude. January 2003 (has links) (PDF)
Thèse de doctorat : Sciences. Thermique et énergétique : Ecole centrale de Lyon : 2003. / Bibliogr. 116 réf.
119

Contribution à la caractérisation de la cavitation dans les injecteurs Diesel à haute pression

Baz, Ihab Champoussin, Jean-Claude. January 2003 (has links) (PDF)
Thèse de doctorat : Sciences. Thermique et énergétique : Ecole centrale de Lyon : 2003. / Titre provenant de l'écran-titre. Bibliogr. 116 réf.
120

Méthodes de restauration en imagerie médicale tri-dimensionnelle

Ogier, Arnaud Barillot, Christian January 2005 (has links) (PDF)
Thèse doctorat : Traitement du signal et télécommunications : Rennes 1 : 2005. / Bibliogr. p. 159-175.

Page generated in 0.0691 seconds