• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 228
  • 73
  • 42
  • 1
  • Tagged with
  • 347
  • 105
  • 84
  • 78
  • 75
  • 71
  • 70
  • 62
  • 61
  • 60
  • 55
  • 54
  • 52
  • 51
  • 48
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Etude de la technologie SOI partiellement désertée à très basse tension pour minimiser l'énergie dissipée et application à des opérateurs de calcul.

Valentian, Alexandre 06 1900 (has links) (PDF)
L'évolution des technologies des semi-conducteurs vers des géométries de plus en plus fines permet un accroissement des performances et des fonctionnalités par puce mais s'accompagne simultanément d'une augmentation de la puissance dissipée. Alors que les utilisateurs sont de plus en plus friands d'applications portables, la conception de circuits intégrés doit désormais prendre en compte le budget de puissance alloué. Il est donc essentiel de développer des circuits microélectroniques très basse puissance. La réduction de la tension d'alimentation VDD s'avère une approche très intéressante puisque cela permet de réduire la puissance dynamique quadratiquement et la puissance statique des courants de fuite exponentiellement. L'utilisation de tensions d'alimentation très basses (ULV) a été explorée à Stanford dès 1990 en utilisant une technologie spéciale, dont les transistors possèdent des tensions de seuil proches de zéro volt. Cependant, bien que réduire fortement la tension d'alimentation soit une méthode efficace pour diminuer la consommation, elle ne peut pas être appliquée arbitrairement car cela affecte négativement les performances, le délai dans les portes augmentant exponentiellement lorsque VDD devient inférieur à la tension de seuil. Il faut donc trouver un compromis entre vitesse et consommation. Du point de vue technologique, la technologie SOI-PD (Silicium sur Isolant Partiellement Désertée) s'avère très intéressante en ULV: elle présente des performances entre 25% et 30% supérieures à celles obtenues en CMOS à substrat massif. La technologique SOI permet donc de diminuer la consommation des circuits intégrés à fréquence de fonctionnement égale. Pour mieux appréhender le comportement des transistors SOI opérés en inversion faible, un modèle analytique et physique simple a tout d'abord été développé. La consommation d'un circuit dépendant fortement du style logique employé, plusieurs styles ont été comparés et celui présentant le meilleur produit puissance-délai a été choisi pour réaliser une bibliothèque de cellules standards. La problématique de la propagation de données sur des interconnexions longues, alors que les transistors fournissent peu de courant, a été abordée: un nouveau circuit de transmission en mode courant a été proposé. Enfin, un circuit de traitement d'image par paquets d'ondelettes a été développé et synthétisé grâce à la bibliothèque précédente.
82

Transformées orientées par blocs pour le codage vidéo hybride

Robert, Antoine 18 February 2008 (has links) (PDF)
Cette thèse s'intéresse à améliorer les codeurs vidéo actuels tels que H.264 MPEG-4/AVC en utilisant avantageusement des informations structurelles contenues dans les images codées. Dans ce contexte, on observe que tous codeurs vidéo utilisent une étape de transformation permettant de décorréler mathématiquement les informations traitées afin d'en diminuer le coût de codage entropique. D'autre part, on remarque que toutes les images traitées qu'elles soient prédites ou non, possèdent des structures géométriques très marquées. Une étude des transformées existantes et possibles pour ces codeurs vidéo montre que peu d'entre elles (DCT, en ondelettes, à recouvrement, DCT sous forme lifting...) permettent de représenter efficacement ces structures géométriques des images. L'état de l'art de ces transformées exploitant les structures géométriques est porté historiquement par les ondelettes de seconde génération comme les contourlets, les bandelettes ou les directionlets. Mais, plusieurs études plus récentes utilisent des approches DCT, basées blocs, avec des orientations afin de mieux représenter ces structures géométriques. L'objectif de notre étude est d'améliorer le codage des images résiduelles H.264/AVC, issues de prédictions spatiales (Intra) ou temporelles (Inter), en utilisant leurs structures géométriques. Une première approche de ce travail de thèse nous a conduits à analyser et exploiter des méthodes connues de l'état de l'art. Pour cela, nous avons déni un schéma sous forme lifting réalisant les opérations de la DCT H.264/AVC. Ce schéma permet de voir cette DCT comme une transformée en ondelettes et donc de disposer d'une approche commune. On peut alors lui appliquer des outils de seconde génération an qu'elle représente au mieux les structures géométriques des images. Et, une version de transformée à recouvrement en pré- et post-traitements a été utilisée dans le codeur H.264/AVC. Une seconde approche de nos recherches a été de dénir une méthode d'orientation par pré- et post-traitements associée à un parcours adapté des coefficients quantifiés produits. Le pré-traitement de cette méthode d'orientation réalise des pseudo-rotations permettant de redresser les blocs des images vers l'horizontale ou la verticale. Cette opération est réalisée par cisaillements, soit par permutations circulaires des pixels, améliorant la décorrélation de la DCT qui suit sans présenter les défauts inhérents aux approches de l'état de l'art. Cette méthode, insérée dans un codeur H.264/AVC, présente de bonnes performances de codage. Cependant, le coût des informations d'orientation, sélectionnées selon un critère débit-distorsion, est élevé dégradant ces performances dans les bas débits, la méthode restant plus efficace que H.264/AVC dans les hauts débits (QP < 30). Les coefficients quantifiés issus de la méthode d'orientation précédente sont ensuite parcourus à la verticale, à l'horizontale ou en zigzag suivant les redressements appliqués ou le type de partitions. Cette adaptation de parcours permet de légèrement conserver du débit améliorant ainsi notre méthode globale qui devient plus efficaces que H.264/AVC dans les moyens débits (QP < 35).
83

Parallel magnetic resonance imaging reconstruction problems using wavelet representations

Chaari, Lotfi 05 November 2010 (has links) (PDF)
Pour réduire le temps d'acquisition ou bien améliorer la résolution spatio-temporelle dans certaines application en IRM, de puissantes techniques parallèles utilisant plusieurs antennes réceptrices sont apparues depuis les années 90. Dans ce contexte, les images d'IRM doivent être reconstruites à partir des données sous-échantillonnées acquises dans le " k-space ". Plusieurs approches de reconstruction ont donc été proposées dont la méthode SENSitivity Encoding (SENSE). Cependant, les images reconstruites sont souvent entâchées par des artéfacts dus au bruit affectant les données observées, ou bien à des erreurs d'estimation des profils de sensibilité des antennes. Dans ce travail, nous présentons de nouvelles méthodes de reconstruction basées sur l'algorithme SENSE, qui introduisent une régularisation dans le domaine transformé en ondelettes afin de promouvoir la parcimonie de la solution. Sous des conditions expérimentales dégradées, ces méthodes donnent une bonne qualité de reconstruction contrairement à la méthode SENSE et aux autres techniques de régularisation classique (e.g. Tikhonov). Les méthodes proposées reposent sur des algorithmes parallèles d'optimisation permettant de traiter des critères convexes, mais non nécessairement différentiables contenant des a priori parcimonieux. Contrairement à la plupart des méthodes de reconstruction qui opèrent coupe par coupe, l'une des méthodes proposées permet une reconstruction 4D (3D + temps) en exploitant les corrélations spatiales et temporelles. Le problème d'estimation d'hyperparamètres sous-jacent au processus de régularisation a aussi été traité dans un cadre bayésien en utilisant des techniques MCMC. Une validation sur des données réelles anatomiques et fonctionnelles montre que les méthodes proposées réduisent les artéfacts de reconstruction et améliorent la sensibilité/spécificité statistique en IRM fonctionnelle
84

Détection des rayons gamma et reconstruction d'images pour la caméra Compton : Application à l'hadronthérapie.

Frandes, Mirela 16 September 2010 (has links) (PDF)
Une nouvelle technique de radiothérapie, l'hadronthérapie, irradie les tumeurs à l'aide d'un faisceau de protons ou d'ions carbone. L'hadronthérapie est très efficace pour le traitement du cancer car elle permet le dépôt d'une dose létale très localisée, en un point dit ‘pic de Bragg', à la fin du trajet des particules. La connaissance de la position du pic de Bragg, avec une précision millimétrique, est essentielle car l'hadronthérapie a prouvé son efficacité dans le traitement des tumeurs profondes, près des organes vitaux, ou radio-résistantes. Un enjeu majeur de l'hadronthérapie est le contrôle de la délivrance de la dose pendant l'irradiation. Actuellement, les centres de traitement par hadron thérapie effectuent un contrôle post-thérapeutique par tomographie par émission de positron (TEP). Les rayons gamma utilisés proviennent de l'annihilation de positons émis lors la désintégration bêta des isotopes radioactifs créés par le faisceau de particules. Ils ne sont pas en coïncidence directe avec le pic de Bragg. Une alternative est l'imagerie des rayons gamma nucléaires émis suites aux interactions inélastiques des hadrons avec les noyaux des tissus. Cette émission est isotrope, présentant un spectre à haute énergie allant de 100 keV à 20 MeV. La mesure de ces rayons gamma énergétiques dépasse la capacité des systèmes d'imagerie médicale existants. Une technique avancée de détection des rayons gamma, basée sur la diffusion Compton avec possibilité de poursuite des électrons diffusés, a été proposée pour l'observation des sources gamma en astrophysique (télescope Compton). Un dispositif, inspiré de cette technique, a été proposé avec une géométrie adaptée à l'Imagerie en Hadron Thérapie (IHT). Il se compose d'un diffuseur, où les électrons Compton sont mesurés et suivis (‘tracker'), et d'un calorimètre, où les rayons gamma sont absorbés par effet photoélectrique. Nous avons simulé un scénario d'hadronthérapie, la chaîne complète de détection jusqu'à la reconstruction d'événements individuels et la reconstruction d'une image de la source de rayons gamma. L'algorithme ‘Expectation Maximisation' (EM) à été adopté dans le calcul de l'estimateur du maximum de vraisemblance (MLEM) en mode liste pour effectuer la reconstruction d'images. Il prend en compte la réponse du système d'imagerie qui décrit le comportement complexe du détecteur. La modélisation de cette réponse nécessite des calculs, en fonction de l'angle d'incidence de tous les photons détectés, de l'angle Compton dans le diffuseur et de la direction des électrons diffusés. Dans sa forme la plus simple, la réponse du système a un événement est décrite par une conique, intersection du cône Compton et du plan dans lequel l'image est reconstruite. Une forte corrélation a été observée, entre l'image d'une source gamma reconstruite et la position du pic de Bragg. Les performances du système IHT dépendent du détecteur, en termes d'efficacité de détection, de résolution spatiale et énergétique, du temps d'acquisition et de l'algorithme utilisé pour reconstituer l'activité de la source de rayons gamma. L'algorithme de reconstruction de l'image a une importance fondamentale. En raison du faible nombre de photons mesurés (statistique de Poisson), des incertitudes induites par la résolution finie en énergie, de l'effet Doppler, des dimensions limitées et des artefacts générés par l'algorithme itératif MLEM, les images IHT reconstruites sont affectées d'artefacts que l'on regroupe sous le terme ‘bruit'. Ce bruit est variable dans l'espace et dépend du signal, ce qui représente un obstacle majeur pour l'extraction d'information. Ainsi des techniques de dé-bruitage ont été utilisées. Une stratégie de régularisation de l'algorithme MLEM (WREM) en mode liste a été développée et appliquée pour reconstituer les événements Compton. Cette proposition est multi-résolution sur une base d'ondelettes orthogonales. A chaque itération, une étape de seuillage des coefficients d'ondelettes a été intégrée. La variance du bruit a été estimée à chaque itération par la valeur médiane des coefficients de la sous-bande de haute fréquence. Cette approche stabilise le comportement de l'algorithme itératif, réduit l'erreur quadratique moyenne et améliore le contraste de l'image.
85

Réseaux d'ondelettes et réseaux de neurones pour la modélisation statique et dynamique de processus

Oussar, Yacine 06 July 1998 (has links) (PDF)
Durant les dix dernières années, les réseaux de neurones à fonctions sigmoïdales ont connu de grands succès dans de nombreux domaines. Associés à des algorithmes d'apprentissage efficaces, ils constituent un puissant outil de modélisation non linéaire de processus, grâce à leur propriété d'approximation universelle parcimonieuse. Ce travail de thèse propose une mise en uvre de réseaux d'ondelettes, alternative possible aux réseaux de neurones, pour la modélisation statique et dynamique. Les ondelettes sont une famille de fonctions issues du traitement du signal et de l'image, dont il a été récemment montré qu'elles possèdent la propriété d'approximateur universel. La mise en uvre des réseaux d'ondelettes est effectuée suivant deux approches : - Approche fondée sur la transformée continue: les paramètres des fonctions sont à valeurs continues dans l'ensemble des nombres réels et peuvent donc être ajustés, comme ceux d'un réseau de neurones classique, à l'aide de méthodes de gradient. Nous proposons des réseaux et des algorithmes d'apprentissage pour la modélisation entrée-sortie et d'état. Les résultats obtenus sur des processus simulés et réel montrent que ces réseaux permettent d'obtenir des modèles de performance et de parcimonie équivalentes à celles des réseaux de neurones si des précautions de mise en uvre sont prises. - Approche fondée sur la transformée discrète: les paramètres des fonctions étant à valeurs discrètes, les apprentissages fondés sur des méthodes de gradient ne sont pas applicables. Nous proposons de construire des réseaux par sélection d'ondelettes dans une bibliothèque pré-établie. Cette procédure est également utilisée pour l'initialisation des paramètres des ondelettes avant leur apprentissage. Les résultats obtenus montrent que la procédure proposée confère à l'apprentissage une meilleure indépendance vis-à-vis de l'initialisation aléatoire des autres paramètres ajustables du réseau.
86

Plusieurs approches en ondelettes pour la séparation et déconvolection de composantes. Application à des données astrophysiques.

Anthoine, Sandrine 05 August 2005 (has links) (PDF)
Cette thèse est consacree au problµeme de separation de composantes lorsque celles ci sont des images de structure differente et que l'on en observe un ou plusieurs melange(s) ou(s) et bruite(s). Les problµemes de deconvolution et de separation, traditionnellement etudies separement, sont ici traites simultanément. Une façon naturelle d'aborder le problµeme multicomposants/multiobservations est de generaliser les techniques de deconvolution d'une image unique. Le premier resultat presente est une etude mathematique d'un tel algorithme. Preuve est faite que celuici est convergent mais pas regularisant et une modification restaurant cette propriete est proposee. Le sujet principal est le developpement et la comparaison de deux methodes pour traiter la deconvolution et separation simultanees de composantes. La premiµere methode est basee sur les propriétes statistiques locales des composantes tandis que dans la seconde, ces signaux sont decrits par des espaces fonctionnels. Les deux methodes utilisent des transformees en ondelettes redondantes pour simplifier les donnees. Les performances des deux algorithmes sont evaluees et comparees dans le cadre d'un problµeme astrophysique : celui de l'extraction des amas de galaxies par l'effet Sunyaev-Zel'dovich dans les images multispectrales des anisotropies du fond cosmique. Des simulations realistes sont etudiees. On montre qu'µa haute resolution et niveau de bruit modere, les deux methodes permettent d'extraire des cartes d'amas de galaxies de qualite suffisante pour des etudes cosmologiques. Le niveau de bruit est un facteur limitant µa basse resolution et la methode statistique est robuste µa la presence de points sources.
87

Modélisation et rendu temps-réel de milieux participants à l'aide du GPU

Giroud, Anthony 18 December 2012 (has links) (PDF)
Cette thèse traite de la modélisation, l'illumination et le rendu temps-réel de milieux participants à l'aide du GPU. Dans une première partie, nous commençons par développer une méthode de rendu de nappes de brouillard hétérogènes pour des scènes en extérieur. Le brouillard est modélisé horizontalement dans une base 2D de fonctions de Haar ou de fonctions B-Spline linéaires ou quadratiques, dont les coefficients peuvent être chargés depuis une textit{fogmap}, soit une carte de densité en niveaux de gris. Afin de donner au brouillard son épaisseur verticale, celui-ci est doté d'un coefficient d'atténuation en fonction de l'altitude, utilisé pour paramétrer la rapidité avec laquelle la densité diminue avec la distance au milieu selon l'axe Y. Afin de préparer le rendu temps-réel, nous appliquons une transformée en ondelettes sur la carte de densité du brouillard, afin d'en extraire une approximation grossière (base de fonctions B-Spline) et une série de couches de détails (bases d'ondelettes B-Spline), classés par fréquence.%Les détails sont ainsi classés selon leur fréquence et, additionnées, permettent de retrouver la carte de densité d'origine. Chacune de ces bases de fonctions 2D s'apparente à une grille de coefficients. Lors du rendu sur GPU, chacune de ces grilles est traversée pas à pas, case par case, depuis l'observateur jusqu'à la plus proche surface solide. Grâce à notre séparation des différentes fréquences de détails lors des pré-calculs, nous pouvons optimiser le rendu en ne visualisant que les détails les plus contributifs visuellement en avortant notre parcours de grille à une distance variable selon la fréquence. Nous présentons ensuite d'autres travaux concernant ce même type de brouillard : l'utilisation de la transformée en ondelettes pour représenter sa densité via une grille non-uniforme, la génération automatique de cartes de densité et son animation à base de fractales, et enfin un début d'illumination temps-réel du brouillard en simple diffusion. Dans une seconde partie, nous nous intéressons à la modélisation, l'illumination en simple diffusion et au rendu temps-réel de fumée (sans simulation physique) sur GPU. Notre méthode s'inspire des Light Propagation Volumes (volume de propagation de lumière), une technique à l'origine uniquement destinée à la propagation de la lumière indirecte de manière complètement diffuse, après un premier rebond sur la géométrie. Nous l'adaptons pour l'éclairage direct, et l'illumination des surfaces et milieux participants en simple diffusion. Le milieu est fourni sous forme d'un ensemble de bases radiales (blobs), puis est transformé en un ensemble de voxels, ainsi que les surfaces solides, de manière à disposer d'une représentation commune. Par analogie aux LPV, nous introduisons un Occlusion Propagation Volume, dont nous nous servons, pour calculer l'intégrale de la densité optique entre chaque source et chaque autre cellule contenant soit un voxel du milieu, soit un voxel issu d'une surface. Cette étape est intégrée à la boucle de rendu, ce qui permet d'animer le milieu participant ainsi que les sources de lumière sans contrainte particulière. Nous simulons tous types d'ombres : dues au milieu ou aux surfaces, projetées sur le milieu ou les surfaces
88

Calcul hautes performances pour les formulations intégrales en électromagnétisme basses fréquences

Rubeck, Christophe 18 December 2012 (has links) (PDF)
Les méthodes intégrales sont des méthodes particulièrement bien adaptées à la modélisation des systèmes électromagnétiques car contrairement aux méthodes par éléments finis elles ne nécessitent pas le maillage des matériaux inactifs tel que l'air. Ces modèles sont donc légers en termes de nombre de degrés de liberté. Cependant ceux sont des méthodes à interactions totales qui génèrent des matrices de systèmes d'équations pleines. Ces matrices sont longues à calculer en temps processeur et coûteuses à stocker dans la mémoire vive de l'ordinateur. Nous réduisons dans ces travaux les temps de calcul grâce au parallélisme, c'est-à-dire l'utilisation de plusieurs processeurs, notamment sur cartes graphiques (GPGPU). Nous réduisons également le coût du stockage mémoire via de la compression matricielle par ondelettes (il s'agit d'un algorithme proche de la compression d'images). C'est une compression par pertes, nous avons ainsi développé un critère pour contrôler l'erreur introduite par la compression. Les méthodes développées sont appliquées sur une formulation électrostatique de calcul de capacités, mais elles sont à priori également applicables à d'autres formulations.
89

Codage à description multiple d'images et de vidéos pour des canaux bruités

Pereira, Manuela 18 June 2004 (has links) (PDF)
Les travaux développés dans cette thèse apportent un nouveau regard sur les techniques de codage par descriptions multiples (MDC). <br />Nous proposons une méthode (MDBA) de codage MDC source/canal conjoint robuste adaptée à la transmission d'images et de vidéos sur des canaux non stationnaires. Le principal avantage de cette méthode est qu'elle est bien adaptée pour des applications de transmission sur des canaux peu fiables et variables dans le temps. De plus, grâce à ses capacités de compression et de synchronisation, elle permet de faire de la transmission en temps réel. <br />Nous montrons que la méthode proposée présente les meilleurs résultats en terme de rapport signal à bruit et de qualité visuelle lorsqu'on la compare avec d'autres méthodes de descriptions multiples issues de l'état de l'art. De plus, elle s'avère bien adaptée pour des applications où les méthodes standard de contrôle d'erreur ne sont pas capables de s'adapter facilement aux caractéristiques du canal. <br />La méthode est validée sur différents modèles de canal (BSC, AWGN, Internet, UMTS, satellite) dans le cadre de la transmission d'images et de vidéos. <br />La méthode MDBA proposée est bien adaptée pour des applications qui ont besoin d'un codeur qui utilise l'information venant d'un canal de "feedback" comme par exemple "peer-to-peer video conferencing", vidéo sans fil, etc, mais s'avère insuffisante quand on veut faire du "streaming" vidéo. C'est pour cette raison que nous avons développé un système dédié au "streaming" de vidéo. Ainsi ce manuscrit termine avec une extension de la méthode pour faire du "streaming" vidéo robuste aux erreurs du canal. La méthode proposée permet à la fois de s'adapter à bande passante du canal (débit variable) et de s'adapter aux erreurs de transmission liés au niveau de bruit présent sur le canal.
90

Contribution à l'estimation de la vitesse acoustique par Vélocimétrie Laser Doppler & Application à l'étalonnage de microphones en champ libre

Degroot, Anne 11 October 2007 (has links) (PDF)
La Vélocimétrie Laser à effet Doppler (VLD) est un outil de mesure de vitesse particulaire non-invasif couramment utilisé en mécanique des fluides qui reste cependant encore marginal en acoustique. L'accès à l'information de vitesse particulaire acoustique permet de caractériser les champs acoustiques complexes, autorisant l'étude de phénomènes acoustiques au voisinage de parois vibrantes ou de discontinuités gémométriques par exemple.<br />L'application de la VLD à l'acoustique de l'audible pour des niveaux allant de 60 à 120 dBSPL en présence de faibles écoulements (quelques mm/s) constitue le domaine d'investigation du Laboratoire d'Acoustique de l'Université du Maine depuis le milieu des années 90. Les méthodes de traitement du signal aujourd'hui implémentées sur le banc de mesure appartiennent à la famille des méthodes temps-fréquence donnant accès à la loi de fréquence instantanée (proportionnelle à la vitesse) de la particule lors de son passage dans le volume de mesure. Ces méthodes ont été développées et validées expérimentalement sur une seule bouffée Doppler en présence de très faible écoulement conduisant à une loi de variation de la vitesse de plusieurs périodes acoustiques.<br />L'objectif de cette thèse est double. Dans un premier temps, il vise à développer un traitement de signal qui permette d'estimer la vitesse acoustique à partir de l'analyse de plusieurs bouffées. Dans un deuxième temps, il vise à utiliser la VLD pour estimer une pression acoustique à partir des vitesses acoustiques mesurées au voisinage d'un structure (d'un microphone).<br />La première partie du travail consiste à développer et valider une méthode de traitement du signal, basée sur l'utilisation de la transformée en ondelette, capable de détecter, localiser, classifier (simple ou multiple) les bouffées contenues dans un signal bruité et propose une méthode d'estimation des paramètres acoustiques et de vitesse d'écoulement par utilisation d'une méthode des moindres carrés appliquée au signal de fréquence instantanée estimé suite à la détection des bouffées.<br />La deuxième partie de cette thèse permet d'initialiser des travaux, en collaboration avec le laboratoire d'acoustique d'Edimbourg, sur l'étalonnage de microphone en champ libre par mesures de vitesses acoustiques VLD.<br />Une première étude de faisabilité d'estimation de la pression à partir de mesures de vitesses à une dimension est menée, permettant d'envisager un étalonnage des microphones à réponse en pression. Puis, dans un second temps, une approche analytique basée sur la formulation intégrale de Green propose de développer un modèle à deux dimensions du champ de pression en fonction de la vitesse au voisinage très proche du microphone dans le but d'étalonner les microphones en champ libre.

Page generated in 0.0602 seconds