• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 4
  • 1
  • Tagged with
  • 27
  • 27
  • 12
  • 12
  • 11
  • 10
  • 9
  • 8
  • 6
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modélisation des chaînes d'acquisition pour améliorer l'identification des cristaux du LabPET

Lemieux, François January 2012 (has links)
La tomographie d'émission par positrons (TEP) dédiée aux petits animaux est une technique d'imagerie métabolique très utile pour la recherche biomédicale en raison de la grande similitude du génome de la souris transgénique à celui de l'humain. Cette imagerie, de type fonctionnelle, est généralement couplée à une imagerie anatomique comme la tomodensitométrie (TDM) pour améliorer les diagnostics. C'est dans cette sphère de recherche que des travaux sont menés à Sherbrooke pour intégrer les deux modalités d'imagerie en utilisant les mêmes détecteurs et la même chaîne électronique basée sur des photodiodes à avalanche (PDA). Le premier scanner de cette génération est appelé le LabPET. Le LabPET est disponible avec 1536, 3072 ou 4608 PDA selon la longueur axiale. Malgré un rapport signal/bruit plus faible que d'autres capteurs, les PDA, couplées individuellement aux paires de cristaux, permettent d'obtenir une excellente résolution spatiale et un faible temps mort. Par contre, comme deux cristaux dont les constantes de décroissante sont différentes sont couplés à la même PDA, une identification est requise pour localiser l'interaction du rayonnement gamma et obtenir la bonne ligne de réponse. Actuellement, un filtre adaptatif avec un modèle unique de référence de la chaîne électronique pour tout le scanner permet de retrouver la fonction de transfert du cristal avec un taux d'erreur pouvant atteindre moins de 1%. Le modèle de référence contient toutes les informations connues a priori de la chaîne d'acquisition. Le modèle unique pour tout le scanner est correct comme preuve de faisabilité, mais s'avère en pratique non représentatif à cause de la variabilité des détecteurs et des composants électroniques. Un modèle non approprié dégrade l'identification globale des cristaux, ce qui affecte la résolution d'image. Ce projet de maîtrise vise à pallier ce problème en calculant automatiquement un modèle personnalisé pour chaque canal. Quatre algorithmes basés sur différentes minimisations de la fonction de coût, soit le filtre de Wiener, la maximisation de la ressemblance, la minimisation du biais temporel et la minimisation du taux d'erreur, ont été développés et caractérisés comme modèle individuel du canal. Le premier est un algorithme standard pour modéliser un signal, le second ressemble beaucoup au filtre de Wiener, mais avec quelques approximations en moins. Le troisième utilise de l'information connue a priori sur les cristaux et le dernier maximise directement l'identification des cristaux. Un taux d'erreur d'identification de cristaux pour le modèle unique de la chaîne d'acquisition dans le scanner LabPET 4-cm de Sherbrooke est d'environ 3,53 % pour une fenêtre en énergie de 350-650 keV. Les nouveaux modèles personnalisés des chaînes ont obtenu respectivement des taux d'erreurs de plus de 10 %, 3,66 %, 2,96 % et 1,45 % en fonction des algorithmes présentés précédemment. Ainsi, il devient évident qu'un modèle individuel et optimal pour chaque canal permet d'améliorer le taux d'erreur moyen pour le scanner, et ce, sans changer l'architecture matérielle ou logicielle, mais au dépend d'un temps de calibration plus longue.
2

Traitement STAP en environnement hétérogène. Application à la détection radar et implémentation sur GPU / STAP processing in heterogeneous environment. Application to radar detection and implementation on GPU

Degurse, Jean-François 15 January 2014 (has links)
Les traitements spatio-temporels adaptatifs (STAP) sont des traitements qui exploitent conjointement les deux dimensions spatiale et temporelle des signaux reçus sur un réseau d'antennes, contrairement au traitement d'antenne classique qui n'exploite que la dimension spatiale, pour leur filtrage. Ces traitements sont particulièrement intéressants dans le cadre du filtrage des échos reçus par un radar aéroporté en provenance du sol pour lesquels il existe un lien direct entre direction d'arrivée et fréquence Doppler. Cependant, si les principes des traitements STAP sont maintenant bien acquis, leur mise en œuvre pratique face à un environnement réel se heurte à des points durs non encore résolus dans le contexte du radar opérationnel. Le premier verrou, adressé par la thèse dans une première phase, est d'ordre théorique, et consiste en la définition de procédures d'estimation de la matrice de covariance du fouillis sur la base d'une sélection des données d'apprentissage représentatives, dans un contexte à la fois de fouillis non homogène et de densité parfois importante des cibles d'intérêts. Le second verrou est d'ordre technologique, et réside dans l'implémentation physique des algorithmes, lié à la grande charge de calcul nécessaire. Ce point, crucial en aéroporté, est exploré par la thèse dans une deuxième phase, avec l'analyse de la faisabilité d'une implémentation sur GPU des étapes les plus lourdes d'un algorithme de traitement STAP. / Space-time adaptive processing (STAP) is a processing that makes use of both the spatial and the temporal dimensions of the received signals by an antenna array, whereas conventional antenna processing only exploits the spatial dimension to perform filtering. These processing are very powerful to remove ground echoes received by airborne radars, where there is a direct relation between the arrival angle and the Doppler frequency. However, if the principles of STAP processing are now well understood, their performances are limited when facing practical situations. The first part of this thesis, is theoretical, and consists of defining effective procedures to estimate the covariance matrix of the clutter using a representative selection of training data, in a context of both non-homogeneous clutter and sometimes high density of targets. The second point studied in this thesis is technological, and lies in the physical implementation of the selected algorithms, because of their high computational workload requirement. This is a key point in airborne operations, and is explored by the thesis in a second phase, with the analysis of the feasibility of implementation on GPU of the heaviest stages of a STAP processing.
3

Etude, Modélisation et Amélioration des Performances des<br />Convertisseurs Analogique Numérique Entrelacés dans le Temps

Jridi, Maher 03 December 2007 (has links) (PDF)
Dans un contexte où les systèmes communicants fleurissent, les Convertisseurs Analogique Numérique CAN doivent suivre les demandes des nouveaux standards de télécommunications. Un convertisseur seul, ne peut pas allier rapidité, précision et faible consommation de puissance. Dans le cadre de nos travaux, nous somme intéressé à une structure prometteuse de CAN basée sur l'entrelacement temporel de plusieurs convertisseurs, TIADC. Le taux d'échantillonnage augmente proportionnellement avec le nombre de CAN mais des problèmes de disparité entre les différents CAN réduisent la résolution effective du TIADC. Dans ce mémoire, nous avons contribuer à l'étude de ces convertisseurs, notamment aux pertes engendrées par les disparités entre les différents convertisseurs. La structure du TIADC a été modélisé dans un environnement de description matérielle. Plusieurs solutions de calibrations existantes ont été simulé afin de vérifier leur fonctionnement et de pouvoir proposer deux méthodes de correction. Une première méthode en différé visant le domaine de l'instrumentation et une seconde, en ligne visant des application de élécommunications. La première méthode a été vérifié par des données expérimentales, la seconde était implémenté dans un FPGA et vérifié par des tests et des mesures.
4

Évaluation analytique de la précision des systèmes en virgule fixe

Rocher, Romuald 07 December 2006 (has links) (PDF)
Lors du développement des applications de traitement numérique du signal, les algorithmes sont spécifiés en virgule flottante pour s'affranchir des problèmes liés à la précision des calculs. Cependant, pour satisfaire les contraintes de coût et de consommation, l'implantation de ces applications dans les systèmes embarqués nécessite l'utilisation de l'arithmétique virgule fixe. Ainsi, l'application définie en virgule flottante doit être convertie en une spécification virgule fixe. Pour réduire les temps de mise sur le marché des applications, des outils de conversion automatique de virgule flottante en virgule fixe sont nécessaires. Au sein de ces outils, une étape importante correspond à l'évaluation de la précision de la spécification virgule fixe. En effet, l'utilisation de l'arithmétique virgule fixe se traduit par la présence de sources de bruits liées à l'élimination de bits lors d'un changement de format. Ces bruits se propagent au sein du système et modifient la précision des calculs en sortie de l'application. La dégradation de la précision des calculs doit être maîtrisée afin de garantir l'intégrité de l'algorithme et les performances de l'application. La précision de l'application peut être évaluée par des simulations virgule fixe, mais celles-ci requièrent des temps de calcul élevés. L'utilisation de ce type d'approche pour l'optimisation d'une spécification virgule fixe conduit à des temps d'optimisation prohibitifs. De ce fait, l'objectif de cette thèse est de proposer une nouvelle approche pour l'évaluation automatique de la précision des systèmes en virgule fixe basée sur un modèle analytique. La précision est évaluée en déterminant l'expression du Rapport Signal à Bruit de Quantification (RSBQ) de l'application considérée. Des méthodes ont été proposées pour traiter les systèmes linéaires et invariants dans le temps (LTI) ainsi que les systèmes non-LTI non-récursifs. Ainsi, l'objectif de la thèse est de proposer une méthode d'évaluation automatique de la précision en virgule fixe pour tout type de système et notamment, les systèmes non-LTI présentant une recursion dans le graphe, comme les filtres adaptatifs. Dans un premier temps, des modèles d'évaluation de la précision dédiés aux filtres adaptatifs sont proposés. Dans un second temps, une extension vers un modèle général pour tout type de système est présentée. Le premier aspect de ce travail concerne le développement de modèles analytiques d'évaluation de la précision dédiés à des applications particulières issues du domaine du filtrage adaptatif. En effet, ces applications non-LTI ne peuvent être traitées par les techniques automatiques classiques. Pour ces systèmes, les modèles dédiés existants ne sont valables que pour une loi de quantification par arrondi convergent. Les modèles proposés par notre approche prennent en compte toutes les lois de quantification, notamment la loi de quantification par troncature. Pour les différents algorithmes adaptatifs et notamment les algorithmes du gradient, une expression analytique de la puissance du bruit en sortie du système est proposée. Ces modèles ont été intégrés au sein d'un générateur d'IP (Intellectual Properties) permettant de générer un composant matériel ou logiciel optimisé d'un point de vue arithmétique. Le second aspect de notre travail correspond à la définition d'une approche générale d'évaluation analytique de la précision valable pour l'ensemble des systèmes composés d'opérations arithmétiques. Cette méthode se base sur une approche matricielle permettant de traiter plus facilement certains algorithmes de transformée (FFT, DCT). Pour les systèmes récursifs, le déroulement de la récurrence est mis en oeuvre. La complexité de notre approche a été déterminée et un modèle de prédiction linéaire a été proposé afin de réduire celle-ci. Ce modèle permet d'accélérer le déroulement de la récurrence. Le modèle a été implanté sur l'outil Matlab et s'intègre au flot général de conversion automatique de virgule flottante en virgule fixe. Cette approche permet ainsi d'optimiser la largeur des opérateurs dans un processus d'optimisation du coût de l'application (consommation d'énergie, surface de l'architecture). Ces deux approches sont évaluées et comparées en termes de précision et de temps de calcul pour différentes applications, et plus particulièrement, le Least Mean Square (LMS) ou les Algorithmes de Projection Affine (APA). Les deux méthodes permettent d'obtenir des valeurs de la puissance du bruit en sortie du système très proches des valeurs réelles. Le temps d'exécution du modèle sous Matlab a été évalué. L'approche par prédiction linéaire permet de réduire de manière significative le temps de calcul de la puissance du bruit. Les temps d'exécution, dans le cas d'un processus d'optimisation de la largeur des opérateurs, ont été mesurés et comparés à ceux obtenus par une approche par simulations virgule fixe. Notre approche permet de réduire le temps de calcul par rapport aux approches basées sur la simulation au bout de quelques itérations seulement. Ces résultats montrent l'intérêt de notre méthodologie pour réduire le temps de développement des systèmes en virgule fixe.
5

Traitement numérique du signal acoustique pour une aide aux malentendants

Fillon, Thomas 12 1900 (has links) (PDF)
Pour un malentendant, le déficit auditif peut représenter un handicap majeur tant du point de vue physique que du point de vue social. Pour cette raison, la réhabilitation auditive constitue un champ d'application particulièrement important du traitement du signal audio et ses enjeux dépassent le seul contexte technologique. C'est dans ce cadre, et en particulier dans celui de la réhabilitation auditive par port de prothèses externes, que se situe ce travail de thèse. L'audition étant un sens particulièrement performant et complexe, compenser les pertes auditives des malentendants est une tâche difficile et délicate. En outre, les appareils sont conçus à partir d'éléments miniaturisés de pointe, notamment les micro-processeurs, ce qui impose des contraintes de fonctionnement très strictes. Au cours de nos recherches, nous avons travaillé sur la réalisation d'un module de rehaussement du signal de parole utilisant une technique d'atténuation spectrale à court-terme mise au point par Ephraïm et Malah. A l'issue de ce travail, nous avons proposé d'adapter cette méthode en réalisant l'analyse spectrale selon une échelle en fréquence conforme à notre perception auditive, l'échelle ERB (Equivalent Rectangular Bandwith) qui modélise la résolution fréquentielle des filtres auditifs. Dans un deuxième temps, nous avons étudié le problème de retour acoustique entre les transducteurs de la prothèse. Ce retour acoustique est source d'instabilité pour le système et aboutit fréquemment à la production d'un effet Larsen. Ce type de désagrément est extrêmement gênant et contraint l'audioprothésiste à limiter le gain d'amplification de la prothèse. De ce fait, la réhabilitation auditive ne peut pas être optimale. Pour pallier ce problème, nous proposons d'utiliser une méthode de filtrage adaptatif multi-délais basée sur le LMS (Least Mean Square) et réalisée dans le domaine de la transformée de Hartley. Du fait du retour acoustique, une prothèse auditive est un système électro-acoustique en boucle fermée. Les conditions d'application sont donc contraires aux hypothèses de convergence du LMS. Pour assurer la convergence de l'algorithme de descente de gradient, nous proposons une nouvelle méthode de définition du pas d'adaptation. Afin de vérifier le bon fonctionnement de la méthode proposée dans des conditions réalistes, nous avons mis en place une plate-forme de test en temps-réel basée sur un prototype de prothèses.
6

Traitement STAP en environnement hétérogène. Application à la détection radar et implémentation sur GPU

Degurse, Jean-François 15 January 2014 (has links) (PDF)
Les traitements spatio-temporels adaptatifs (STAP) sont des traitements qui exploitent conjointement les deux dimensions spatiale et temporelle des signaux reçus sur un réseau d'antennes, contrairement au traitement d'antenne classique qui n'exploite que la dimension spatiale, pour leur filtrage. Ces traitements sont particulièrement intéressants dans le cadre du filtrage des échos reçus par un radar aéroporté en provenance du sol pour lesquels il existe un lien direct entre direction d'arrivée et fréquence Doppler. Cependant, si les principes des traitements STAP sont maintenant bien acquis, leur mise en œuvre pratique face à un environnement réel se heurte à des points durs non encore résolus dans le contexte du radar opérationnel. Le premier verrou, adressé par la thèse dans une première phase, est d'ordre théorique, et consiste en la définition de procédures d'estimation de la matrice de covariance du fouillis sur la base d'une sélection des données d'apprentissage représentatives, dans un contexte à la fois de fouillis non homogène et de densité parfois importante des cibles d'intérêts. Le second verrou est d'ordre technologique, et réside dans l'implémentation physique des algorithmes, lié à la grande charge de calcul nécessaire. Ce point, crucial en aéroporté, est exploré par la thèse dans une deuxième phase, avec l'analyse de la faisabilité d'une implémentation sur GPU des étapes les plus lourdes d'un algorithme de traitement STAP.
7

FILTRAGE ADAPTATIF ET DIFFUSION ANISOTROPE POUR L'AIDE A L'INTERPRETATION DES DONNEES SISMIQUES

Dargent, Régis 17 July 2006 (has links) (PDF)
Ce mémoire traite du rehaussement d'images sismiques tridimensionnelles, constituées d'un empilement de couches géologiques, elles-mêmes interrompues par des failles sismiques. L'objectif, en apparence contradictoire, est de lisser les couches géologiques, tout en préservant certaines discontinuités : les failles. Les méthodes de filtrage adaptatif – couramment employées dans le domaine de l'imagerie sismique – ainsi que la diffusion anisotrope sont bien adaptés à cette problématique car elles permettent une prise en compte de l'orientation des couches, ainsi que de critères indiquant la possible présence de failles. Reprenant les points clefs des approches précédentes, nous proposons une équation d'évolution fondée sur la définition de trois zones de comportement différentié à l'intérieur du voisinage de chaque point. La première contient les points appartenant à la même couche géologique que le point central, la deuxième ceux correspondant aux couches voisines et la troisième les points incertains. La définition de ces zones est réalisée en chaque point à l'aide de l'orientation estimée des couches géologiques. Une évolution de cette méthode consiste à sélectionner, dans le voisinage défini précédemment, la sous-partie qui présente le moins de chances d'être traversée par une faille. Cette nouvelle approche permet non seulement de lisser l'image, mais également de renforcer la visibilité des failles. Les performances des méthodes proposées sont comparées à celles des approches classiques à l'aide d'un estimateur objectif de gain de qualité, employé sur des images de synthèse. Une comparaison visuelle de résultats obtenus sur des données réelles est également réalisée.
8

Egaliseurs multicanaux aveugles rapides et robustes aux erreurs de surestimation de l'ordre du canal

Kacha, Ibrahim 01 April 2007 (has links) (PDF)
Ce travail de thèse se cadre autour de la thématique d'identification / égalisation aveugle (autodidacte) de canaux de transmission, dont l'atout majeur est, incontestablement, la suppression de la séquence d'apprentissage. Néanmoins, une telle démarche présente certains inconvénients, par rapport à un traitement classique (avec séquence d'apprentissage) du problème, à savoir, un niveau de performance plus faible, un coût de calcul plus élevé et une sensibilité plus importante aux incertitudes sur certains paramètres, tel l'ordre du canal. Ce qui joue en défaveur d'une large application des schémas d'identification / égalisation aveugle dans la pratique. Tenant compte de cette problématique et afin d'améliorer les performances des systèmes d'identification / égalisation aveugle et de palier à leurs carences, cette étude vient, dans un premier temps, résumer, clarifier et évaluer un certain nombre de travaux déjà existants, et dans un deuxième temps, proposer deux nouvelles approches adaptatives et rapides d'égalisation du type erreur quadratique moyenne minimale (MMSE: Minimum Mean Square Error), aveugle du second ordre, pour des systèmes multicanaux à réponse impulsionnelle finie. La première approche, destinée à des systèmes à entrées multiples sorties multiples (MIMO: Multiple Input Multiple Output), est robuste aux erreurs de surestimation de l'ordre du canal. Tandis que la deuxième approche, destinée à des systèmes à une entrée plusieurs sorties (SIMO: Single Input Multiple Output), est totalement indépendante de l'ordre du canal.
9

Limites et outils d'optimisation du contrôle acoustique actif

Friot, Emmanuel 04 December 2007 (has links) (PDF)
Ce mémoire présente un ensemble de travaux de recherche destinés à élargir le domaine d'application du contrôle acoustique actif et à en améliorer les performances. Il vise à expliquer le nombre toujours petit des applications du contrôle actif par les contraintes physiques, telles que la contrainte de causalité des algorithmes en temps réel ou le raccourcissement de la longueur d'onde avec la fréquence, qui s'appliquent aux dispositifs de contrôle ; compte tenu de ces différentes contraintes il présente des outils d'optimisation pour concevoir des systèmes plus performants. Sont ainsi décrits des travaux de recherche orientés successivement vers un contrôle actif sur une zone de l'espace plus étendue, vers le contrôle de sons plus complexes, vers la résolution de problèmes de contrôle mieux posés puis vers le contrôle de grandeurs acoustiques non directement accessibles à la mesure. Au delà de cet exposé de travaux de recherche conduits en équipe au sein du Laboratoire de Mécanique et d'Acoustique du CNRS à Marseille, ce mémoire espère montrer que le contrôle actif n'est pas une simple mise en oeuvre technologique, un peu limitée et passée de mode, de théories connues de l'acoustique et de l'automatique mais bien un réel et actuel sujet de recherche en acoustique.
10

Prise de son distante par système multimicrophone. Application à la communication parlée en environnement bruyant

Lepauloux, Ludovick 08 December 2010 (has links) (PDF)
Dans notre société de plus en plus mobile, nous constatons que les systèmes de communication mains libres sont devenus une norme, que ce soit pour les interactions homme-machine ou homme-homme. Cependant, il est difficile de garantir la qualité du signal de parole lors d'une prise de son distante car les microphones captent en plus du signal désiré le bruit de fond, la réverbération, le signal d'écho et les autres sources de parole concurrentes. Les antennes acoustiques associées aux techniques de formation de voies sont une solution efficace et aujourd'hui technologiquement réalisable. Grâce à leur directivité, elles améliorent le rapport signal sur bruit de même que, en exploitant la corrélation spatiale du champ sonore, elles permettent de réduire la réverbération, l'écho et le bruit. Les antennes acoustiques jouent un rôle croissant dans la téléphonie mains libres, la reconnaissance de locuteur, les systèmes à commande vocale, l'aide aux malentendants ou la surveillance audio. Dans cette thèse, pour s'adapter aux environnements variants dans le temps, aux non-stationnarités des signaux et aux éventuels mouvements du locuteur, nous considérons les antennes adaptatives de type GSC (Generalized Sidelobe Canceller) pour leur implémentation avantageuse. Cependant, l'un des défauts majeurs de cette antenne, couramment utilisée, réside dans la fuite du signal utile dans l'étage d'estimation du bruit provoquant de fortes dégradations voire l'auto-annulation de ce signal en sortie. Pour résoudre ce problème, nous proposons de mettre à profit la structure récursive spécifiquement dédiée à la gestion de la diaphonie dans la technique d'annulation adaptative de bruit bicapteur, nommée CTRANC (Crosstalk-Resistant Adaptive Noise Canceller). Ainsi, avant de proposer une extension de cette méthode au cas du GSC et donc de définir une nouvelle architecture récursive pour celui-ci, nous donnons dans un premier temps une analyse complète du CTRANC et proposons de nouveaux algorithmes adaptatifs dans le domaine fréquentiel. Par ailleurs, notre étude fournit également de nouveaux résultats sur les propriétés de convergence et l'existence d'un point d'équilibre pour le CTRANC. Enfin, des résultats expérimentaux confortent l'analyse et montrent l'efficacité des solutions proposées pour la suppression du signal de fuite et l'amélioration des performances.

Page generated in 0.0488 seconds