• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 365
  • 211
  • 190
  • Tagged with
  • 770
  • 770
  • 519
  • 397
  • 375
  • 349
  • 348
  • 335
  • 332
  • 314
  • 311
  • 301
  • 298
  • 93
  • 69
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
421

De l'Apprentissage Statistique pour le Contrôle Optimal et le Traitement du Signal

Pietquin, Olivier 10 May 2011 (has links) (PDF)
Les travaux présentés dans ce manuscrit ont pour but le développement de méthodes de prise de décisions optimales (statiques ou séquentielles) ou de traitement de signaux par des méthodes d'appren- tissage automatique. Ils répondent cependant à un certain nombre de contraintes qui ont été imposées par l'objectif de prendre en compte la présence de l'humain dans la boucle de décision ou de traitement ou même comme générateur des signaux que l'on analyse. La présence de l'humain rend la nature des données que l'on traite assez imprévisible et, à une même situation en apparence, des décisions diffé- rentes peuvent être prises. Dans les domaines de l'apprentissage statistique, du contrôle optimal ou du traitement du signal ceci se traduit par la nécessité de gérer l'incertain, de traiter le caractère stochastique du système ainsi que la non-stationnarité de celui-ci. Ainsi, les décisions que l'on considère optimales peuvent dépendre de manière aléatoire de la situation mais de plus, cette dépendance peut varier avec le temps. Des méthodes d'optimisation convergeant vers une solution globale ne sont donc pas adaptées mais des méthodes permettant d'apprendre au fil de l'eau et de poursuivre l'évolution de la solution optimale seront préférées. Par ailleurs, dans le cas où les décisions résultent en une action sur le monde extérieur, il est né- cessaire de quantifier le risque pris en accomplissant ces actions, particulièrement si ces actions doivent avoir un impact sur l'humain. Ceci passe par une estimation de l'incertitude sur le résultat des actions possibles et la sélection en conséquence de ces actions. Une autre implication est qu'il ne sera pas tou- jours envisageable de tester toutes les actions possibles pour en estimer les effets puisque ces actions peuvent ne pas être acceptables pour l'humain. Ainsi, il faudra apprendre à partir d'exemples de situa- tions imposées ce qui se traduit par une phase d'inférence utilisant les informations observables pour en déduire des conséquences sur des situations que l'on ne peut observer. Les travaux exposés dans ce manuscrit apportent des contributions théoriques permettant de tenir compte de ces contraintes et des applications à des problèmes concrets imposant ces contraintes seront exposées.
422

De l'utilisation des noyaux maxitifs en traitement de l'information

Loquin, Kevin 03 November 2008 (has links) (PDF)
Dans cette thèse, nous proposons et développons de nouvelles méthodes en statistiques et en traitement du signal et des images basées sur la théorie des possibilités. Ces nouvelles méthodes sont des adaptations d'outils usuels de traitement d'information dont le but est de prendre en compte les défauts dus à la méconnaissance de l'utilisateur sur la modélisation du phénomène observé. Par cette adaptation, on passe de méthodes dont les sorties sont précises, ponctuelles, à des méthodes dont les sorties sont intervallistes et donc imprécises. Les intervalles produits reflètent, de façon cohérente, l'arbitraire dans le choix des paramètres lorsqu'une méthode classique est utilisée.<br />Beaucoup d'algorithmes en traitement du signal ou en statistiques utilisent, de façon plus ou moins explicite, la notion d'espérance mathématique associée à une représentation probabiliste du voisinage d'un point, que nous appelons noyau sommatif. Nous regroupons ainsi, sous la dénomination d'extraction sommative d'informations, des méthodes aussi diverses que la modélisation de la mesure, le filtrage linéaire, les processus d'échantillonnage, de reconstruction et de dérivation d'un signal numérique, l'estimation de densité de probabilité et de fonction de répartition par noyau ou par histogramme,...<br />Comme alternative à l'extraction sommative d'informations, nous présentons la méthode d'extraction maxitive d'informations qui utilise l'intégrale de Choquet associée à une représentation possibiliste du voisinage d'un point, que nous appelons noyau maxitif. La méconnaissance sur le noyau sommatif est prise en compte par le fait qu'un noyau maxitif représente une famille de noyaux sommatifs. De plus, le résultat intervalliste de l'extraction maxitive d'informations est l'ensemble des résultats ponctuels des extractions sommatives d'informations obtenues avec les noyaux sommatifs de la famille représentée par le noyau maxitif utilisé. En plus de cette justification théorique, nous présentons une série d'applications de l'extraction maxitive d'informations en statistiques et en traitement du signal qui constitue une boîte à outils à enrichir et à utiliser sur des cas réels.
423

Imagerie radar par synthèse d'ouverture pour la gestion du trafic autoroutier

Giret, Rébecca 12 December 2003 (has links) (PDF)
La gestion et la maitrise du trafic autoroutier prend une importance particulière depuis cette dernière décennie de par l'augmentation constante du nombre de véhicules sur les routes. A cet égard, l'utilisation du télépéage est un moyen de fluidifier le trafic automobile aux abords des accès autoroutiers : les véhicules sont identifiés lorsque le badge à bord des véhicules est détecté par la balise de télépéage. L'objectif de l'étude présentée dans ce mémoire est l'ajout d'une fonction d'imagerie à un système de télépéage pour contrôler la nature du véhicule. La balise de télépéage émet un signal à ondes continues pour la détection du badge de l'usager. La cible (le véhicule), en passant sous la balise, crée le mouvement nécessaire à une synthèse d'ouverture. En effet, l'imagerie radar par synthèse d'ouverture permet l'obtention d'une image radar haute résolution. Dans l'axe distance (axe de propagation de l'onde émise), cette résolution peut être obtenue avec un signal impulsionnel et/ou modulé. La résolution dans l'axe azimut (sens de déplacement du radar ou de la cible) est atteinte grâce au mouvement relatif entre le radar et la cible.
424

Optimisation de la précision de calcul pour la réduction d'énergie des systèmes embarqués

Nguyen, Hai-Nam 16 December 2011 (has links) (PDF)
Cette thèse s'inscrit dans le contexte de la forte augmentation du débit et de la puissance de calcul des systèmes de télécommunications. Cette augmentation entraîne une consommation d'énergie importante et réduit la durée de batterie, ce qui est primordiale pour un système embarqué. Nous proposons des mécanismes permettant de réduire la consommation d'énergie dans un système embarqué, plus particulièrement dans un terminal mobile sans fil. L'implantation efficace des algorithmes de traitement numérique du signal dans les systèmes embarqués requiert l'utilisation de l'arithmétique virgule fixe afin de satisfaire des contraintes de coût, de consommation et d'encombrement. Dans les approches classiques, la largeur des données et des calculs est considérée au pire cas lors de la détermination des spécifications afin qu'elles soient satisfaites dans tout les cas. Nous proposons une approche d'adaptation dynamique, permettant de changer la spécification en fonction de l'environnement (par exemple les conditions d'un canal de transmission) avec pour objectif de réduire la consommation d'énergie dans certaines conditions. Tout d'abord, la relation entre la puissance de bruit de quantification et le taux d'erreur binaire du système en fonction du bruit au récepteur est établie pour une chaîne de transmission QPSK. Ce résultat est appliqué dans la technique d'accès multiple par répartition de codes en séquence directe (DS-CDMA). Parmi plusieurs systèmes de télécommunications utilisant la technique DS-CDMA, nous montrons comment adapter dynamiquement la précision de calcul d'un récepteur 3G WCDMA. La conversion en virgule fixe nécessite un algorithme d'optimisation combinatoire pour l'optimisation des largeurs des opérateurs sous une contrainte de précision. La deuxième axe de ces travaux de thèse concerne l'étude d'algorithmes d'optimisation adaptés au problème de l'optimisation des largeurs de données. Nous proposons de nouveaux algorithmes pour les problèmes à une seule contrainte ou à une suite des contraintes correspondant à différents niveaux de précision pour les systèmes auto-adaptatifs. Le résultat des algorithmes génétiques multi-objectifs, sous forme d'une frontière de Pareto, permet d'obtenir la largeur correspondant à chaque niveau du bruit de quantification. Une version améliorée des algorithmes génétiques combinée avec l'élitisme et la recherche tabou est proposée. En plus, nous proposons d'appliquer GRASP, un algorithme de recherche locale stochastique permettant de trouver le résultat dans un temps plus faible en comparaison avec les algorithmes génétiques.
425

Restauration d'images par temps de brouillard et de pluie : applications aux aides à la conduite

Halmaoui, Houssam 30 November 2012 (has links) (PDF)
Les systèmes d'aide à la conduite (ADAS) ont pour objectif d'assister le conducteur et en particulier d'améliorer la sécurité routière. Pour cela, différents capteurs sont généralement embarqués dans les véhicules afin, par exemple, d'avertir le conducteur en cas de danger présent sur la route. L'utilisation de capteurs de type caméra est une solution économiquement avantageuse et de nombreux ADAS à base de caméra voient le jour. Malheureusement, les performances de tels systèmes se dégradent en présence de conditions météorologiques défavorables, notamment en présence de brouillard ou de pluie, ce qui obligerait à les désactiver temporairement par crainte de résultats erronés. Hors, c'est précisément dans ces conditions difficiles que le conducteur aurait potentiellement le plus besoin d'être assisté. Une fois les conditions météorologiques détectées et caractérisées par vision embarquée, nous proposons dans cette thèse de restaurer l'image dégradée à la sortie du capteur afin de fournir aux ADAS un signal de meilleure qualité et donc d'étendre la gamme de fonctionnement de ces systèmes. Dans l'état de l'art, il existe plusieurs approches traitant la restauration d'images, parmi lesquelles certaines sont dédiées à nos problématiques de brouillard ou de pluie, et d'autres sont plus générales : débruitage, rehaussement du contraste ou de la couleur, "inpainting"... Nous proposons dans cette thèse de combiner les deux familles d'approches. Dans le cas du brouillard notre contribution est de tirer profit de deux types d'approches (physique et signal) afin de proposer une nouvelle méthode automatique et adaptée au cas d'images routières. Nous avons évalué notre méthode à l'aide de critères ad hoc (courbes ROC, contraste visibles à 5 %, évaluation sur ADAS) appliqués sur des bases de données d'images de synthèse et réelles. Dans le cas de la pluie, une fois les gouttes présentes sur le pare-brise détectées, nous reconstituons les parties masquées de l'image à l'aide d'une méthode d'"inpainting" fondée sur les équations aux dérivées partielles. Les paramètres de la méthode ont été optimisés sur des images routières. Enfin, nous montrons qu'il est possible grâce à cette approche de construire trois types d'applications : prétraitement, traitement et assistance. Dans chaque famille, nous avons proposé et évalué une application spécifique : détection des panneaux dans le brouillard ; détection de l'espace navigable dans le brouillard ; affichage de l'image restaurée au conducteur.
426

Reconstruction en tomographie dynamique par approche inverse sans compensation de mouvement

Momey, Fabien 20 June 2013 (has links) (PDF)
La tomographie est la discipline qui cherche à reconstruire une donnée physique dans son volume, à partir de l'information indirecte de projections intégrées de l'objet, à différents angles de vue. L'une de ses applications les plus répandues, et qui constitue le cadre de cette thèse, est l'imagerie scanner par rayons X pour le médical. Or, les mouvements inhérents à tout être vivant, typiquement le mouvement respiratoire et les battements cardiaques, posent de sérieux problèmes dans une reconstruction classique. Il est donc impératif d'en tenir compte, i.e. de reconstruire le sujet imagé comme une séquence spatio-temporelle traduisant son "évolution anatomique" au cours du temps : c'est la tomographie dynamique. Élaborer une méthode de reconstruction spécifique à ce problème est un enjeu majeur en radiothérapie, où la localisation précise de la tumeur dans le temps est un prérequis afin d'irradier les cellules cancéreuses en protégeant au mieux les tissus sains environnants. Des méthodes usuelles de reconstruction augmentent le nombre de projections acquises, permettant des reconstructions indépendantes de plusieurs phases de la séquence échantillonnée en temps. D'autres compensent directement le mouvement dans la reconstruction, en modélisant ce dernier comme un champ de déformation, estimé à partir d'un jeu de données d'acquisition antérieur. Nous proposons dans ce travail de thèse une approche nouvelle ; se basant sur la théorie des problèmes inverses, nous affranchissons la reconstruction dynamique du besoin d'accroissement de la quantité de données, ainsi que de la recherche explicite du mouvement, elle aussi consommatrice d'un surplus d'information. Nous reconstruisons la séquence dynamique à partir du seul jeu de projections courant, avec pour seules hypothèses a priori la continuité et la périodicité du mouvement. Le problème inverse est alors traité rigoureusement comme la minimisation d'un terme d'attache aux données et d'une régularisation. Nos contributions portent sur la mise au point d'une méthode de reconstruction adaptée à l'extraction optimale de l'information compte tenu de la parcimonie des données -- un aspect typique du problème dynamique -- en utilisant notamment la variation totale (TV) comme régularisation. Nous élaborons un nouveau modèle de projection tomographique précis et compétitif en temps de calcul, basé sur des fonctions B-splines séparables, permettant de repousser encore la limite de reconstruction imposée par la parcimonie. Ces développements sont ensuite insérés dans un schéma de reconstruction dynamique cohérent, appliquant notamment une régularisation TV spatio-temporelle efficace. Notre méthode exploite ainsi de façon optimale la seule information courante à disposition ; de plus sa mise en oeuvre fait preuve d'une grande simplicité. Nous faisons premièrement la démonstration de la force de notre approche sur des reconstructions 2-D+t à partir de données simulées numériquement. La faisabilité pratique de notre méthode est ensuite établie sur des reconstructions 2-D et 3-D+t à partir de données physiques "réelles", acquises sur un fantôme mécanique et sur un patient
427

Analyse du procédé de crêpage du papier et suivi de l'usure des lames de crêpage par émission acoustique

Théberge, Jean January 2008 (has links)
Ce document présente les approches suivies et les résultats des investigations théoriques et expérimentales entreprises dans le cadre de l'étude du procédé de crêpage du papier depuis le début de la maîtrise faite en collaboration avec Kruger Produits Ltée. L'objectif du projet est de mieux comprendre les phénomènes reliant la qualité du papier a l'état d'usure des lames de crêpage. À cette fin, une méthode expérimentale basée sur les techniques de mesure par émission acoustique afin de suivre en temps réel le comportement mécanique et l'état d'usure des lames est proposée. Ce suivi en temps réel permet d'identifier par émission acoustique les mécanismes reliés à l'usure des lames par friction et d'établir une corrélation entre le comportement mécanique de la lame et les différents paramètres de qualité du papier, dont le crêpage. Ce mémoire présente donc en premier lieu la problématique du projet, les éléments fondamentaux qui entrent en jeu lors du procédé de crêpage, la description des lames utilisées dans le procédé industriel, l'analyse des principes de base des phénomènes d'usure des lames en relation avec les aspects métallurgiques du matériau et enfin, les principes du suivi de l'usure par la technique d'émission acoustique et le traitement numérique des signaux. La deuxième partie du mémoire s'attarde sur les procédures expérimentales suivies et sur la synthèse des résultats obtenus. La troisième partie présente la conclusion sur les résultats obtenus à partir de laquelle une série de recommandations sont mises de l'avant afin de permettre à l'entreprise d'améliorer l'opération de crêpage du papier.
428

Contribution à la compréhension des signaux de fluxmétrie laser Doppler : traitement des signaux et interprétations physiologiques

Buard, Benjamin 10 September 2010 (has links) (PDF)
La compréhension du système cardiovasculaire périphérique est une clé indispensable pour le diagnostic précoce de nombreuses pathologies. Les signaux de fluxmétrie laser Doppler donnent des informations sur la microcirculation sanguine et permettent ainsi d'avoir une vue périphérique du système cardiovasculaire. Ce travail de thèse s'inscrit dans l'étude des propriétés de ces signaux physiologiques. Dans un premier temps nous présentons la technique de fluxmétrie laser Doppler et son utilité en recherche clinique. Nous détaillons ensuite l'analyse que nous avons menée afin d'obtenir des informations sur l'origine des fluctuations observées sur les signaux. L'implémentation de différents outils de traitement du signal dans les domaines temporel et fréquentiel a permis de montrer que ces fluctuations pourraient provenir, en partie, des propriétés physiologiques et/ou anatomiques de la zone étudiée. Afin d'étudier plus en détails ces fluctuations, nous avons ensuite mis en place une analyse multifractale des signaux de fluxmétrie laser Doppler. Les différents résultats obtenus ont permis de faire ressortir la possible implication des propriétés physiologiques de la zone étudiée dans la complexité des signaux de fluxmétrie laser Doppler.
429

NOUVELLES MÉTHODES D'IDENTIFICATION D'ONDES DE SURFACE - ÉTUDE DE L'ONDE A SUR UNE CIBLE COURBE

Loïc, Martinez 29 January 1998 (has links) (PDF)
Le problème de la propagation d'ondes sur une plaque plane élastique en contact avec deux liquides différents est traité. Une étude numérique détaillée montre les propriétés de l'onde A et l'existence d'une nouvelle onde (onde A*) quand deux fluides différents sont en contact avec la lame. Une étude expérimentale des ondes A et A* est ensuite menée en utilisant des techniques expérimentales particulières à la caractérisation de l'onde A: génération d'une onde non atténuée par une impulsion et caractérisation par analyse temps-fréquence. La propagation d'une onde dans un milieu monodimensionnel infini est ensuite étudiée en utilisant les espaces de Fourier bidimensionnels. Un soin particulier est accordé à l'étude d'une onde atténuée et dispersive générée à partir d'une impulsion brève. Un nouveau lien est alors mis en évidence entre le vecteur d'onde complexe et la pulsation complexe. Ce lien autorise ainsi, et pour la première fois, une caractérisation complète des représentations toutfréquence et vecteur d'onde-temps. Sur la base de ces résultats, deux aspects sont développés: d'une part la modélisation de la propagation d'une onde autour d'un tube immergé (milieu monodimentionnel limité) et d'autre part de nouvelles méthodes de traitement du signal. L'aspect résonant dû à la propagation sur un tube d'une onde générée par une impulsion est ainsi montré et modélisé. De nouvelles méthodes de caractérisation d'ondes de surface sont mises en place, permettant de mesurer vecteur d'onde et pulsation complexes, sur des distances très courtes de l'ordre de quelques longueurs d'ondes. En utilisant ces nouveaux outils, la propagation de l'onde A est étudiée expérimentalement sur un tube immergé dans l'eau. L'influence des paramètres géométriques du tube ainsi que de son remplissage est étudiée. De nouveaux phénomènes sont mis en évidence lorsque le liquide intérieur possède une vitesse de propagation du son inférieure à celle du liquide externe, l'onde A* est observée périodiquement spatialement. On montre que la représentation tout fréquence correspondant à la somme de tous ces échos est le produit de convolution de la représentation tout fréquence de l'onde A* seule avec un résonateur de Fabry-Perot. Ce modèle expérimental est en bon accord avec les résultats théoriques.
430

Modélisations numériques temporelles des CRBM en compatibilité électromagnétiques. Contributions aux schémas volumes finis

Lalléchère, Sébastien 12 December 2006 (has links) (PDF)
Cette thèse concerne la modélisation numérique de Chambres Réverbérantes à Brassage de Modes (CRBM). Cet outil est utilisé pour les tests en Compatibilité ElectroMagnétique (CEM) de systèmes électroniques variés. L'utilisation de modèles temporel, géométrique et électronique particuliers a été motivée en s'appuyant sur un maximun de paramètres réels. La prise en compte naturelle par la méthode des Volumes Finis dans le Domaine Temporel (VFDT) de géométries complexes autorise la modélisation conforme des équipements rencontrés en CRBM. L'intégration réaliste des pertes est assurée via un filtre temporel spécifique. Ces travaux ont permis de quantifier au mieux les effets de la dissipation numérique VFDT : une technique temporelle hybride Différences Finies/ Volumes Finis adaptée est ainsi proposée. Enfin, différentes améliorations numériques permettent d'optimiser les développements actuels des simulations temporelles en chambre réverbérante sont présentées.

Page generated in 0.5444 seconds