• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 388
  • 128
  • 40
  • 2
  • Tagged with
  • 565
  • 176
  • 166
  • 141
  • 105
  • 101
  • 87
  • 80
  • 77
  • 72
  • 68
  • 60
  • 58
  • 56
  • 55
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Premiers développements de l'optique intégrée planaire monomode, pour les longueurs d'onde entre 2 et 20 micromètres, Applications à l'interférométrie stellaire

Laurent, Emmanuel 05 May 2003 (has links) (PDF)
Depuis de nombreuses annees, l'optique guidée monomode est utilisée en interférométrie stellaire pour assurer la recombinaison des faisceaux. La solution de l'optique integree planaire monomode permet, de plus, d'obtenir une importante stabilité instrumentale pour un volume compact. Le filtrage modal combiné a ces avantages augmente nettement la précision de mesure des visibilité interférométriques. L'utilisation de l'optique intégrée offre des avantages décisifs pour les futures missions spatiales DARWIN et TPF "Terrestrial Planet Finder" fonctionnant en IR thermique (de 4 a 20 micromètres de longueurs d'onde). Les technologies d'optique intégrée basées sur la silice, gravure de couches minces et échange d'ions, développées pour l'infrarouge proche, sont utilisées avec succes dans la bande de transmission de l'atmosphere H [1470-1780 nm]. Dans ce travail de thèse, nous avons débuté le développement de l'optique intégrée pour étendre le domaine de longueurs d'onde entre 2 et 20 micromètres. Pour cela, les technologies basées sur la silice ont été validées dans la bande de l'atmosphère K [2000-2400 nm]. Une analyse de différentes technologies d'optique intégrée existantes a permis d'en sélectionner plusieurs qui sont compatibles avec les contraintes instrumentales et technologiques. Au travers de différentes réalisations et mesures, nous avons défini les développements technologiques à mener et les étapes de caractérisation nécessaires. Nous avons également mène des mesures pour déterminer le domaine de longueurs d'onde sur lequel il y a effectivement un guidage du mode fondamental.
102

Architecture dédiée au traitement d'image base sur les équations aux dérivées partielles

Dejnozkova, Eva January 2004 (has links) (PDF)
Les méthodes de traitement d'images fondées sur les équations aux dérivées partielles (EDP) bénéficient d'une attention particulière de la part de la communauté scientifique. Le nombre d'applications a considérablement augmenté après la formulation du problème sous forme d'ensembles de niveaux. Les EDPs s'appliquent dans de nombreux domaines tels le filtrage des images (diffusion non-linéaire), les contours actifs utilisés pour la segmentation des images statiques (graphe de Voronoï, Ligne de Partage des Eaux, plus court chemin, détection d'objets), aussi bien que des séquences d'images (suivi d'objets) ou encore des méthodes plus récentes tel le shape-from-shading. Les applications industrielles de ces méthodes sont néanmoins très limitées, d'une part par une complexité considérable de calculs (nombre d'itérations très élevé, par ex.), d'autre part par des difficultés rencontrées lors d'implantation embarquées (consommation d'énergie, exigences mémoire). Quelques expériences temps-réel ont été publiées avec des super-calculateurs ou des accélérateurs graphiques. Quant aux applications embarquées, elles sont à notre connaissance quasi-inexistantes. Notre but est de proposer une architecture dédiée, facilitant tant l'implantation temps-réel qu'embarquée. En vue de cet objectif nous proposons un nouvel algorithme de solution de l'équation Eikonale/calcul de fonction distance qui procède en parallèle, élimine l'usage des files d'attente hiérarchiques et permet d'obtenir la solution sur la totalité ou seulement sur une partie de l'image (le narrow band). La complexité de cet algorithme, nommé Massive Marching, est linéaire. Nous estimons que l'impact de Massive Marching est d'autant plus important pour la communauté de Morphologie Mathématique, qu'il s'agit du premier algorithme permettant d'obtenir en parallèle la ligne de partage des eaux non-biaisée. Ensuite, nous proposons deux types d'architecture (i) SIMD et (ii) plusieurs coeurs de processeurs embarqués implantant Massive Marching en parallèle ou semi-parallèle. Ces mêmes types d'architecture peuvent être utilisés pour implanter un filtrage aussi bien que des méthodes à évolution d'interface. La même architecture peut donc être utilisée pour implanter une application complète, composée de différents types d'algorithmes comme par exemple filtrage suivi par segmentation.
103

Traitement du signal en interferometrie monomode dans le cadre du projet AMBER. Application a l'observation interferometrique de l'environnement > circumstellaire des etoiles jeunes

Tatulli, Eric 01 October 2004 (has links) (PDF)
Les recents progres de l'interferometrie optique, en termes de resolution spatiale, de sensibilite et de precision des mesures, ont rendu cette technique particulierement bien adaptee a l'etude de l'environnement proche des etoiles jeunes, etoiles qui possedent en leur sein les cles de la formation stellaire et planetaire. De fait, les premieres observations interferometriques ont revele nombre d'informations essentielles sur la nature de la structure etendue entourant ces objets. L'instrument AMBER, le recombinateur proche infra-rouge 3 telescopes du Very Large Telescope Interferometer (VLTI), va, en inaugurant l'ere de l'imagerie interferometrique a tres haute resolution spatiale et spectrale, permettre de franchir une nouvelle etape dans la comprehension des processus physiques regissant ces etoiles. Cette these s'articule autour de l'instrument AMBER. Apres un resume des principes generaux de l'interferometrie optique en presence de turbulence atmospherique, je montre en quoi l'introduction de guides d'ondes dans le schema de recombinaison permet, en utilisant leurs proprietes de filtrage spatial, d'augmenter la precision et la robustesse des mesures. Partant de ces bases theoriques, je developpe ensuite les procedures de reduction de donnees AMBER,soulignant les points specifiques et novateurs concernant le traitement du signal interferometrique. Ces algorithmes ont ete testes et valides a partir de simulations, puis appliques aux mesures a moyenne resolution spectrale de l'etoile de Herbig Be MWC 297, qui presente une forte raie d'emission relative a la transition atomique de l'hydrogene Brackett gamma. Cette etude confirme l'existence d'un disque d'accretion autour de l'etoile et met en evidence la presence d'une enveloppe atmospherique deux fois plus etendue correspondant a la raie d'hydrogene. Enfin j'analyse dans un contexte theorique global, les methodes d'investigation des parametres astrophysiques d'une source observee avec un interferometre optique monomode, respectivement par ajustement de modeles et par reconstruction d'images. Je repertorie notamment les difficultes majeures limitant les capacites d'AMBER en tant qu'imageur de l'environnement circumstellaire des etoiles jeunes.
104

Modélisation et optimisation des performances CEM d'une association variateur de vitesse – machine asynchrone

Revol, Bertrand 21 November 2003 (has links) (PDF)
La Compatibilité Electromagnétique (CEM) apparaît aujourd'hui comme l'une des contraintes majeures de la conception des structures de l'électronique de puissance et plus précisément sur les variateurs de vitesse. Malheureusement, elle est trop souvent considérée comme la dernière phase du développement d'un convertisseur puisqu'elle représente le dernier obstacle à sa commercialisation. Si elle est intégrée à la conception, l'estimation a priori des perturbations conduites et rayonnées par la simulation peut alors permettre un gain considérable tant sur le plan économique que sur la durée des phases de recherche et de développement. La première partie de ce mémoire traite des principales méthodes d'estimation spectrale des perturbations conduites. Cette étude met en évidence les problèmes liés aux simulations qu'elles soient temporelles ou fréquentielles. Elle fait également le point sur l'utilité de chacune. Une approche est alors proposée sur des structures de redressement à diodes, généralement présentes en tête des convertisseurs. Les hypothèses faites dans cette étude permettent de réaliser le modèle fréquentiel d'un onduleur triphasé MLI. L'objectif est de s'approcher par des simulations "rapides" de l'émission conduite pour envisager des processus d'optimisation. Il est alors impératif de prendre en compte l'environnement du convertisseur, ce qui implique la modélisation des éléments situés en amont et en aval de ce dernier (câbles, moteur, filtre, RSIL...). Finalement, après une présentation des modèles de filtre, une première optimisation de la cellule de filtrage est menée.
105

Approches catégoriques et non catégoriques en linguistique des corpus spécialisés, application à un système de filtrage d'information

Balvet, Antonio 11 December 2002 (has links) (PDF)
Cette thèse s'inscrit dans le cadre des études linguistiques sur corpus, centrées sur les productions effectives, dans des domaines de spécialité. La thèse reprend les présupposés théoriques et les méthodes des approches guidées par les observables linguistiques, afin d'extraire des corpus étudiés des unités lexicales complexes fortement corrélées à des sous-thèmes clairement identifiés. Ainsi, la thèse aboutit à une description et à un recensement de ces unités lexicales complexes, appelées signatures thématiques, pour un sous-thème du domaine financier : les cessions et acquisitions de sociétés. Le travail d'analyse des corpus, faisant principalement appel à une approche distributionnelle classique, tente également d'évaluer l'apport d'approches non catégoriques et non logiques (essentiellement des approches statistiques) dans la détection de signatures thématiques. Les signatures identifiées servent de base à un système de filtrage d'information, déployé en milieu industriel : le système CORAIL, issu d'un projet de recherches financé par le Ministère de la Recherche et de l'Industrie.
106

Filtrage géostatistique de données géophysiques en vue de la cartographie de l'impédance d'une formation argileuse : exemple du Callovo-Oxfordien de Meuse

Aburto Mardones, Danitza 10 February 2012 (has links) (PDF)
Dans le cadre de recherches menées par l'ANDRA, qui visent à évaluer la faisabilité de créer un stockage de déchets radioactifs dans la formation argileuse du Callovo Oxfordien, cette thèse s'intéresse à deux étapes indispensables pour obtenir une image 3D du sous sol. La première étape concerne la cartographie de la géométrie de la formation. Celle-ci est déterminée à partir de temps pointés le long de profils sismiques, orientés suivant deux directions principales. Aux intersections, les valeurs enregistrées par deux profils sont différentes. Le faible nombre d'intersections ne permettant pas une étude détaillée du comportement spatial de ces différences, elles sont analysées par le biais du pseudo variogramme croisé. L'analyse variographique permet de choisir un modèle cohérent pour l'ensemble des profils. À partir de ce modèle une estimation du temps corrigée est présentée. La deuxième étape concerne l'étude de l'impédance, variable liée aux propriétés intrinsèques de la roche. Deux types de mesure sont disponibles. D'une part l'impédance sismique résultant de l'inversion géophysique de l'amplitude enregistrée le long de profils de sismique réflexion est largement étendue dans la zone d'intérêt. D'autre part, l'impédance log, résultant du produit de la densité de la roche et de la vitesse des ondes P, n'est connue uniquement dans quelques puits. Le comportement spatial bivariable, le long de la direction verticale, a permis de formuler l'hypothèse suivante : chaque mesure d'impédance est décomposée en une somme d'une variable Z (commune aux deux mesures) et d'un résidu différent pour chaque mesure. Sous certaines hypothèses supplémentaires, il est possible d'estimer la composante commune sur l'ensemble des sections sismiques. En complément à ces études, d'autres points ont été évoqués, par exemple la correspondance entre procédés géophysiques et géostatistiques, ou la prise en compte d'incertitude sur les amplitudes.
107

Courtage sémantique de services de calcul

Hurault, Aurélie 04 December 2006 (has links) (PDF)
La recherche du ou des services de calcul scientifique disponibles sur une grille qui répondent aux besoins d'un utilisateur, aussi appelée courtage de services, est une activité complexe. En effet, les services disponibles sont souvent conçus pour répondre de manière efficace à de nombreux besoins différents. Ceux-ci comportent donc en général de nombreux paramètres et la simple signature du service ne suffit pas pour que l'utilisateur puisse le trouver. La solution proposée dans ces travaux consiste à utiliser une description formelle du domaine d'application comportant l'ensemble des données et des opérateurs du domaine ainsi que les propriétés des opérateurs. Dans le cadre de cette thèse, cette description est effectuée sous la forme d'une spécification algébrique. Un service ou une requête sont alors des termes de l'algèbre associée. En ce qui concerne les signatures, nous combinons le sous-typage des sortes et la surcharge des opérateurs selon le système de type proposé par G. Castagna pour le λ&-calcul. Le courtage consiste alors à effectuer un filtrage modulo la théorie équationnelle associée à la spécification, entre le terme représentant le service souhaité et les termes représentant les services disponibles. Nous proposons et avons implanté deux algorithmes différents inspirés d'un parcours de l'arbre de recherche des solutions contraint par une quantité d'énergie (nombre d'équations et/ou de compositions applicables). Le premier algorithme est directement dérivé des travaux de Gallier et Snyder sur l'unification équationnelle. Nous avons montré sa correction et argumenté sa complétude (ou exhaustivité). Le second algorithme découle d'une définition constructive de l'ensemble des services qui peuvent répondre à la requête d'un utilisateur. L'algorithme consiste alors en un parcours particulier de l'arbre construit pour engendrer le service requis. Nous avons également montré sa correction, et sa complétude pour certaines formes d'équations. Nous illustrons notre approche dans les domaines applicatifs suivants : algèbre linéaire et optimisation, et nous nous intéressons au traitement de la combinaison de domaines applicatifs.
108

Sur quelques structures d'information Intervenant en jeux, dans les problèmes d'équipe ou de contrôle et en filtrage

Lévine, Jean 19 November 1984 (has links) (PDF)
Ce mémoire est consacré à I'étude de certains aspects de la prise de décision ou de la commande avec information incomplète sur l'environnement déterministe ou aléatoire, Dans la 1ère partie, on présente des structures d'information classique déterministe . comprenant la boucle ouverte, la structure de Stackelberg, la boucle fermée et la boucle fermée sur Le futur. On compare, sur un exemple de duopole dynamique issu de la théorie de la firme, les équilibres en boucle ouverte et fermée Puis on étudie la structure feedforward et on montre, en généralisant I.a méthode des caractéristiques pour les systèmes d'équations d'Hamilton-Jacobi-Bellman, une condition nécessaire d' existence locale, suggérant qu'il existe une infinité d'équilibres dans certains cas Dans la 2eme partie, on étudie I' information non classique pour les problèmes d'équipe stochastiques dans le cas de décideurs multiples ayant des observations différentes et une mémoire limitée. On généralise la méthode de programmation dynamique en prenant La loi des trajectoires jusqu'à l'instant présent comme variable d' état.. On obtient une équation d 'Hamilton-Jacobi-Bellman sous des hypothèses de régularité , donnant une définition rigoureuse de la notion de "signalisation". Ces hypothèses de régularité sont vérifiées dans Le cas du contrôle des diffusions avec observations partielles. La 3eme partie est consacrée à l'étude d'une cals s e de systèmes nonLinéaires admettant. des filtres de dimension finie. Les systèmes à considérés, à temps discret au continu, sont, caractérisés par Le fait que les bruits n'agissent pas sur La dynamique du système , mais seulement, sur les observations. On donne La condition nécessaire et suffisant.e de l' existence d'un filtre de dimension finie ainsi que sa réalisation minimale, et on montre Le lien entre dimension finie du filtre et Immersion dans un système linéaire. Un exemple concret permet d' évaluer les performances de la méthode de filtrage, et, de La comparer au filtre de Kalman étendu. La 4eme partie, enfin, propose un algorithme rapide pour Le calcul des commandes réalisant le découplage ou Le rejet des perturbations d'un système non linéaire (commandes pouvant, servir à définir une sous-optimalité raisonnable pour certains problèmes contrôle stochastique) Cet algorithme nécessite la dérivation formelle (et peut et.re programmé dans un langage comme REDUCE ou MACSYMA) et utilise l'interprétation des nombres dits "caractéristiques" comme la longueur de chemins minimaux dans le graphe du système * Cette méthode est appliquée au calcul des commandes qui découplent; la dynamique d I un bras de robot.
109

Évaluation analytique de la précision des systèmes en virgule fixe

Rocher, Romuald 07 December 2006 (has links) (PDF)
Lors du développement des applications de traitement numérique du signal, les algorithmes sont spécifiés en virgule flottante pour s'affranchir des problèmes liés à la précision des calculs. Cependant, pour satisfaire les contraintes de coût et de consommation, l'implantation de ces applications dans les systèmes embarqués nécessite l'utilisation de l'arithmétique virgule fixe. Ainsi, l'application définie en virgule flottante doit être convertie en une spécification virgule fixe. Pour réduire les temps de mise sur le marché des applications, des outils de conversion automatique de virgule flottante en virgule fixe sont nécessaires. Au sein de ces outils, une étape importante correspond à l'évaluation de la précision de la spécification virgule fixe. En effet, l'utilisation de l'arithmétique virgule fixe se traduit par la présence de sources de bruits liées à l'élimination de bits lors d'un changement de format. Ces bruits se propagent au sein du système et modifient la précision des calculs en sortie de l'application. La dégradation de la précision des calculs doit être maîtrisée afin de garantir l'intégrité de l'algorithme et les performances de l'application. La précision de l'application peut être évaluée par des simulations virgule fixe, mais celles-ci requièrent des temps de calcul élevés. L'utilisation de ce type d'approche pour l'optimisation d'une spécification virgule fixe conduit à des temps d'optimisation prohibitifs. De ce fait, l'objectif de cette thèse est de proposer une nouvelle approche pour l'évaluation automatique de la précision des systèmes en virgule fixe basée sur un modèle analytique. La précision est évaluée en déterminant l'expression du Rapport Signal à Bruit de Quantification (RSBQ) de l'application considérée. Des méthodes ont été proposées pour traiter les systèmes linéaires et invariants dans le temps (LTI) ainsi que les systèmes non-LTI non-récursifs. Ainsi, l'objectif de la thèse est de proposer une méthode d'évaluation automatique de la précision en virgule fixe pour tout type de système et notamment, les systèmes non-LTI présentant une recursion dans le graphe, comme les filtres adaptatifs. Dans un premier temps, des modèles d'évaluation de la précision dédiés aux filtres adaptatifs sont proposés. Dans un second temps, une extension vers un modèle général pour tout type de système est présentée. Le premier aspect de ce travail concerne le développement de modèles analytiques d'évaluation de la précision dédiés à des applications particulières issues du domaine du filtrage adaptatif. En effet, ces applications non-LTI ne peuvent être traitées par les techniques automatiques classiques. Pour ces systèmes, les modèles dédiés existants ne sont valables que pour une loi de quantification par arrondi convergent. Les modèles proposés par notre approche prennent en compte toutes les lois de quantification, notamment la loi de quantification par troncature. Pour les différents algorithmes adaptatifs et notamment les algorithmes du gradient, une expression analytique de la puissance du bruit en sortie du système est proposée. Ces modèles ont été intégrés au sein d'un générateur d'IP (Intellectual Properties) permettant de générer un composant matériel ou logiciel optimisé d'un point de vue arithmétique. Le second aspect de notre travail correspond à la définition d'une approche générale d'évaluation analytique de la précision valable pour l'ensemble des systèmes composés d'opérations arithmétiques. Cette méthode se base sur une approche matricielle permettant de traiter plus facilement certains algorithmes de transformée (FFT, DCT). Pour les systèmes récursifs, le déroulement de la récurrence est mis en oeuvre. La complexité de notre approche a été déterminée et un modèle de prédiction linéaire a été proposé afin de réduire celle-ci. Ce modèle permet d'accélérer le déroulement de la récurrence. Le modèle a été implanté sur l'outil Matlab et s'intègre au flot général de conversion automatique de virgule flottante en virgule fixe. Cette approche permet ainsi d'optimiser la largeur des opérateurs dans un processus d'optimisation du coût de l'application (consommation d'énergie, surface de l'architecture). Ces deux approches sont évaluées et comparées en termes de précision et de temps de calcul pour différentes applications, et plus particulièrement, le Least Mean Square (LMS) ou les Algorithmes de Projection Affine (APA). Les deux méthodes permettent d'obtenir des valeurs de la puissance du bruit en sortie du système très proches des valeurs réelles. Le temps d'exécution du modèle sous Matlab a été évalué. L'approche par prédiction linéaire permet de réduire de manière significative le temps de calcul de la puissance du bruit. Les temps d'exécution, dans le cas d'un processus d'optimisation de la largeur des opérateurs, ont été mesurés et comparés à ceux obtenus par une approche par simulations virgule fixe. Notre approche permet de réduire le temps de calcul par rapport aux approches basées sur la simulation au bout de quelques itérations seulement. Ces résultats montrent l'intérêt de notre méthodologie pour réduire le temps de développement des systèmes en virgule fixe.
110

Développement d'un système passif de suivi 3D du mouvement humain par filtrage particulaire

Saboune, Jamal 05 February 2008 (has links) (PDF)
Les chutes des personnes âgées à domicile présentent un problème important à cause de leur fréquence et de leurs conséquences médicales, psychologiques et économiques. Pour cela, l'idée d'une prévention des chutes s'avère nécessaire pour réduire leur nombre et leurs conséquences indésirables. Cette idée constitue la motivation principale des projets ANR PARAChute et Predica dont le but est de détecter une dérive vers la chute chez les personnes âgées à domicile. Ce travail de thèse s'inscrit dans le cadre de ce projet et a comme objectif de concevoir un système d'analyse de la marche qui devrait s'intégrer dans la méthode à proposer pour évaluer un risque de chute chez la personne âgée. Une étude des approches déjà adoptées pour évaluer l'équilibre dynamique d'une personne nous a permis d'identifier un certain nombre de paramètres et de tests validés comme étant pertinents pour la détection d'un risque de chute. Or, ces approches s'appuient sur des tests cliniques effectués par les gériatres ou sur l'utilisation de capteurs portables encombrants d'où la nécessité de développer un nouvel outil autonome et non encombrant pour extraire ces paramètres. Notre solution a été de concevoir un système de suivi 3D complet du mouvement humain, capable de nous fournir les positions de quelques points clé du corps durant la marche et à partir desquelles nous pouvons évaluer les paramètres recherchés. Le système de suivi développé utilise des images vidéo obtenues à l'aide d'un caméscope numérique grand public et ne nécessite pas l'intervention d'un opérateur ou l'usage de marqueurs portables. N'utilisant aucun modèle temporel de marche notre méthode est générique et simple. Elle est fondée sur un modèle 3D virtuel humanoïde et sur un nouvel algorithme de filtrage particulaire que nous avons développé dans le but d'estimer la configuration la plus probable de ce modèle vis à vis de l'image vidéo du corps réel. En raison de la nature non gaussienne et multimodale des densités de probabilité impliquées, l'usage d'une approche particulaire était nécessaire. L'algorithme développé, appelé 'Interval Particle Filtering' (IPF), réorganise l'espace de recherche des configurations probables du modèle virtuel d'une façon déterministe, efficace et optimisée. Dans le but de réduire la complexité de cet algorithme, une version factorisée utilisant les réseaux bayésiens dynamiques a été ensuite proposée. Cette version améliorée profite de la Rapport de thèse de Jamal Saboune 1 Résumé modélisation de la marche en une chaîne cinématique pour factoriser la construction du vecteur d'état et la fonction d'observation. En terme de reconstruction 3D, les résultats obtenus à l'aide de notre système de suivi sont assez satisfaisants. La comparaison des valeurs des paramètres recherchés, calculées à partir des positions 3D fournies par un système de référence et par l'algorithme (IPF), montre une erreur moyenne de mesure de 5%. Une étude du suivi longitudinal chez les personnes âgées sera alors nécessaire pour choisir les paramètres qui permettent de déceler une évolution vers un risque de chute chez les personnes âgées.

Page generated in 0.0429 seconds