• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 67
  • 24
  • 5
  • 1
  • Tagged with
  • 99
  • 42
  • 23
  • 19
  • 19
  • 15
  • 13
  • 12
  • 12
  • 10
  • 10
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Étude et développement d'un système de gravimétrie mobile

De Saint-Jean, Bertrand 06 June 2008 (has links) (PDF)
Les techniques actuelles de mesure de pesanteur terrestre, depuis les observations spatiales jusqu'aux mesures ponctuelles en surface, couvrent un large spectre de longueurs d'onde du champ de gravité de la Terre. Ces données acquises permettent non seulement la réalisation de modèles étendus de géoïde, mais aussi une meilleure compréhension des transferts de masse affectant la Terre.<br />Cependant, les couvertures spatiale et spectrale des mesures gravimétriques ne sont pas homogène à la surface de la Terre et certaines régions difficiles d'accès sont quasiment vierges de toute mesure. De plus, la gamme des longueurs d'onde intermédiaires (10/100 km) est mal couverte par la gravimétrie terrestre ou spatiale. La gravimétrie mobile depuis un véhicule terrestre, un bateau ou un avion apparaît donc comme la technique complémentaire capable de pallier les insuffisances des techniques gravimétriques actuelles.<br />C'est dans l'objectif de développer un système de gravimétrie mobile autonome que ce travail a été entrepris. Le système «Limo-G» (LIght MOving Gravimetry system) est un gravimètre vectoriel absolu, composé de trois accéléromètres et d'un système GPS à quatre antennes, embarquable dans toutes sortes de véhicule, fiable, ergonomique et peu onéreux.<br />Un travail métrologique effectué au laboratoire et sur le terrain a permis de concevoir et de tester une méthode d'étalonnage de l'instrument. Puis, une méthode originale de traitement conjoint des données accélérométriques et des données GPS a été développée et testée à partir de simulations issues de données réelles acquises lors d'un levé expérimental en mer. Les résultats de ces simulations indiquent que les performances du système Limo-G permettent de mesurer la pesanteur au milligal. Les améliorations nécessaires pour accroître la précision ont aussi été mises en évidence et validées par simulation.
12

Modélisation de la propagation d'une onde électromagnétique sur des scènes de grande taille par résolution de l'Equation Parabolique 3D vectorielle

Ginestet, Arnaud 04 May 2007 (has links) (PDF)
La simulation numérique de la propagation des ondes électromagnétiques sur de longues distances et au-dessus de terrain a ces dernières années reçu une attention particulière du fait de son fort impact sur les systèmes radar et de télécommunications. Habituellement, il est considéré une modélisation bidimensionnelle pour traiter ces problématiques, cependant par une telle approche il est impossible de considérer les effets transverses au plan vertical passant par l'émetteur et le récepteur ainsi que la dépolarisation de l'onde. Pour pallier ces problèmes, une approche tridimensionnelle doit obligatoirement être considérée.<br /><br />La méthode de modélisation proposée est basée sur l'Equation Parabolique 3D (EP3D). Deux résolutions de celle-ci ont été considérées : nommées Split-Step Fourier (SSF) et Différences Finies (DF). La résolution SSF est basée sur une décomposition en un spectre angulaire d'ondes planes par l'intermédiaire d'une transformée de Fourier. La résolution de l'EP3D par DF développée utilise quant à elle un algorithme dit de Crank-Nicholson. Afin d'optimiser le temps de calcul et l'espace mémoire nécessaire, la méthode des directions alternées a été appliquée pour résoudre cette équation de propagation. Toutes deux ont été couplées avec la condition aux limites de Léontovich pour pouvoir prendre en compte le relief 3D.<br /><br />Ces deux méthodes ont été implémentées et validées sur différents cas tests canoniques. On a ainsi pu constater la capacité de ces méthodes à modéliser les phénomènes de réflexion, diffraction et réfraction. Celles-ci ont ensuite été appliquées au-dessus de scènes tridimensionnelles réalistes. Ces applications ont permis de comparer les deux méthodes développées ainsi que de mettre en relief les effets 3D dus au terrain et souligné les avantages d'une résolution tridimensionnelle.
13

Contribution à la modélisation de l'hystérésis vectorielle dans les tôles magnétiques. Validation en régime d'induction uniaxiale ou tournante

Vernescu, Cristina 29 September 2000 (has links) (PDF)
Le comportement des matériaux doux est complexe et associe hystérésis et anisotropie. Ce comportement résulte de la structure microscopique du matériau et des processus physiques mis en jeu, comme le déplacement irréversible des parois en bas champ et la rotation de la magnétisation pour les champs forts. En vue de modéliser ce comportement, nous avons développé un modèle d'hystérésis vectoriel appelé Modèle Mixte Preisach/Biaxial (MMPB). Ce modèle couple les modèles de Preisach et de Stoner-Wohlfarth, permettant ainsi de décrire les mécanismes d'aimantation par déplacement des parois et par rotation. Pour ce faire, nous avons introduit la notion de particule biaxiale de structure cubique. On peut ainsi décrire le comportement hystérétique et vectoriel des tôles à grains non-orientés ou à texture cubique. Le modèle MMPB a été appliqué sur plusieurs types de tôles magnétiques soumises à des excitations uniaxiales et tournantes. Le modèle donne de bons résultats pour les hauts niveaux d'induction, mais des écarts par rapport à l'expérience sont observés pour des niveaux plus bas d'induction. Pour améliorer le modèle, une particule bidimensionnelle de Preisach a été proposée pour mieux décrire les mécanismes de déplacements des parois, le modèle de Stoner-Wohlfarth décrivant ensuite les rotations cohérentes de la polarisation magnétique. Le comportement de la particule en 1D et en 2D est cohérent et il décrit qualitativement les observations expérimentales.
14

DEVELOPPEMENT D'UNE METHODE POUR QUALIFIER LA DEFORMATION D'UN PRODUIT ISSU D'UN TRAITEMENT THERMIQUE. APPROCHES EXPERIMENTALE ET NUMERIQUE

Nicolas, Cyril 09 September 2009 (has links) (PDF)
La déformation en traitement thermique est associée à des mécanismes complexes du fait de l'interaction d'un grand nombre de paramètres technologiques et physiques. Dans ce contexte, la méthode développée dans ces travaux de thèse définit un cadre générique pour étudier l'influence de ces paramètres sur la déformation d'un produit. Cette méthode comporte trois facettes d'intérêt. La première est la qualification de la déformation au moyen de signatures géométriques 3D significatives, choisies pour leur réalité physique : les phénomènes de déformations. Ceux-ci sont ensuite quantifiés et leur pertinence est évaluée par un indicateur de niveau de confiance. La deuxième facette de la méthode est la possibilité de confronter directement les résultats expérimentaux et ceux issus de la simulation numérique. La prédiction de la déformation est ainsi vérifiée en comparant les amplitudes des signatures géométriques. La troisième et dernière facette est la compréhension des mécanismes de la déformation. Elle s'effectue par le suivi des amplitudes des phénomènes de déformations en fonction des effets thermiques, métallurgiques et mécaniques survenant lors du traitement thermique. Appliquée à l'éprouvette croissant, la méthode a permis d'illustrer l'influence de deux paramètres sur la déformation : la nuance d'acier et le milieu de trempe. Pour cela, les phénomènes de déformations ont été séparés en deux catégories : la première correspond à la variation homogène des dimensions dues aux effets thermomécaniques, la seconde, à la partie hétérogène due aux effets métallurgiques et mécaniques. L'application de la méthode à un cas issu de la simulation numérique 3D a révélé la prédiction satisfaisante des signatures géométriques, y compris celles locales. Les investigations numériques ont permis d'appréhender les mécanismes de la déformation du croissant et de mettre en évidence la forte sensibilité de certains phénomènes de déformations face à la variation des paramètres expérimentaux, utilisés comme données initiales dans les simulations.
15

Prévision des prix du logement avec des VAR : l'impact de l'addition des effets spatiaux

Kokou, Kokouvi M. Joseph January 2008 (has links) (PDF)
Ce mémoire examine la qualité de prévision des prix immobiliers au Canada et dans cinq de ses régions métropolitaines, en utilisant trois modèles économétriques: VAR (Modèle d'autorégression vectorielle), VECM (Modèle vectoriel à correction d'erreur), VAR spatial (Modèle d'autorégression vectorielle spatiale). Le VAR spatial permet d'incorporer les effets spatiaux dans la modélisation. Les résultats des estimations du VAR, du VECM et du VAR spatial et les fonctions de réponse permettent de faire les constats suivants: (i) un choc d'emploi affecte positivement le prix du logement; (ii) un choc de politique monétaire (taux d'intérêt) a un impact négatif sur le prix immobilier. Pour mesurer la qualité prédictive des trois approches, nous avons fait appel à deux mesures de choix de modèle: la Racine de l'Erreur Quadratique Moyenne (Root Mean Squared Error, RMSE) et le gain d'efficacité (Relative Root Mean Squared Error). Les résultats indiquent que: (i) le VAR spatial donne une prévision de meilleure qualité comparativement au VECM et au VAR conventionnel; (ii) l'incorporation de l'interaction entre deux régions dans un modèle VAR permet de mieux prévoir le prix immobilier. En somme, le taux d'intérêt et l'emploi demeurent des facteurs-clés dans la modélisation du prix du logement. De plus, l'approche VAR spatial permet d'améliorer la qualité de la prévision de cette variable d'intérêt. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Économétrie, Prévision, Prix immobilier, VAR spatial, VECM, VAR.
16

Les changements structurels peuvent-ils être la cause de la grande modération de l'économie américaine?

Gervais , Olivier January 2008 (has links) (PDF)
Ce mémoire vise à déterminer les causes de la stabilisation du cycle économique américain, phénomène mieux connu sous le nom de la Grande Modération. Ce dernier fut remarqué au début des années quatre-vingt et quatre causes principales furent évoquées par la littérature: une meilleure politique monétaire, une meilleure gestion des stocks, une réduction de la taille des chocs économiques et finalement un changement d'ordre structurel de l'économie. Nous comparons les statistiques cycliques et les sentiers de réponse des principales variables économiques de la période 1959 à 1979 par rapport à la période 1984 à 2006. Les sentiers de réponses sont obtenus par plusieurs spécifications d'une représentation vectorielle autorégressive structurelle (SVAR) avec restrictions de long terme à la Blanchard et Quah. Les intervalles de confiance de ces sentiers sont obtenus par méthode de bootstrap. Cette méthodologie nous permet d'évaluer si, effectivement, des changements structurels pourraient expliquer cette stabilisation du cycle économique. Nous trouvons d'abord que de nombreux faits cycliques ont changé entre ces deux périodes. Ensuite, nos résultats montrent que la stabilisation du PIB pourrait être due à une réduction de la taille des chocs, alors que la stabilisation de l'inflation serait due à une politique monétaire plus crédible. Nous trouvons également qu'une plus grande flexibilité du marché du travail, notamment celle des salaires, pourrait avoir jouée un rôle dans cette Grande Modération. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Grande Modération, SVAR, Cycles économiques.
17

Évaluation des représentations vectorielles autorégressives structurelles

Chaudourne, Jérémy 11 1900 (has links) (PDF)
Dans le but de guider l'évaluation et le développement des modèles dynamiques d'équilibre général, les vecteurs autorégressifs structurels (SVAR) ont été largement utilisés. Une importante application récente de cette approche est introduite par Galì (1999). Plus récemment, le débat à propos de l'effet d'une augmentation de la technologie sur les heures travaillées a déclenché l'émergence de plusieurs contributions concernant la capacité de l'approche SVAR à mesurer adéquatement l'impact des chocs technologiques sur des variables agrégées. L'objectif de ce projet de recherche est d'évaluer la capacité des représentations vectorielles autorégressives (VAR) structurelles, en utilisant des restrictions de long terme, à identifier les fonctions de réponses suite à un choc technologique. Pour cela, nous effectuons une étude de Monte-Carlo, dans laquelle nous générons 1000 échantillons de données à partir du modèle de cycle réel. À des fins de comparaison, nous considérons plusieurs approches: (i) l'approche SVAR standard qui utilise la méthode de restriction de Blanchard et Quah; (ii) l'approche SVAR WEN, laquelle utilise les restrictions basées sur la méthode dans le domaine des fréquences suggérée par WEN; (iii) l'approche SVAR-Bartlett dans laquelle nous remplaçons l'estimateur standard de la matrice variance-covariance par un estimateur non paramétrique à noyau de Bartlett; (iv) l'approche SVAR Andrews-Mohanan où on utilise un autre estimateur non paramétrique, celui d'Andrews-Mohanan. Par la suite, nous évaluons chaque approche, en calculant le biais absolu cumulatif et la racine carrée de l'erreur quadratique moyenne cumulative. Nos principaux résultats sont les suivants: (i) la meilleure approche est celle de Bartlett lorsque l'on fixe le paramètre à l'aide de la méthode de Newey-West, ou lorsqu'il est fixé à 10 ou 20; (ii) les intervalles de confiance sont grands pour les différentes approches; (iii) les VAR structurelles, ne peuvent faire de la discrimination entre des modèles, impliquant une réponse de signe contraire suite à un choc technologique. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : choc technologique, heures travaillées, domaine des fréquences, VAR
18

Quantification vectorielle algébrique : un outil performant pour la compression et le tatouage d'images fixes

Moureaux, Jean-Marie 10 December 2007 (has links) (PDF)
Ce manuscrit décrit douze ans d'activités de recherche au Centre de Recherche en Automatique de Nancy dans le domaine de la compression d'images (grand public mais aussi médicales), ainsi que dans celui du tatouage d'images dans un contexte de compression.<br />Nous avons mis l'accent sur l'étape de quantification de la chaîne de compression pour laquelle nous avons proposé une méthode dite de « quantification vectorielle algébrique avec zone morte »<br />(QVAZM) associée à une analyse multirésolution par ondelettes, permettant d'améliorer sensiblement, par rapport au nouveau standard JPEG2000 ainsi qu'à l'algorithme de référence SPIHT, les performances en termes de compromis débit-distorsion, et ainsi la qualité visuelle de l'image reconstruite.<br />Nous avons travaillé sur trois points essentiels et proposé à chaque fois des solutions afin de rendre l'utilisation de la QVAZM réaliste dans une chaîne de compression : l'indexage des vecteurs du dictionnaire, le réglage des paramètres du dictionnaire (facteur d'échelle et zone morte) et l'allocation des ressources binaires.<br />La contribution majeure de nos travaux dans le domaine de l'imagerie médicale 3D a consisté à tenter d'ouvrir une voie à la compression avec perte, encore inenvisageable il y a quelques années pour des raisons évidentes de diagnostic. Nous avons pour cela étendu avec succès notre algorithme<br />QVAZM au cas des images médicales volumiques. Parallèlement à ces travaux, nous avons étudié l'impact de la compression avec perte sur certaines applications de traitement d'images médicales, en particulier sur un outil d'aide à la détection de nodules pulmonaires pour lequel nous avons pu montrer une robustesse à la compression avec perte, même à fort taux de compression (jusqu'à 96 :1).<br />Enfin, la contribution principale de nos travaux dans le domaine du tatouage concerne le développement d'approches combinées compression/tatouage et ont abouti à la proposition de deux méthodes de tatouage reposant sur la QVAZM, associée à une analyse multirésolution par transformée en ondelettes. Elles sont particulièrement attractives pour les applications où la compression constitue la principale attaque (ou le principal traitement).
19

Design and performance of a GNSS single-frequency multi-constellation vector tracking architecture for urban environments / Conception et performance d'une architecture de poursuite vectorielle multi-constellation monofréquence GNSS pour les environnements urbains

Shytermeja, Enik 14 December 2017 (has links)
Durant la dernière décennie, les systèmes de navigation par satellites ont obtenu une place majeure dans le développement d’application de navigation urbaine et les services associés. L’environnement urbain pose plusieurs défis à la réception des signaux GNSS, comprenant les multi-trajets et le phénomène de blocage des signaux directs, qui peuvent se traduire dans le domaine de la position, par une diminution de la précision de la solution de navigation voire par une indisponibilité de la position. Dans cette situation, la poursuite vectorielle constitue une approche intéressante capable de contrecarrer les effets propres à un environnement urbain tels que les multi-trajets, les réceptions de signaux non directs et les interruptions de signal. Cette thèse s’intéresse particulièrement à la proposition et au design d’une architecture double constellation GPS + Galileo, mono-fréquence L1/E1 VDFLL pour les véhicules routiers en milieu urbain. Concernant la navigation, le VDFLL représente une application concrète de la fusion d’information dû au fait que tous les canaux de poursuite sont contrôlés par le même filtre de navigation sous la forme d’un Filtre de Kalman Étendu (EKF). Le choix de l’architecture double constellation mono-fréquence a pour but d’augmenter le nombre de mesures et garantit une faisabilité bas coût du récepteur mobile. De plus, l’utilisation des signaux de mono-fréquence L1 implique la prise en compte des perturbations causées par la ionosphère. Malgré l’application des modèles de corrections ionosphérique, un résidu d’erreur ionosphérique reste toujours présent. L’originalité de ce travail repose sur l’implémentation d’une architecture VDFLL double constellation capable d’estimer le résidu d’erreurs ionosphériques présent sur les observations reçues. Ce doctorat analyse les avantages apportés par la solution proposée par rapport à la poursuite scalaire au regard de performances de positionnement et de robustesse de poursuite dans le cadre d’une trajectoire de véhicule en milieu urbain et en présence de multi-trajets et de résidus d’erreur ionosphérique. / In the last decade, Global Navigation Satellites Systems (GNSS) have gained a significant position in the development of urban navigation applications and associated services. The urban environment presents several challenges to GNSS signal reception, such as multipath and GNSS Line-of-Sight (LOS) blockage, which are translated in the positioning domain in a decreased navigation solution accuracy up to the lack of an available position. For this matter, Vector Tracking (VT) constitutes a promising approach able to cope with the urban environment-induced effects including multipath, NLOS reception and signal outages. This thesis is particularly focused on the proposal and design of a dual constellation GPS + Galileo single frequency L1/E1 Vector Delay Frequency Lock Loop (VDFLL) architecture for the automotive usage in urban environment. From the navigation point of view, VDFLL represents a concrete application of information fusion, since all the satellite tracking channels are jointly tracked and controlled by the common navigation Extended Kalman filter (EKF). The choice of the dual-constellation single frequency vector tracking architecture ensures an increased number of observations and at the same time allowing the conservation of the low-cost feasibility criteria of the mobile user’s receiver. Moreover, the use of single frequency L1 band signals implies the necessity of taking into account the ionospheric error effect. In fact, even after the application of the ionosphere error correction models, a resultant ionospheric residual error still remains in the received observations. The originality of this work relies on the implementation of a dual-constellation VDFLL architecture, capable of estimating the ionosphere residual error present in the received observations. This dissertation investigates the VDFLL superiority w.r.t the scalar tracking receiver in terms of positioning performance and tracking robustness for a real car trajectory in urban area in the presence of multipath and ionosphere residual error.
20

Elicitation and planning in Markov decision processes with unknown rewards / Elicitation et planification dans les processus décisionnel de MARKOV avec récompenses inconnues

Alizadeh, Pegah 09 December 2016 (has links)
Les processus décisionnels de Markov (MDPs) modélisent des problèmes de décisionsséquentielles dans lesquels un utilisateur interagit avec l’environnement et adapte soncomportement en prenant en compte les signaux de récompense numérique reçus. La solutiond’unMDP se ramène à formuler le comportement de l’utilisateur dans l’environnementà l’aide d’une fonction de politique qui spécifie quelle action choisir dans chaque situation.Dans de nombreux problèmes de décision du monde réel, les utilisateurs ont despréférences différentes, donc, les gains de leurs actions sur les états sont différents et devraientêtre re-décodés pour chaque utilisateur. Dans cette thèse, nous nous intéressonsà la résolution des MDPs pour les utilisateurs ayant des préférences différentes.Nous utilisons un modèle nommé MDP à Valeur vectorielle (VMDP) avec des récompensesvectorielles. Nous proposons un algorithme de recherche-propagation qui permetd’attribuer une fonction de valeur vectorielle à chaque politique et de caractériser chaqueutilisateur par un vecteur de préférences sur l’ensemble des fonctions de valeur, où levecteur de préférence satisfait les priorités de l’utilisateur. Etant donné que le vecteurde préférences d’utilisateur n’est pas connu, nous présentons plusieurs méthodes pourrésoudre des MDP tout en approximant le vecteur de préférence de l’utilisateur.Nous introduisons deux algorithmes qui réduisent le nombre de requêtes nécessairespour trouver la politique optimale d’un utilisateur: 1) Un algorithme de recherchepropagation,où nous propageons un ensemble de politiques optimales possibles pourle MDP donné sans connaître les préférences de l’utilisateur. 2) Un algorithme interactifd’itération de la valeur (IVI) sur les MDPs, nommé algorithme d’itération de la valeurbasé sur les avantages (ABVI) qui utilise le clustering et le regroupement des avantages.Nous montrons également comment l’algorithme ABVI fonctionne correctement pourdeux types d’utilisateurs différents: confiant et incertain.Nous travaillons finalement sur une méthode d’approximation par critére de regret minimaxcomme méthode pour trouver la politique optimale tenant compte des informationslimitées sur les préférences de l’utilisateur. Dans ce système, tous les objectifs possiblessont simplement bornés entre deux limites supérieure et inférieure tandis que le systèmeine connaît pas les préférences de l’utilisateur parmi ceux-ci. Nous proposons une méthodeheuristique d’approximation par critère de regret minimax pour résoudre des MDPsavec des récompenses inconnues. Cette méthode est plus rapide et moins complexe queles méthodes existantes dans la littérature. / Markov decision processes (MDPs) are models for solving sequential decision problemswhere a user interacts with the environment and adapts her policy by taking numericalreward signals into account. The solution of an MDP reduces to formulate the userbehavior in the environment with a policy function that specifies which action to choose ineach situation. In many real world decision problems, the users have various preferences,and therefore, the gain of actions on states are different and should be re-decoded foreach user. In this dissertation, we are interested in solving MDPs for users with differentpreferences.We use a model named Vector-valued MDP (VMDP) with vector rewards. We propose apropagation-search algorithm that allows to assign a vector-value function to each policyand identify each user with a preference vector on the existing set of preferences wherethe preference vector satisfies the user priorities. Since the user preference vector is notknown we present several methods for solving VMDPs while approximating the user’spreference vector.We introduce two algorithms that reduce the number of queries needed to find the optimalpolicy of a user: 1) A propagation-search algorithm, where we propagate a setof possible optimal policies for the given MDP without knowing the user’s preferences.2) An interactive value iteration algorithm (IVI) on VMDPs, namely Advantage-basedValue Iteration (ABVI) algorithm that uses clustering and regrouping advantages. Wealso demonstrate how ABVI algorithm works properly for two different types of users:confident and uncertain.We finally work on a minimax regret approximation method as a method for findingthe optimal policy w.r.t the limited information about user’s preferences. All possibleobjectives in the system are just bounded between two higher and lower bounds while thesystem is not aware of user’s preferences among them. We propose an heuristic minimaxregret approximation method for solving MDPs with unknown rewards that is faster andless complex than the existing methods in the literature.

Page generated in 0.0804 seconds