• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 82
  • 35
  • 4
  • Tagged with
  • 119
  • 47
  • 31
  • 30
  • 30
  • 29
  • 28
  • 24
  • 21
  • 21
  • 21
  • 20
  • 19
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

La théorie variationnelle des rayons complexes version Fourier : application aux problèmes tridimensionnels de vibro-acoustique / The variational theory of complex rays Fourier version : application to 3D coupled vibro-acoustics

Kovalevsky, Louis 09 June 2011 (has links)
La Théorie Variationnelle des Rayons Complexes (TVRC) est une méthode ondulatoire adaptée à la résolution de problèmes de vibrations dans le domaine des moyennes fréquences. Elle utilise une formulation faible du problème qui permet d'utiliser n'importe quelles fonctions de forme qui vérifient l'équation d'équilibre à l'intérieur du sous domaine. Ainsi la solution peut être approximée par une répartition intégrale d'ondes planes, cette approche est particulièrement efficace en moyenne fréquence et conduit a un très bon taux de convergence de la méthode. Dans les travaux précédents, l'amplitude des ondes planes était discrétisée par une fonction constante par morceaux. Dans cette thèse, une nouvelle forme de discrétisation est proposée, basée sur les séries de Fourier. L'extension aux problèmes tridimensionnels est directe grâce à l'utilisation des harmoniques sphériques. Cette nouvelle approche permet d'améliorer l'efficacité et la robustesse de la méthode grâce notamment à un schéma d'intégration semi-analytique. Cette nouvelle version de la TVRC est alors capable de traiter des problèmes d'une complexité industrielle, et de résoudre des problèmes à des fréquences relativement élevées. / The Variational Theory of Complex Rays (VTCR) is a wave-based computational approach dedicated to the resolution of medium-frequency problems. It uses a variational formulation of the problem which enables one to use any type of shape function within the substructures provided that it verifies the governing equation. Thus, the solution can be approximated using plane waves, which is very interesting in the medium-frequency vibration domain and also leads to a strong convergence of the method. In the previous works, this was shown in the case of acoustic problems in which the amplitudes of the plane waves were calculated as wavebands. In this thesis, we propose a new approximation of these amplitudes based on Fourier series. The extension to 3D problems is straightforward thanks to the use of spherical harmonics. We show that this approach increases the robustness of the method as it handles problems of industrial complexity, makes it more efficient numerically thanks to analytical integration and extends its applicability to somewhat higher frequencies.
42

Application des méthodes multigrilles à l'assimilation variationnelle de données en géophysique

Neveu, Émilie 31 March 2011 (has links) (PDF)
Depuis ces trente dernières années, les systèmes d'observation de la Terre et les modèles numériques se sont perfectionnés et complexifiés pour nous fournir toujours plus de données, réelles et numériques. Ces données, de nature très diverse, forment maintenant un ensemble conséquent d'informations précises mais hétérogènes sur les structures et la dynamique des fluides géophysiques. Dans les années 1980, des méthodes d'optimisation, capables de combiner les informations entre elles, ont permis d'estimer les paramètres des modèles numériques et d'obtenir une meilleure prévision des courants marins et atmosphériques. Ces méthodes puissantes, appelées assimilation variationnelle de données, peinent à tirer profit de la toujours plus grande complexité des informations de par le manque de puissance de calcul disponible. L'approche, que nous développons, s'intéresse à l'utilisation des méthodes multigrilles, jusque là réservées à la résolution de systèmes d'équations différentielles, pour résoudre l'assimilation haute résolution de données. Les méthodes multigrilles sont des méthodes de résolution itératives, améliorées par des corrections calculées sur des grilles de plus basses résolutions. Nous commençons par étudier dans le cas d'un modèle linéaire la robustesse de l'approche multigrille et en particulier l'effet de la correction par grille grossière. Nous dérivons ensuite les algorithmes multigrilles dans le cadre non linéaire. Les deux types d'algorithmes étudiés reposent d'une part sur la méthode de Gauss Newton multigrille et d'autre part sur une méthode sans linéarisation globale : le Full Approximation Scheme (FAS). Ceux-ci sont appliqués au problème de l'assimilation variationnelle de données dans le cadre d'une équation de Burgers 1D puis d'un modèle Shallow-water 2D. Leur comportement est analysé et comparé aux méthodes plus traditionnelles de type incrémentale ou multi-incrémentale.
43

Approximations intérieures pour des problèmes de commande optimale. Conditions d'optimalité en commande optimale stochastique.

Silva, Francisco 29 November 2010 (has links) (PDF)
Cette thèse est divisée en deux parties. Dans la première partie on s'intéresse aux problèmes de commande optimale déterministes et on étudie des approximations intérieures pour deux problèmes modèles avec des contraintes de non-négativité sur la commande. Le premier modèle est un problème de commande optimale dont la fonction de coût est quadratique et dont la dynamique est régie par une équation différentielle ordinaire. Pour une classe générale de fonctions de pénalité intérieure, on montre comment calculer le terme principal du développement ponctuel de l'état et de l'état adjoint. Notre argument principal se fonde sur le fait suivant: si la commande optimale pour le problème initial satisfait les conditions de complémentarité stricte pour le Hamiltonien sauf en un nombre fini d'instants, les estimations pour le problème de commande optimale pénalisé peuvent être obtenues à partir des estimations pour un problème stationnaire associé. Nos résultats fournissent plusieurs types de mesures de qualité de l'approximation pour la technique de pénalisation: estimations des erreurs de la commande , estimations des erreurs pour l'état et l'état adjoint et aussi estimations de erreurs pour la fonction valeur. Le second modèle est le problème de commande optimale d'une équation semi-linéaire elliptique avec conditions de Dirichlet homogène au bord, la commande étant distribuée sur le domaine et positive. L'approche est la même que pour le premier modèle, c'est-à-dire que l'on considère une famille de problèmes pénalisés, dont la solution définit une trajectoire centrale qui converge vers la solution du problème initial. De cette manière, on peut étendre les résultats, obtenus dans le cadre d'équations différentielles, au contrôle optimal d'équations elliptiques semi-linéaires. Dans la deuxième partie on s'intéresse aux problèmes de commande optimale stochastiques. Dans un premier temps, on considère un problème linéaire quadratique stochastique avec des contraintes de non-negativité sur la commande et on étend les estimations d'erreur pour l'approximation par pénalisation logarithmique. La preuve s'appuie sur le principe de Pontriaguine stochastique et un argument de dualité. Ensuite, on considère un problème de commande stochastique général avec des contraintes convexes sur la commande. L'approche dite variationnelle nous permet d'obtenir un développement au premier et au second ordre pour l'état et la fonction de coût, autour d'un minimum local. Avec ces développements on peut montrer des conditions générales d'optimalité de premier ordre et, sous une hypothèse géométrique sur l'ensemble des contraintes, des conditions nécessaires du second ordre sont aussi établies.
44

Etude de l'optimisation d'un système d'observation adaptatif pour l'amélioration de la prévision des dépressions météorologiques

Doerenbecher, Alexis 21 June 2002 (has links) (PDF)
La prévision des cyclogenèses rapides par des modèles numériques reste un problème délicat, même à courte échéance (1-2 jours). Pour répondre à ce problème compté parmi les thèmes de recherche et objectifs scientifiques de la campagne FASTEX, le ciblage des observations doit améliorer la description de l'état initial des prévisions grâce au déploiement d'observations supplémentaires. La campagne FASTEX fut la première mise en £uvre expérimentale du ciblage au cours de laquelle les observations ciblées ont été déployées sur des zones géographiques dites sensibles calculées à l'avance.<br />Les zones sensibles de FASTEX, calculées avec les techniques issues des modèles linéaire et adjoint d'un modèle de prévision numérique, prennent en compte les propriétés dynamiques de l'atmosphère. <br /><br />Cependant, l'efficacité du ciblage dépend beaucoup du système d'assimilation des données utilisé. Afin de reformuler une technique de ciblage utilisant le modèle adjoint, on a développé une approche dite de sensibilité aux observations. Ce calcul linéaire tient compte des caractéristiques de toutes les observations en présence et de la façon dont elles vont être assimilées. La formulation de la sensibilité d'un aspect de la prévision aux observations est basée sur le calcul de l'adjoint de l'opérateur d'assimilation auquel est combiné un calcul avec l'adjoint de la prévision. Cette technique a été développée dans un cadre quasi opérationnel avec l'algorithme 3D-Var d'ARPEGE. <br /><br />La sensibilité aux observations permet, dans un contexte diagnostique, d'étudier de façon critique les déploiements d'observations adaptatives effectués durant la campagne FASTEX. Sur l'exemple de la POI17, l'étude de l'interaction des différents types d'observations qui interviennent dans l'assimilation (données conventionnelles et données ciblées) met en évidence des mécanismes complexes. Ces résultats éclairent le fonctionnement de l'impact des observations ciblées dans le système d'assimilation-prévision, ainsi que l'importance des valeurs observées pour l'impact final d'un jeu d'observations, qui explique l'effet parfois décevant de certains vols de FASTEX.<br />L'adjoint du système d'assimilation permet aussi de détecter des utilisations non optimales des observations ciblées dans le système 3D-Var. Le cas de la POI18 sert d'illustration pour une telle mise en £uvre de l'outil de la sensibilité aux observations. Cet outil révèle entre autres, la rusticité de la formulation des statistiques d'erreur de l'ébauche et d'observation modélisées pour ces données.<br /><br />Ces résultats ont permis de proposer une nouvelle approche du ciblage dans un cadre pronostique. Cette approche est basée sur une simulation de la réduction de la variance d'erreur de prévision dans une direction instable. Cette technique prend en compte à la fois la dynamique de l'atmosphère, le système d'assimilation et les erreurs dans les conditions initiales (au sens statistique). Cette étude tend à définir une approche optimale du ciblage au sens où celui-ci maximise l'efficacité des observations additionnelles utilisées sous des contraintes pré-définies. Même si la vaste question de l'optimisation du ciblage reste trop ardue avec les outils d'investigation actuels, différentes techniques sub-optimales ont été proposées.<br /><br />On a ainsi défini différentes stratégies de sélection de déploiements alternatifs qui ont été testées sur des situations de FASTEX. On montre ainsi la faisabilité de ces approches qui ouvrent la voie vers une formulation de techniques de ciblage plus optimales.
45

Calculs perturbatifs variationnellement améliorés en théorie des champs; calcul du spectre et contraintes sur le modèle supersymétrique standard

Kneur, Jean-Loic 16 June 2006 (has links) (PDF)
Je discute quelques activités récentes en deux parties indépendantes. La première partie décrit une technique de resommation particulière des séries perturbatives qui peut donner des résultats non-perturbatifs dans certains cas. On détaille quelques applications en théorie des champs et de la matière condensée. Dans la deuxième partie, on développe quelques activités récentes en phénoménologie du modèle supersymétrique standard minimal, concernant le calcul précis du spectre de masse des particules supersymétriques, le calcul de la densité relique de matière noire supersymétrique, et les contraintes théoriques et expérimentales actuelles qu'on peut en déduire sur certains modèles.
46

Etude asymptotique et multiplicité pour l'équation de Sobolev Poincaré

Dellinger, Marie 30 March 2007 (has links) (PDF)
Sur une variété riemanienne compacte de dimension supérieure à 3,<br />on considère une edp elliptique non linéaire à exposant critique particulière : l'équation de Sobolev Poincaré. D'une part, nous décrivons le comportement asymptotique d'une suite de solutions de cette équation grâce à une analyse fine de phénomènes de concentration. D'autre part, en imposant des invariances par des groupes d'isométries, nous montrons des résultats de multiplicité de solutions pour cette équation. Notre méthode permet aussi d'obtenir des multiplicités de solutions pour des équations plus classiques provenant du problème deYamabe et de Nirenberg, ainsi que <br /> pour des équations à exposants sur critiques. Notre travail est intimement lié à la description des meilleures constantes dans des inégalités fonctionnelles de Sobolev associées aux équations.
47

Processus de Lévy et options américaines / American options in the exponential Lévy model

Bouselmi, Aych 11 December 2013 (has links)
Les marchés financiers ont connu, grâce aux études réalisées durant les trois dernières décennies, une expansion considérable et ont vu l’apparition de produits dérivés divers et variés. Les plus utilisés parmi ces produits dérivés sont les options américaines / Financial markets knew, thanks to studies carried out during the last three decades, a considerable expansion and saw the appearance of diverse and varied by-products. The most used among these by-products are the American options
48

Region-based approximation to solve inference in loopy factor graphs : decoding LDPC codes by the Generalized Belief Propagation / Approximation basée régions pour résoudre l'inférence dans les graphes factoriels à boucles : application au décodage des codes LDPC par le Generalized Belief Propagation

Sibel, Jean-Christophe 07 June 2013 (has links)
Dans cette thèse, nous étudions le problème de l'inférence bayésienne dans les graphes factoriels, en particulier les codes LDPC, quasiment résolus par les algorithmes de message-passing. Nous réalisons en particulier une étude approfondie du Belief Propagation (BP) dont la question de la sous-optimalité est soulevée dans le cas où le graphe factoriel présente des boucles. A partir de l'équivalence entre le BP et l'approximation de Bethe en physique statistique qui se généralise à l'approximation basée régions, nous détaillons le Generalized Belief Propagation (GBP), un algorithme de message-passing entre des clusters du graphe factoriel. Nous montrons par des expériences que le GBP surpasse le BP dans les cas où le clustering est réalisé selon les structures topologiques néfastes qui empêchent le BP de bien décoder, à savoir les trapping sets. Au-delà de l'étude des performances en termes de taux d'erreur, nous confrontons les deux algorithmes par rapport à leurs dynamiques face à des événements d'erreur non triviaux, en particulier lorsqu'ils présentent des comportements chaotiques. Par des estimateurs classiques et originaux, nous montrons que l'algorithme du GBP peut dominer l'algorithme du BP. / This thesis addresses the problem of inference in factor graphs, especially the LDPC codes, almost solved by message-passing algorithms. In particular, the Belief Propagation algorithm (BP) is investigated as a particular message-passing algorithm whose suboptimality is discussed in the case where the factor graph has a loop-like topology. From the equivalence between the BP and the Bethe approximation in statistical physics that is generalized to the region-based approximation, is detailed the Generalized Belief Propagation algorithm (GBP), a message-passing algorithm between clusters of the factor graph. It is experimentally shown to surpass the BP in the cases where the clustering deals with the harmful topological structures that prevents the BP from rightly decoding any LDPC code, namely the trapping sets. We do not only confront the BP and the GBP algorithms according to their performance from the point of view of the channel coding with the error-rate, but also according to their dynamical behaviors for non-trivial error-events for which both algorithms can exhibit chaotic beahviors. By means of classical and original dynamical quantifiers, it is shown that the GBP algorithm can overcome the BP algorithm.
49

Contributions méthodologiques et appliquées à la méthode des modèles déformables

Pons, Jean-Philippe 18 November 2005 (has links) (PDF)
Les modèles déformables fournissent un cadre flexible pour traiter divers problèmes de reconstruction de forme en traitement d'images. Ils ont été proposés initialement pour la segmentation d'images, mais ils se sont aussi révélés adaptés dans de nombreux autres contextes en vision par ordinateur et en imagerie médicale, notamment le suivi de régions, la stéréovision, le "shape from shading" et la reconstruction à partir d'un nuage de points. Les éléments clés de cette méthodologie sont l'élaboration d'une fonctionnelle d'énergie, le choix d'une procédure de minimisation et d'une représentation géométrique. Dans cette thèse, nous abordons ces trois éléments, avec pour but d'élargir le champ d'application des modèles déformables et d'accroître leur performance. En ce qui concerne la représentation géométrique, nous venons à bout de la perte de la correspondance ponctuelle et de l'impossibilité de contrôler les changements de topologie avec la méthode des ensembles de niveau. Nous proposons deux applications associées dans le domaine de l'imagerie médicale: la génération de représentations dépliées du cortex cérébral avec préservation de l'aire, et la segmentation de plusieurs tissus de la tête à partir d'images par résonance magnétique anatomiques. En ce qui concerne la procédure de minimisation, nous montrons que la robustesse aux minima locaux peut être améliorée en remplaçant une descente de gradient traditionnelle par un flot de minimisation spatialement cohérent. Enfin, en ce qui concerne l'élaboration de la fonctionnelle d'énergie, nous proposons une nouvelle modélisation de la stéréovision multi-caméras et de l'estimation du mouvement tridimensionnel non-rigide, fondée sur un critère de mise en correspondance global et basé image.
50

Estimation de modèles de mélange probabilistes: une proposition pour un fonctionnement réparti et décentralise

Nikseresht, Afshin 22 October 2008 (has links) (PDF)
Cette th`ese traite de l'estimation statistique distribu ́e, avec la motivation de, et l'application `a l'indexation multim ́edia par le contenu. Les algorithmes et les donn ́ees de divers contributeurs coop ́ereront vers un apprentissage statistique collectif. La contribution est un arrangement pour estimer une densit ́e de probabilit ́e multivariable, dans le cas ou` cette densit ́e prend la forme d'un mod`ele de m ́elange gaussien. Dans ce cadre, l'agr ́egation des mod`eles probabilistes de m ́elanges gaussiens de la mˆeme classe, mais estim ́es `a plusieurs nœuds sur diff ́erents ensembles de donn ́ees, est une n ́ecessit ́e typique `a laquelle nous nous int ́eressons dans cette th`ese. Les approches propo- s ́ees pour la fusion de m ́elanges gaussiens exigent uniquement le calcul mod ́er ́e `a chaque nœud et peu de donn ́ees de transit entre les nœuds. Ces deux propri ́et ́es sont obtenues en agr ́egeant des mod`eles via leurs (peu) param`etres plutˆot que par les donn ́ees multim ́edia. Dans la premi`ere approche, en supposant que les m ́elanges sont estim ́es ind ́ependamment, nous propageons leurs param`etres de fa ̧con d ́ecentralis ́ee (gossip), dans un r ́eseau, et agr ́egeons les mod`eles `a partir des nœuds reli ́es entre eux, pour am ́eliorer l'estimation. Les mod`eles de m ́elange sont en fait concat ́en ́es puis r ́eduits `a un nombre appropri ́e de composants gaussiens. Une modification de la divergence de Kullback conduit `a un processus it ́eratif pour estimer ce mod`ele agr ́eg ́e. Afin d'ap- porter une am ́elioration, l'agr ́egation est r ́ealis ́ee par la mod ́elisation bay ́esienne du probl`eme de groupement de composant de mod`ele de m ́elange gaussien et est r ́esolue en utilisant la m ́ethode variationnelle, appliqu ́ee au niveau de composant. Cela permet de d ́eterminer, par un processus simple, peu couˆteux et pr ́ecis, les attributions des composants qui devraient ˆetre agr ́eg ́es et le nombre de composants dans le m ́elange apr`es l'agr ́egation. Comme seulement les param`etres du mod`ele sont ́echang ́es sur le r ́eseau, le calcul et la charge du r ́eseau restent tr`es mod ́er ́es.

Page generated in 0.1019 seconds