111 |
Calcul d'Itô étenduWalsh, Alexander 30 June 2011 (has links) (PDF)
Nos différents résultats consistent principalement à établir des extensions du calcul stochastique classique. Pour (X_t) processus de Markov, il s'agissait à l'origine de donner dans les quatre cas suivants, la décomposition explicite de F(X_t,t) en tant que processus de Dirichlet, sous des conditions minimum sur F fonction déterministe à valeurs réelles. Dans le premier cas, X est un processus de Lévy réel avec composante brownienne. Dans le deuxième cas X est un processus de Lévy symétrique sans composante brownienne mais admettant des temps locaux en tant que processus de Markov. Dans le troisième cas, X est un processus de Markov symétrique général sans condition d'existence de temps locaux mais F(x,t) ne dépend pas de t. Dans le quatrième cas, nous supprimons l'hypothèse de symétrie du troisième cas. Dans chacun des trois premiers cas, on obtient une formule d'Itô à la seule condition que la fonction F admette des dérivées de Radon-Nikodym d'ordre 1 localement bornées. On rappelle que dans l'hypothèse où X est une semi-martingale, la formule d'Itô classique nécessite que F soit C^2. C'est l'hypothèse que nous devons prendre dans le quatrième cas. Le premier cas excepté, chacune des formules d'Itô obtenues s'appuie sur la construction de nouvelles intégrales stochastiques par rapport à des processus aléatoires qui ne sont pas des semi-martingales.
|
112 |
Réduction d'ordre de modèle d'un phénomène d'amortissement non-linéaire dans le cadre des microsystèmes.Missoffe, Alexia 13 December 2010 (has links) (PDF)
Cette thèse traite de la réduction d'ordre de modèle du phénomène communément rencontré dans la modélisation de microsystèmes, à savoir, dans la littérature anglaise, le " squeeze-film damping ". Dans un premier chapitre sont présentées les différentes méthodes de réduction d'ordre de modèle. Dans le cas des systèmes linéaires, elles ont un cadre théorique bien établi. Ces méthodes peuvent être adaptées pour les systèmes non-linéaires. La validité des modèles réduits résultants sera alors réduite à un certain espace des phases, leur établissement faisant intervenir certaines trajectoires particulières servant d'apprentissage. On présente finalement la méthode des modes normaux non-linéaires dont les modèles résultants ne dépendent pas d'une trajectoire d'apprentissage. Au chapitre 2, on s'intéresse plus particulièrement au phénomène de " squeeze-film damping " régi par l'équation de Reynolds. Après avoir détaillé son établissement à partir de certaines hypothèses, on décrit les différentes méthodes de résolution de l'équation linéaire puis non-linéaire de la littérature. On compare ensuite les résultats d'un modèle de l'équation de Reynolds à des simulations éléments finis de l'équation de Navier-Stokes afin de valider les hypothèses faites pour la dérivation de l'équation de Reynolds. On propose ensuite une résolution originale par changement de variable. On étudie aussi plusieurs autres résolutions possibles ainsi que plusieurs bases de projection parmi celles décrites dans le premier chapitre. Le chapitre 3 est consacré à la modélisation du problème couplé que constitue le micro-interrupteur MEMS qui est un candidat au remplacement des interrupteurs à base de transistors dans les communications RF. Sa modélisation fait intervenir trois domaines, la mécanique, l'électrostatique, et la fluidique à travers l'équation de Reynolds. Après voir décrit les différents modèles de la littérature, on propose un modèle réduit couplé dont le modèle fluidique est basé sur le modèle établi au chapitre 2. Ce modèle est validé par rapport à des modèles différences finies et à des résultats expérimentaux de la littérature.Enfin le quatrième chapitre traite de la réduction du coût d'évaluation du modèle réduit couplé de micro-interrupteur du chapitre 3. La première méthode proposée consiste à trouver une fonction d'approximation de la projection de la force fluidique sur le premier mode mécanique, fonction des coordonnées modales mécaniques position et vitesse. Cette méthode ne se révèle valable que dans le cas incompressible. Dans le cas compressible, la résolution de l'équation de Reynolds restant obligatoire, on utilise la méthode de Rewienski et al. qui consiste à linéariser par morceaux les fonctions régissant la dynamique. Une autre méthode de linéarisation par morceaux, tirant parti d'une particularité du modèle du chapitre 2 et permettant de s'affranchir d'une trajectoire d'apprentissage, est également proposée.
|
113 |
Approches variationnelles et autres contributions en optimisation stochastiqueStrugarek, Cyrille 15 May 2006 (has links) (PDF)
Cette thèse s'attache à l'étude des problèmes d'optimisation stochastique, en les abordant sous divers angles. Le premier chapitre donne un panorama des problèmes d'optimisation stochastique. Le deuxième chapitre montre qu'en dimension un, seuls les systèmes à espace d'état à dynamique et observation linéaire sont sans effet dual en boucle ouverte. Le troisième chapitre s'attache à montrer la nécessité de tenir compte de la structure d'information dans la discrétisation et les résultats de stabilité pour les problèmes à plusieurs pas de temps. Le quatrième chapitre propose une nouvelle famille d'algorithmes stochastiques permettant de rechercher les commandes optimales fonctionnellement sans aucune discrétisation préalable de l'aléa, et avec une garantie asymptotique d'optimalité. Le cinquième chapitre étudie les possibilités de décomposition et d'agrégation pour les problèmes stochastiques de grande taille.
|
114 |
Topological tools for discrete shape analysisChaussard, John 02 December 2010 (has links) (PDF)
L'analyse d'images est devenue ces dernières années une discipline de plus en plus riche de l'informatique. La topologie discrète propose un panel d'outils incontournables dans le traitement d'images, notamment grâce à l'outil du squelette, qui permet de simplifier des objets tout en conservant certaines informations intactes. Cette thèse étudie comment certains outils de la topologie discrète, notamment les squelettes, peuvent être utilisés pour le traitement d'images de matériaux.Le squelette d'un objet peut être vu comme une simplification d'un objet, possédant certaines caractéristiques identiques à celles de l'objet original. Il est alors possible d'étudier un squelette et de généraliser certains résultats à l'objet entier. Dans une première partie, nous proposons une nouvelle méthode pour conserver, dans un squelette, certaines caractéristiques géométriques de l'objet original (méthode nécessitant un paramètre de filtrage de la part de l'utilisateur) et obtenir ainsi un squelette possédant la même apparence que l'objet original. La seconde partie propose de ne plus travailler avec des objets constitués de voxels, mais avec des objets constitués de complexes cubiques. Dans ce nouveau cadre, nous proposons de nouveaux algorithmes de squelettisation, dont certains permettent de conserver certaines caractéristiques géométriques de l'objet de départ dans le squelette, de façon automatique (aucun paramètre de filtrage ne doit être donné par l'utilisateur). Nous montrerons ensuite comment un squelette, dans le cadre des complexes cubiques, peut être décomposé en différentes parties. Enfin, nous montrerons nos résultats sur différentes applications, allant de l'étude des matériaux à l'imagerie médicale
|
115 |
Anticipation des déformations lors du traitement thermique de pignons de boîtes de vitessesVanoverberghe, Laurent 16 December 2008 (has links) (PDF)
Il existe deux stratégies principales pour fabriquer des engrenages, liées à l'ordre d'enchaînement de l'usinage de finition et du traitement thermique. Dans le cas qui nous occupe ici chez Renault, la majorité des pièces produites adopte un processus où le traitement thermique termine la gamme de fabrication, ce qui n'autorise aucune modification de la géométrie de la denture en sortie de trempe. Il est donc primordial d'analyser les déformations qui apparaissent lors de cette étape. Indépendamment de ces stratégies de fabrication, la vie d'une pièce peut être divisée en deux phases : la mise au point et la vie série. Chaque période génère des problématiques séparées. Pour la première, il est utile de connaître au préalable la déformation de la pièce lors du traitement thermique, voire des autres opérations de la gamme. Un état de l'art des modélisations phénoménologiques actuelles est donc dressé, ainsi qu'une liste des données nécessaires au calcul. L'applicabilité de la simulation numérique à ce problème est alors étudiée. Une bonne corrélation qualitative a été observée entre simulation et données expérimentales. Cependant, étant donné la complexité des donnée nécessaires et la détermination des conditions aux limites, une autre possibilité a également été développée, structurée autour d'une base de données recensant les déformations des engrenages de chaque site. Cette méthodologie a été implémentée dans une application qui est maintenant utilisée sur tous les sites de mécanique Renault. Une fois cette mise au point terminée, la pièce entre dans la deuxième phase, la vie série. Celle-ci voit apparaître alors un second type de problème : la dérive du processus nominal. Cette dérive peut être occasionnée par exemple par une matière légèrement modifiée, des conditions d'usinage optimisées ou une variation du traitement thermique qui échappe aux contrôles classiques mis en place. Nous nous attachons ici principalement aux dérives qui provoquent une variation dimensionnelle de la pièce mais le principe peut être appliqué à d'autres variations. Retrouver le plus rapidement possible l'origine d'une telle dérive et la corriger alors que la production est arrêtée est impératif. Nous proposons donc ici les fondements d'une méthode permettant de reconnaître l'origine d'une dérive identifiée à partir de la seule mesure de la déformation de la pièce. Une base des dérives possibles est créée en réalisant une décomposition modale (POD) des simulations numériques représentant les variations du process. En projetant la mesure réelle sur cette base, nous sommes ainsi capables d'identifier l'origine de la dérive et donc de réduire les délais d'analyse du problème.
|
116 |
Identification et exocytose d´organelles dans les astrocytes en culture: couplage de la microscopie à onde évanescente et de la décomposition spectraleNadrigny, Fabien 26 September 2006 (has links) (PDF)
Les astrocytes sont capables de sécréter des gliotransmetteurs en réponse à une stimulation qui engendre l'augmentation de la concentration calcique intra-cellulaire. Différents mécanismes de sécrétion ont été proposés, parmi lesquels l'exocytose régulée. Mais les expériences menées dans le but d'observer la fusion d'organelles individuels dans des astrocytes en culture ont conduit à des résultats contradictoires, notamment en terme d'identité des vésicules libérables. Nos expériences préliminaires nous ont convaincus que les conflits sur l'identité des organelles libérables sont dus à de fausses colocalisations à cause du recouvrement spectral des marqueurs fluorescents utilisés et de la présence d'autofluorescence dans les astrocytes en culture. Nous avons donc adapté la décomposition spectrale à l'identification rigoureuse d'organelles individuels et au suivi de leur exocytose. La décomposition spectrale permet la séparation de sources de fluorescence mal séparées et ainsi l'étude de l'expression et de la colocalisation de protéines fluorescentes, même en présence d'autofluorescence. Nous avons à cette occasion introduit un intervalle de confiance du résultat de l'estimation des quantités de colorants. Appliquée au marquage des organelles astrocytaires avec la EGFP et l'acridine orange, cette méthode a montré que l'apparente colocalisation entre ces marqueurs reflète en fait la présence d'acridine orange plus intense que la EGFP et coexistant dans les mêmes organelles sous deux formes verte et rouge. A l'aide de la décomposition spectrale et de la microscopie à onde évanescente, nous avons ensuite montré que les organelles autofluorescents dans les astrocytes sont en majorité des lysosomes capables de fusionner lors d'une stimu\-lation qui engendre l'augmentation du calcium intra-cellulaire. Ces lysosomes sont peut-être les organelles majoritairement responsables de l'exocytose dans les astrocytes en culture.
|
117 |
Analyse multi-échelle de structures hétérogènes par décomposition de domaine : application aux navires à passagersMobasher Amini, Ahmad 01 February 2008 (has links) (PDF)
La simulation de structures industrielles complexes comportant des détails structuraux conduit à des modèles éléments finis de très grande taille. Pour traiter ce type de problème, une méthode de décomposition de domaine FETI-DP est adoptée dans ce travail. L'étude concerne un navire à passagers, dont l'architecture présente un découpage naturel en sousstructures. Les performances de ces méthodes sont très dépendantes de celles de son solveur, basé sur une méthode itérative de type gradient conjugué. Il faut donc disposer de préconditionneurs efficaces, ce qui est délicat pour des structures hétérogènes constituées par des assemblages tridimensionnels de plaques et de raidisseurs. Une méthode est donc développée tenant compte de la raideur locale d'interface des sous domaines, pour accélérer la vitesse de convergence. Dans une deuxième partie, l'objectif est d'optimiser le temps de calcul de la structure. La méthode précédente est alors améliorée avec une version multiéchelle, et deux niveaux de discrétisation des sous domaines. Les zones d'intérêt sont représentées par des sous domaines maillés finement, alors que toutes les autres sont décrites de façon macroscopique avec seulement les nœuds grossiers de l'approche FETI-DP. L'utilisation de sous domaines macroscopiques soulève le problème de la détermination de leur raideur (par homogénéisation numérique), et de leur raccord avec les sous domaines microscopiques. Deux approches différentes sont proposées, de type collocation et Mortar. Elles sont validées sur des cas simples et illustrés à travers différents exemples.
|
118 |
Analyse des solutions du système des équations de Navier-Stokes avec des conditions aux limites de type vorticité pour les fluides barotropiques compressiblesMuzereau, Olivier 24 February 2009 (has links) (PDF)
Le travail présenté dans ce mémoire de thèse est consacré à l'analyse du système des équations de Navier-Stokes stationnaires pour les fluides barotropiques compressibles en géométrie bornée tridimensionnelle. La principale originalité tient au choix de conditions aux limites non classiques. Dans le cas inviscide, il s'agit alors des équations d'Euler, les conditions aux limites naturelles sont celles d'imperméabilité pour le champ des vitesses. Dans le cas visqueux, il faut introduire des conditions supplémentaires : en 2004 pour le modèle incompressible les professeurs J. Neustupa et P. Penel ont proposé de compléter les équations de Navier-Stokes par des conditions dites d'imperméabilité généralisée concernant également le champ de vorticité. Ils ont ainsi établi une théorie alternative à la théorie classique. Nous étendons cette théorie au modèle visqueux barotropique compressible. Nous présentons deux modèles approchés fondés sur un possible découplage en un problème de Stokes adéquat au choix des conditions aux limites et deux problèmes de Poisson avec conditions de Neumann. Cette approche met notamment en avant l'intérêt de la décomposition de Helmholtz, l'importance du théorème de Leray-Schauder pour démontrer l'existence de solutions, et le rôle essentiel d'une pression, dite pression effective. Quant aux passages à la limite, ils sont techniques et diffciles, mais désormais classiques. Nous nous sommes inspirés des travaux des écoles française (P.L. Lions) et tchèque (A. Novotny et I. Straskraba). Le second modèle approché fournit une solution à densité bornée. P.B. Mucha et M. Pokorny ont développé tout récemment la même analyse avec des conditions aux limites de Navier.
|
119 |
Magnetohydrodynamic Turbulence Modelling. Application to the dynamo effect./ Modélisation de la turbulence magnétohydrodynamique. Application à l’effet dynamo.Lessinnes, Thomas O. D. 21 May 2010 (has links)
La magnétohydrodynamique (MHD) est la science et le formalisme qui décrivent les mouvements d'un fluide conducteur d'électricité. Il est possible que de tels mouvements donnent lieu à l'effet dynamo qui consiste en la génération d'un champ magnétique stable et de grande échelle. Ce phénomène est vraisemblablement à l'origine des champs magnétiques des planètes, des étoiles et des galaxies.
Il est surprenant qu'alors que les mouvements fluides à l'intérieur de ces objets célestes sont turbulents, les champs magnétiques généré soient de grande échelle spatiale et stables sur de longues périodes de temps. De plus, ils peuvent présenter une dynamique temporelle régulière comme c'est le cas pour le champ magnétique solaire dont la polarité s'inverse tous les onze ans.
Décrire et prédire les mouvements d'un fluide turbulent reste l'un des problèmes les plus difficiles de la mécanique classique.
%La description aussi bien analytique que numérique d'un fluide hautement turbulent est d'une effroyable complexité, si pas tout simplement impraticable. Dans cette situation,
Il est donc utile de construire des modèles aussi proches que possible du système de départ mais de moindre complexité de sorte que des études théoriques et numériques deviennent envisageables.
Deux approches ont été considérées ici. D'une part, nous avons développé des modèles présentant un très petit nombre de degrés de liberté (de l'ordre de la dizaine). Une étude analytique est alors possible. Ces modèles ont une dépendance en les paramètres physiques - nombres de Reynolds cinétique et magnétique et injection d'hélicité - qualitativement similaire aux dynamos célestes et expérimentales.
D'autre part, les modèles en couches permettent de caractériser les transferts d'énergie entre les structures de différentes tailles présentes au sein du champ de vitesse. Nous avons développé un nouveau formalisme qui permet d'étudier aussi les échanges avec le champ magnétique.
De plus, nous proposons une étude de la MHD dans le cadre de la décomposition hélicoïdale des champs solénoïdaux - une idée similaire à la décomposition de la lumière en composantes polarisées et que nous sommes les premiers à appliquer à la MHD. Nous avons montré comment exploiter cette approche pour déduire systématiquement des modèles simplifiés de la MHD. En particulier, nos méthodes multiplient le nombre de situations descriptibles par les modèles en couche comme par exemple le problème anisotrope de la turbulence en rotation. Elles permettent aussi de construire des modèles à basse dimension en calquant les résultats de simulations numériques directes. Ces modèles peuvent alors être étudiés à moindre coûts.
_______________
Magnetohydrodynamics (MHD) is both the science and the formalism that describe the motion of an electro-conducting fluid. Such motion may yield the dynamo effect consisting in the spontaneous generation of a large scale stationary magnetic field. This phenomenon is most likely the reason behind the existence of planetary, stellar and galactic magnetic fields.
It is quite surprising that also the fluid motion within these objects is turbulent, the generated magnetic fields present large spatial structures evolving over long time scales. Moreover these fields can present a very regular non trivial dynamics like in the case of the Sun, the magnetic field of which switches polarity every eleven years.
To describe and predict the motion of a turbulent flow remains one of the most challenging problem of classical mechanics. It is therefore useful to build models as close to the initial system as possible but of a lesser complexity so that their theoretical and numerical analysis become tractable.
Two approaches have been considered here. Low dimensional models have been developed that present about ten degrees of freedom. An analytical study of the resulting dynamical system is then possible. Interestingly, the dependance of these models on the physical parameters - kinetic and magnetic Reynolds number as well as injection of kinetic helicity - qualitatively matches that of the cosmic and experimental dynamos.
On the other hand, shell models allow to characterise the energy transfers between structures of different sizes within the velocity field. A new formalism is presented which makes possible to also study the exchanges with the magnetic field.
Furthermore, a description of MHD in the helical decomposition is proposed. I show how to use this decomposition to build new shell and low dimensional models. The methods developed here allow to broaden the scope of possible applications of the models. In particular, shell models are generalised in such a way that they can now describe anisotropic situations like that of rotating turbulence.
|
120 |
ANALYSE FONCTIONNELLE DES CONVERTISSEURS STATIQUES EN VUE DE LA CONCEPTIONLechevalier, Christophe 30 November 1998 (has links) (PDF)
Ce travail de thèse propose d'utiliser Fanalyse fonctionnelle dans le processus de conception des structures de convertisseurs statiques. L'analyse fonctionnelle permet d'obtenir un niveau de raisonnement relativement détaché d'une technologie de réalisation. Ainsi, elle permet de guider le concepteur vers l'obtention de plusieurs structures à partir d'un même cahier des charges. L'approche présentée ici est restreinte aux convertisseurs statiques mais peut être étendue aux entraînements électriques. Un modèle est proposé pour représenter les fonctions et les agencer sous forme de graphes fonctionnels. En complément, une analyse de cohérence de ces derniers a été élaborée afin d'aider le concepteur tout au long de sa démarche de conception, en lui signalant des problèmes éventuels de construction des graphes et en lui proposant même parfois des éléments de solution. A partir de là, nous avons mis en œuvre un prototype informatique afin de valider tous ces concepts. Cet outil ne réalise que la vérification de la cohérence et laisse à la charge du concepteur le choix des fonctions et le passage fonction-structure.
|
Page generated in 0.1431 seconds