61 |
Modélisation Non Linéaire des Oscillateurs à Quartz, Développement d'un Logiciel de SimulationAddouche, Mahmoud 08 October 2002 (has links) (PDF)
Pendant très longtemps, le développement des oscillateurs ultra-stables pour applications spatiales et militaires s'est appuyé sur<br />l'expérience et le savoir-faire de spécialistes grâce à des méthodes le plus souvent empiriques. Une démarche plus rigoureuse a<br />été engagée pour améliorer la conception et l'optimisation des oscillateurs ultra-stables (plus particulièrement les oscillateurs à quartz). Cette<br />thèse fait suite à une série de travaux dans le cadre de plusieurs contrats entre le LPMO et le CNES concernant la modélisation des<br />oscillateurs à quartz. L'objectif de notre travail est de fournir au CNES un logiciel (nommé ADOQ) offrant à l'utilisateur un outil simple pour la conception d'oscillateurs à quartz<br />performants. A partir de méthodes de simulation spécifiques aux circuits à grand coefficient de qualité nous avons développé<br />une méthode de calcul originale appelée méthode du Grand-Sinus. Le logiciel ADOQ est capable de déterminer avec une grande<br />précision les conditions de fonctionnement des oscillateurs à quartz : fréquence, amplitude, puissance d'excitation du résonateur en régime<br />permanent, régime transitoire, spectres de bruit d'amplitude et de phase. Il permet par ailleurs de déterminer la sensibilité des caractéristiques<br />de l'oscillateur en fonction de la variation de la valeur des composants. Il existe actuellement très peu de logiciels industriels en mesure de fournir directement ces informations. Le travail effectué dans le cadre de cette thèse est<br />complété par la validation expérimentale de la méthode Grand-Sinus et la vérification de la concordance des résultats de simulation avec les résultats de mesures.
|
62 |
Nucléosynthèse dans les étoiles de la branche asymptotique: du coeur dégénéré à l'envellope circumstellaireDUFOUR, Emmanuel 17 February 2000 (has links) (PDF)
Les étoiles de la branche asymptotique (AGBS) sont surtout connues pour deux faits historiques: - le "mystère des éléments s": riches en neutrons et possédant une durée de vie inférieure à celle des AGBS, ces éléments sont néanmoins présents dans les enveloppes de ces étoiles. De plus, les abondances de ces éléments "s" sont mal reproduites par les modèles existants. - le "mystère des étoiles carbonées": ces étoiles, dont les abondances vérifient C/O>1, sont majoritairement de faible luminosité. C'est un drainage (DUP) qui permet aux AGBS de devenir carbonées: l'enveloppe convective (CE) descend là où brûle 1H et prélève du Carbone, produit plus bas par la combustion de 4He et amené là par des languettes convectives récurrentes, les pulses thermiques. Or, les profondeurs des DUP modélisés pour des AGBS de faibles masses n'expliquent la forte proportion de Carbone observée. Ces deux mystères conduisent à identifier deux paramètres majeurs de l'évolution des abondances: la perte de masse et le DUP. Le premier contrôle la fin de la phase AGB et la température à la base de la CE, à masse stellaire fixée. Le deuxième maîtrise l'apport de protons entre les couches de 1H et de 4He et la modification des abondances de surface. Et c'est de la physique non standard qui est sous-jacente à ces paramètres: couplage gaz-poussière, pulsations, ondes de chocs, dégénérescence, convection avec gradient de composition, mélange non standard (non thermiquement induit)... Plusieurs études ayant été faites, tant sur les mécanismes de production que sur le paramétrage de la perte de masse, ce travail est centré sur l'influence du traitement du DUP sur la nucléosynthèse des AGBS de masses intermédiaires. La nucléosynthèse étant connue grâce à une coopération étroite entre méthodes observationnelles et théoriques, cette thèse a été menée sur les deux fronts. Cela rend possible "l'éclairage" de chacune des méthodes par les forces et les faiblesses de l'autre et donc de mieux évaluer la fiabilité d'une mesure réalisée sur Terre lorsqu'on veut l'interpréter en terme d'abondances au centre de l'étoile. La partie observationnelle de ce travail est focalisée sur l'amélioration de la précision de rapports isotopiques délicats à interpréter dans des enveloppes particulières: rapports d'éléments lourds de sources brillantes ou rapports des CNO dans des sources présentant des anomalies d'abondances. L'interprétation des observations a requis deux modélisations avancées dont l'une, faisant partie intégrante de cette thèse, porte sur l'émission de l'enveloppe, et l'autre, portant sur le processus "s", a fait l'objet d'une collaboration. Dans le domaine théorique, le code d'évolution stellaire de Grenoble a été optimisé pour les AGBS afin d'étudier l'influence de la modélisation physique et du traitement numérique du DUP sur la nucléosynthèse. Le cœur de la modélisation d'une étoile, l'équation d'état (EOS), a été réécrite et une grande partie du traitement numérique du code a été revue. La physique du mélange non standard a été incorporée et "l'arsenal" numérique nécessaire à la mise en œuvre de cette physique a fait l'objet d'une collaboration. Ce travail a permis la précision des caractéristiques d'enveloppes d'étoiles J (riches en 13C), la détermination de 35Cl / 37Cl dans IRC+10216 et la production d'outils de calcul performants pour les étoiles (même de faibles masses) et leurs enveloppes moléculaires. Mais il a surtout montré que l'incorporation de mélange non standard permet à la fois d'augmenter la profondeur du DUP et de produire une poche de 13C propice au processus "s". Ce fait, ajouté aux difficultés pour concilier les résultats d'observations des étoiles J avec les modèles, tend à réorienter le futur des modèles d'AGBS. Il faudrait disposer de modèle d'AGBS plus généraux, notamment pour les faibles masses, cohérents avec la physique et le numérique de la phase évolutive qui les précède, elle qui est naturellement modélisée avec du mélange non standard. En prime, les changements effectués dans le code et notamment l'élaboration d'une nouvelle EOS, ont permis de modéliser le flash de l'Helium et de produire des tracés d'étoiles pré séquence principale (PMS) jusqu'à 0.1 masse solaire concurrençant les codes les plus spécialisés.
|
63 |
Approche probabiliste des particules collantes et système de gaz sans pressionMoutsinga, Octave 16 June 2003 (has links) (PDF)
A chaque instant $t$, nous construisons la dynamique des particules collantes dont la masse est distribuée initialement suivant une fonction de répartition $F_0$, avec une vitesse $u_0$, à partir de l'enveloppe convexe $H(\cdot,t)$ de la fonction $m\in (0,1)\mapsto \int_a^m\big( F_0^(-1)(z) + tu_0\big(F_0^(-1)(z)\big)\big)dz$. Ici, $F_0^(-1)$ est l'une des deux fonctions inverses de $F_0$. Nous montrons que les deux processus stochastiques $X_t^-(m)= \partial_m^-H(m,t),\; X_t^+(m) = \partial_m^+H(m,t)$, définis sur l'espace probabilisé $([0, 1], (\cal B), \lambda)$, sont indistinguables et ils modélisent les trajectoires des particules. Le processus $X_t:= X_t^- = X_t^+$ est une solution de l'équation $(EDS): \; \frac(dX_t)(dt) =\E[ u_0(X_0)/X_t]$, telle que $P(X_0 \leq x) = F_0(x)\,\,\forall x$. L'inverse $M_t:= M(\cdot,t)$ de la fonction $m\mapsto \partial_mH(m,t)$ est la fonction de répartition de la masse à l'instant $t$. Elle est aussi la fonction de répartition de la variable aléatoire $X_t$. On montre l'existence d'un flot $(\phi(x,t,M_s, u_s))_( s < t)$ tel que $X_t= \phi(X_s,t,M_s,u_s)$, où $u_s(x) = \E[ u_0(X_0)/X_s = x]$ est la fonction vitesse des particules à l'instant $s$. Si $\frac(dF_0^n)(dx)$ converge faiblement vers $\frac(dF_0)(dx)$, alors la suite des flots $\phi(\cdot,\cdot,F_0^n,u_0)$ converge uniformément, sur tout compact, vers $\phi(\cdot,\cdot,F_0,u_0)$. Ensuite, nous retrouvons et étendons certains résultats des équations aux dérivées partielles, à savoir que la fonction $(x,t)\mapsto M(x,t)$ est la solution entropique d'une loi de conservation scalaire de donnée initiale $F_0$, et la famille $\big(\rho(dx,t) = P(X_t\in dx),\, u(x,t) = \E[ u_0(X_0)/X_t = x]\big)_(t >0)$ est une solution faible du système de gaz sans pression de données initiales $\frac(dF_0(x))(dx), u_0$. Cette thèse contient aussi d'autres solutions de l'équation différentielle stochastique $(EDS)$ ci-dessus.
|
64 |
Simulation des circuits électroniques RF/Analogiques/Numériques excités par des signaux à modulation complexeJanicot, Vincent 06 December 2002 (has links) (PDF)
La taille, la complexité et les performances des circuits électroniques de télécommunication sont de plus en plus contraignantes tandis que le temps et le coût de commercialisation doivent être réduits au maximum. Voulant répondre au vide existant sur le marché de la CAO dans ce domaine, ce travail est consacré à la simulation mixte de systèmes de communication complets parcourus par des signaux numériques, des signaux analogiques basse-fréquence, des signaux quasi-périodiques et des signaux RF à modulation digitale complexe. Le premier chapitre du manuscrit présente les différents types de circuits et de signaux que l'on veut simuler. La deuxième partie décrit d'abord les principales méthodes de simulation RF existantes. On développe ensuite les innovations apportées à la méthode de l'Equilibrage Harmonique, basée sur une utilisation efficace du spectre, et enfin celles apportées à l'algorithme de l'Enveloppe. Le troisième chapitre propose une nouvelle méthodologie pour simuler des circuits complets RF/Analogiques/Numériques dans le cadre de l'algorithme de l'Enveloppe : couplage avec un simulateur numérique, prise en compte de modèles comportementaux et partition analogique/RF des circuits. Enfin, la dernière partie illustre les potentialités de cette nouvelle technique d'analyse sur quelques circuits typiques. Pour la première fois, des systèmes complexes mixtes, décrits aux niveaux logique, transistor et comportemental, peuvent être simulés dans un seul flot et dans des temps raisonnables.
|
65 |
Quelques contributions au contrôle et aux équations rétrogrades en finance.Fabre, Emilie 29 February 2012 (has links) (PDF)
Je me suis intéressée à résoudre certains problèmes financiers par du contrôle stochastique. On a premièrement considéré un problème mixte d'investissement optimal et de vente optimale. On a étudié le comportement d'un investisseur possédant un actif indivisible qu'il cherche à vendre tout en gérant en continu un portefeuille d'actifs risqués. Puis, on s'est intéressé à l'étude des équations stochastiques rétrogrades du premier et du second ordre avec contraintes convexes. Dans chaque cas, on a prouvé l'existence d'une solution minimale ainsi qu'une représentation stochastique pour ce problème. Enfin, on a étudié un modèle à volatilité stochastique où la volatilité instantanée dépend de la courbe de volatilité forward. On propose un développement asymptotique du prix de l'option pour de petites variations de la volatilité.
|
66 |
Quelques propositions pour la mise en oeuvre d'algorithmes combinatoiresTallot, Didier 28 June 1985 (has links) (PDF)
Le travail, exposé dans ce rapport, se divise en deux parties. La première partie a fait l'objet d'un rapport de recherche publié en Avril 1984 [Tall]. La deuxième partie résulte d'un travail qui s'est déroulé de juin 1984 i juin 1985. Pour produire des images de hautes qualités, on est obligé de manipuler des grandes quantités de données. D'où l' intérêt d'étudier des algorithmes et des structures de données efficaces pour résoudre ~es problèmes géométriques. On pourra ainsi obtenir des méthodes efficaces pour la manipulation de données graphiques. On peut citer i ce propos, les travaux pionners de SHAMOS dans le domaine de la complexité géométrique [Sham]. La deuxième partie contient la description d 'un logiciel interactif *de manipulation de graphes et d'ordres. A notre connaissnce, la plus ancienne réalisation de ce type de logiciel est le "Graph theory interactive system" de WOLFBERG [Wolf]. Suivant les travaux de GUIDO sur CABRI (CAhier de BRouillon Informatisé), nous desirons offrir un poste de travail sur les graphes pour des chercheurs en théorie des graphes. CABRI est une bonne approche du problème, mais reste d'un emploi malaisé. Nous avons donc étudiés de nouveau le problème en nous attachant à décrire une meilleure interface utilisateur. Nous nous sommes inspirés des travaux sur les logiciels interactif existant, comme ceux développés chez XEROX, au PALO-ALTO RESEARCH CENTER (Smit] chez NIEVERGELT [Sere].
|
67 |
Anneaux de valuation et anneaux à type de module bornéCouchot, Francois 13 November 2008 (has links) (PDF)
Ce mémoire est une présentation des travaux que l'auteur a réalisé en théorie des aneaux et des modules. Plus précisément l'auteur s'est consacré à l'étude des anneaux commutatifs arithmétiques et plus particulièrement aux anneaux de valuation (non nécessairement intègres). Le résultat le plus remaquable est la démonstration du théorème qui dit que tout annean local à type de module borné est un anneau de valuation presque maximal. Sont aussi présentés des résultats sur la localisation des modules injectifs et sur les enveloppes pure-injectives de certains modules.
|
68 |
Quelques observations sur le rôle des ATPases à cuivre HMA1 et PAA1 dans le contrôle de l'homéostasie du cuivre chloroplastiqueBoutigny, Sylvain 28 October 2009 (has links) (PDF)
Le chloroplaste est un organite spécifique de la cellule végétale. Il est délimité par une double membrane ou enveloppe qui renferme de nombreux systèmes de transports d'ions et de métabolites essentiels au fonctionnement du chloroplaste et de la cellule végétale. A ce jour, seuls quelques transporteurs de métaux associés à l'enveloppe des plastes ont été identifiés : un transporteur de fer, un transporteur de magnésium ainsi que deux ATPases à cuivre de type P1B : HMA1 et PAA1. PAA1 représenterait la voie principale d'import du cuivre dans le chloroplaste, notamment pour alimenter la photosynthèse. HMA1 constituerait une voie additionnelle d'import du cuivre, voie essentielle pour répondre à un stress oxydatif qui apparaît en particulier lorsque la plante est cultivée en lumière forte. Afin de mieux comprendre les rôles respectifs de ces deux ATPases dans la régulation de l'homéostasie du cuivre chloroplastique, deux approches complémentaires ont été développées : - une approche in planta visant à produire de nouvelles lignées affectées dans l'expression de l'une (mutant paa1 surexprimant HMA1) ou de ces deux ATPases (double mutant hma1/paa1), puis à identifier des conditions (stress lumineux, stress salin, excès de métaux) révélant le rôle essentiel de ces ATPases ou induisant une réponse transcriptionnelle différente des gènes codant ces ATPases ou d'autres acteurs liés à l'homéostasie du cuivre... Les résultats obtenus montrent que la fonction de HMA1, connue pour être essentielle lors d'un stress lumineux, est aussi requise lorsque la plante subit un stress salin. Ces résultats confortent le rôle de HMA1 dans la délivrance du cuivre à la superoxyde dismutase (cuivre/zinc) du chloroplaste. D'autre part, nous avons montré qu'en condition de culture photoautotrophe, le cuivre permet de supprimer partiellement la photosensibilité du mutant hma1, validant ainsi l'implication de HMA1 dans l'homéostasie du cuivre. Nous avons aussi démontré que les fonctions de HMA1 et PAA1 ne sont pas redondantes. Le cuivre importé par ces deux ATPases est probablement délivré à des protéines cibles par des voies différentes. Enfin, nous avons montré qu'il existe une troisième voie d'import de cuivre dans le chloroplaste, voie encore non caractérisée. - une approche in vitro visant à produire ces deux ATPases HMA1 et PAA1 dans le système hétérologue Lactococcus lactis afin de déterminer leurs spécificités ioniques et leurs caractéristiques biochimiques. Le système d'expression procaryote L. lactis a été mis en place au laboratoire et s'avère parfaitement adapté à la production de protéines membranaires de plantes. Ce système a permis de produire plusieurs protéines membranaires d'Arabidopsis, dont HMA1 et PAA1, en quantités compatibles avec des analyses biochimiques. Nous avons déterminé les conditions de solubilisation et de purification de ces deux protéines. Nous n'avons pas pu mesurer d'activité ATPase associée à ces protéines. En revanche, nos données indiquent que ces deux protéines recombinantes peuvent lier l'un de leur substrat ; l'ATP. Nous avons aussi pu démontrer que PAA1 peut lier du cuivre sous forme 1+ et sous forme 2+. Au bilan, ces données suggèrent que le contrôle de l'homéostasie du cuivre chloroplastique requiert plusieurs systèmes de transport indépendants et une régulation fine de ces voies d'import de cuivre afin d'alimenter les besoins liés à la photosynthèse et les besoins liés aux mécanismes de résistance aux stress oxydatifs.
|
69 |
Vers une nouvelle méthodologie de conception des bâtiments, basée sur leurs performances bioclimatiquesChesné, Lou 18 October 2012 (has links) (PDF)
Les règles et usages actuels de conception des bâtiments sont essentiellement basés sur la minimisation des déperditions thermiques, ce qui se traduit par la prédominance de l'isolation thermique comme solution d'enveloppe. Or cette logique n'est pas nécessairement la plus pertinente car des ressources énergétiques existent dans l'environnement, et leur apport mériterait d'être pris en considération. Certaines technologies bioclimatiques, et surtout solaires, existent déjà mais leur utilisation n'est pas du tout généralisée à cause d'un manque de repère sur leurs performances. Pour considérer la démarche bioclimatique, il est nécessaire de pouvoir évaluer à la fois la "qualité énergétique" de l'environnement, et l'aptitude des bâtiments à exploiter cet environnement. La méthodologie présentée dans cette thèse est basée sur le calcul d'indicateurs de performance bioclimatique issus de simulations numériques de bâtiments dans diverses conditions climatiques. La simulation permet de supprimer facilement une ressource pour pouvoir obtenir les besoins d'un bâtiment non impacté par la ressource. Ces besoins peuvent alors être comparés à chaque instant au potentiel de la ressource afin de déterminer un potentiel utile, valorisable par le bâtiment. Il est également possible de comparer les besoins du bâtiment dans la simulation sans et avec la ressource et d'en déduire la quantité d'énergie provenant de la ressource réellement utilisée par le bâtiment pour couvrir ses besoins. Un jeu d'indicateurs est ainsi défini pour toutes les ressources et tous les besoins d'un bâtiment, et adapté plus particulièrement aux besoins de confort thermique (chauffage et rafraîchissement) et à trois ressources de l'environnement (le soleil, la voûte céleste et l'air extérieur). Un cas d'étude est alors choisi pour appliquer cette méthode et les résultats sont analysés à l'échelle du bâtiment tout entier ainsi qu'à l'échelle de chaque paroi. Une première analyse globale, sur toute l'année, permet de fixer des points de repères sur l'état des ressources et l'exploitation qui en est faite par les bâtiments. Dans un second temps, les résultats instantanés sont analysés de manière dynamique, et montrent que ces nouveaux indicateurs permettent de bien caractériser le comportement d'un bâtiment dans son environnement. Enfin, les indicateurs sont utilisés dans une approche de conception des bâtiments, et plusieurs pistes sont explorées. Une étude paramétrique est tout d'abord menée et permet d'observer l'influence du niveau d'isolation sur les indicateurs de potentiel et de performance. Puis ces indicateurs sont utilisés pour évaluer la performance bioclimatique de solutions d'enveloppe solaires. Dans un troisième temps, une optimisation de l'enveloppe est menée selon deux critères : un critère classique de minimisation du besoin, mais également un critère bioclimatique de maximisation de l'exploitation du potentiel solaire.
|
70 |
Amélioration du confort d'été dans des bâtiments à ossature par ventilation de l'enveloppe et stockage thermiqueBrun, Adrien 26 January 2011 (has links) (PDF)
Depuis quelques années, d'importants efforts ont été réalisés sur l'amélioration de la performance énergétique des bâtiments qui représentent le premier poste de consommation énergétique en France. Les exigences de la nouvelle réglementation thermique 2012 illustrent bien ces évolutions avec une consommation conventionnelle d'énergie primaire comprenant l'ensemble des postes (chauffage, climatisation, éclairage, ventilation, eau chaude sanitaire), déduction faite de l'électricité produite sur place, qui devra être inférieure à 50 kWh.m2.an-1 d'énergie primaire. La réponse à cette nouvelle exigence se fera par l'adoption de technologies constructives conduisant à une consommation pour le chauffage équivalente aux constructions dites " passives " (environ 15 kWh.m2.an-1) et dont le recours à la climatisation est limité voir inexistant. Il s'agit pour cela de limiter toutes les contributions à l'échauffement du bâtiment et éventuellement de lui adjoindre un système de rafraichissement à coefficient de performance élevé. Après avoir montré par l'exemple qu'un bâtiment à ossature à faible inertie en métropole, par sa capacité de stockage thermique limitée, est prédisposé à des problèmes de surchauffe, nous avons construit cette thèse autour de deux axes d'amélioration, dédiés aux constructions à ossature, que sont : - La limitation des charges solaires transmises au travers de l'enveloppe en faisant appel à une spécificité des constructions à ossature qu'est la présence d'un espace naturellement ventilé en sous-face du parement extérieur que nous utiliserons afin d'extraire une partie des charges solaires incidentes; - Le couplage de ces bâtiments " légers " à un échangeur air/masse qui contient l'inertie nécessaire au maintien des conditions de confort estivales lorsque la réduction de température nocturne le permet. Basée sur une approche numérique et expérimentale en vrai grandeur et en conditions réelles, nous proposons d'aborder tour à tour chacune de ces stratégies d'amélioration du confort qui trouvent leurs applications aussi bien en climat chaud et sec qu'en climat tropical.
|
Page generated in 0.0285 seconds