• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 91
  • 30
  • 3
  • 1
  • Tagged with
  • 124
  • 37
  • 25
  • 24
  • 15
  • 15
  • 14
  • 10
  • 10
  • 10
  • 9
  • 9
  • 9
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

PROPRIÉTÉS DES PLASMAS THERMIQUES DANS DES MÉLANGES ARGON-HYDROGÈNE-CUIVRE

Cressault, Yann 29 November 2001 (has links) (PDF)
Dans le cadre d'un projet sur un procédé de projection de cuivre sur des matériaux composites par torche plasma, l'objectif de ce travail est de calculer les propriétés radiatives et de transport pour un mélange Ar/H2/Cu, pour des températures comprises entre 300K et 25000K, et à la pression atmosphérique. En supposant l'ETL, le calcul préalable de la composition permet de déterminer les coefficients de transport et les propriétés radiatives suivant trois méthodes :<br /><br />- le coefficient d'émission nette pour un milieu homogène et isotherme constituant une assez bonne approximation du rayonnement émis par les régions les plus chaudes. <br /><br />- le ‘coefficient moyen d'absorption' basé sur un découpage préliminaire de l'ensemble du spectre en quelques intervalles, la valeur du coefficient d'absorption étant supposée constante dans chacun d'eux pour une température donnée. Cette méthode est intéressante pour trois raisons : sa cohérence avec les valeurs du coefficient d'émission nette dans les régions chaudes ; le calcul explicite de l'absorption du rayonnement dans les régions tièdes du plasma ou dans le gaz froid environnant ; l'utilisation de ces données dans des codes de calcul de mécanique des fluides appliqués aux plasmas thermiques. <br /><br />- la méthode de Chapman-Enskog utilisée pour déterminer les coefficients de transport et basée sur la résolution de l'équation intégro-différentielle de Boltzmann. Une étude critique des intégrales de collision a permis de sélectionner un jeu cohérent de valeurs permettant le calcul original des coefficients de transport pour notre mélange ternaire. <br /><br />Enfin, une étude expérimentale du jet de plasma a été également menée dans le cadre de cette thèse. A partir de méthodes de diagnostics par spectroscopie d'émission, le principal objectif consiste à caractériser l'état d'un plasma Ar/H2 en présence de cuivre et à déterminer les paramètres fondamentaux de la décharge (température, densités des diverses espèces).
12

Etude des propriétés d'adsorption d'hydrocarbures de composés organométalliques poreux flexibles / Study of hydrocarbon adsorption properties on the flexible porous organometallic compounds

Khuong Trung, Thuy 15 June 2011 (has links)
Ce travail décrit l'étude de différents paramètres qui influent sur les propriétés d'adsorption de composés poreux organométalliques (MOFs). Nous avons utilisé les techniques de volumétrie et de gravimétrie d'adsorption et les systèmes adsorbables sont la série des alcanes linéaires (du n-pentane au n-nonane). Les solides étudiés sont les MIL-47(V), MIL-53(Cr, Al, Fe), les MIL-53(Fe)-X modifiés et la série MIL-88(Fe)-A, B, C. Parmi les nombreuses conclusions de cette étude, nous pouvons en détailler plusieurs : (i) la flexibilité des MIL-53(Cr, Al, Fe), rendue possible par la présence de µ2-OH coordinés aux centres métalliques, dépend de l'identité des centres métalliques et de celle de l'adsorbable. (ii) la modification chimique, par substitution d'un atome d'hydrogène porté par les noyaux aromatiques des ligands, induit une variation dans le degré de flexibilité des structures et dans la stabilité des différentes phases. (iii) la nature des ligands, dans la série des MIL-88(Fe), en termes de nombre de noyaux aromatiques constituent les ligands, modifie les interactions physiques au sein des réseaux organométalliques ce qui a un effet sur leur stabilité et leur flexibilité.(iv) la facilité de la diffusion des alcanes linéaires, de longueur différente, dans les pores des solides dépend notamment des points développés ci-dessus. / This study describes a study of the adsorptive properties of several flexible porous organometallic frameworks (MOFs) using the volumetric and gravimetric methods and apolar normal alkanes (n-pentane to n-nonane) as adsorbate molecules. The materials studied are MIL-47(V), MIL-53(Cr, Al, Fe), the modified MIL-53(Fe)-X and the MIL-88(Fe)-A, B, C.This allows the study of different parameters on the behaviour of the solids during the adsorption process. Amongst the findings of this study, several can be emphasized :(i) the flexibility of the MIL-53(Cr, Al, Fe), made possible by the presence of µ2-OH coordinated to the metal centres, depends on the identity of the metal centres and that of the adsorbate.(ii) the chemical modification by the substitution of a hydrogen atom on the aromatic ligands of the MIL-53(Fe) induces a change in the degree of flexibility of the framework and the stability of the various phases.(iii) the nature of the ligands in the MIL-88(Fe) series, in terms of the number of the aromatic rings comprising the linker, changes the physical interactions within the framework and thus its stability and flexibility.(iv) the ease of diffusion into the pores of the alkanes of various alkyl chain length depends on the three points mentioned above.
13

Modélisation du procédé de compostage. Impact du phénomène de séchage / Modeling of the composting process. Drying impact

Pujol, Arnaud 06 March 2012 (has links)
Le compostage constitue un phénomène simple qui nécessite cependant un savoir-faire important puisque la réaction biologique est orientée par le contrôle de certains paramètres (température, oxygène, humidité) faisant intervenir de nombreux phénomènes couplés. Face à la complexité des mécanismes à étudier et dans le but d'optimiser le procédé industriel, l'utilisation d'un modèle de compostage semble donc pertinente afin de mieux comprendre les mécanismes mis en jeu, d'identifier les effets des couplages entre les mécanismes et mettre en avant certains facteurs clés ou encore comparer différents scénarios. L'état de l'art des modèles de compostage montre qu'aujourd'hui, malgré le nombre important de modèles de compostage, il n'en existe aucun capable de prédire, avec une formulation en temps et en espace, la température, la concentration des gaz (oxygène, dioxyde de carbone, diazote, …), la teneur en eau, les transferts entre phase, la dégradation du substrat, et prenant en compte les modifications d'aération. Le développement d'un nouveau modèle a donc été nécessaire pour pouvoir prédire l'évolution de ces variables et étudier leur couplage dans le procédé. Pour cela, la technique de moyenne volumique, appliquée aux équations à l'échelle du pore, a été utilisée et a permis d'obtenir un modèle de compostage à l'échelle de Darcy. Ce modèle prend en compte une phase gazeuse, une phase liquide et une phase solide. La phase gazeuse comprend quatre espèces : oxygène, dioxyde de carbone, azote, et vapeur d'eau. Dans la phase liquide, seule l'eau est considérée. Le séchage est intégré au modèle sous la forme d'un terme d'échange entre les phases gazeuse et liquide. Enfin, un modèle biologique, inclus dans le modèle de compostage, permet de prendre en compte la dégradation du substrat. Celui-ci est divisé en trois fractions : rapidement biodégradable, lentement biodégradable et inerte. Les deux premières fractions sont solubilisées, fournissant une fraction rapidement hydrolysable. Cette fraction est supposée directement consommée par les bactéries. En compostage, procédé aérobie, la dégradation de la matière organique est associée à une consommation d'oxygène et production de dioxyde de carbone, d'eau et de chaleur. L'hypothèse d'équilibre local thermique et chimique a été supposée ici. Cependant, pour l'eau, les 2 approches (Equilibre Local (EL) et Non-Equilibre Local (NEL)) ont été testées numériquement. Les résultats ont montré que lorsque σ, le coefficient d'échange de masse entre la phase gaz et la phase liquide pour l'eau, est compris dans l'intervalle [1, 4], les approches EL et NEL sont équivalentes, avec des temps de calcul moindres pour le cas NEL. Ainsi, pour toutes les simulations, une écriture NEL a été adoptée avec une valeur de σ de 2.5. Des tests ont ensuite permis de montrer la consistance du modèle. Au vu du nombre important de paramètres, une analyse de sensibilité a ensuite été réalisée afin de déterminer quels sont les paramètres qui ont l'impact le plus important sur le procédé. Ainsi, l'analyse a mis en évidence qu'il faut être prudent quant aux valeurs utilisées pour la capacité calorifique, un coefficient de l'isotherme de sorption, de nombreux paramètres du modèles biologiques (ksH, krH, µmax, Xa,0, Tmax, Topt, Xi,0, Xrb,0) et la porosité. Enfin, les résultats fournis par le modèle ont été comparés aux résultats expérimentaux obtenus à l'échelle pilote 1/1000 en usant des conditions opératoires identiques. Les essais de compostage réels ont été réalisés par Veolia Environnement Recherches et Innovation sur un mélange de biodéchets des ménages et de déchets verts... / Composting may look like a simple process. However, it requires an important expertise, as the biological response is governed by the control parameters (temperature, oxygen, moisture content), involving many coupled phenomena. Given the complexity of the studied mechanisms and in order to optimize the process, using a composting model seems relevant to understand the mechanisms involved, identify the effects of coupling between these mechanisms, highlight some key factors or compare different scenarios, in order to optimize the industrial process. The state of the art of composting models in the literature shows that today, despite the large number of composting models, there is none that can predict, with a formulation in time and space, temperature, concentration of gases (oxygen, carbon dioxide, nitrogen, ...), moisture content, transfers between phases, degradation of the substrate, and take into account the changes in aeration. The development of a new model was therefore necessary to predict the evolution of these variables and study their coupling in the process. The technique of volume averaging applied to the pore scale equations has led to a composting model at the Darcy-scale. This model takes into account a gas phase, a liquid phase and a solid phase. The gas phase includes four species: oxygen, carbon dioxide, nitrogen and water vapor. In the liquid phase, only water is considered. Drying is integrated into the model as an exchange term between gas and liquid phases. Finally, the biological model, included in the composting model, allows to take into account the degradation of the substrate. It is divided into three fractions: readily hydrolysable, slowly hydrolysable and inert. The first two fractions are hydrolized, providing a readily assimilable soluble fraction. It is this fraction that is directly consumed by bacteria. In a composting process, degradation of organic matter is associated with oxygen consumption and production of carbon dioxyde, water and heat. The assumption of thermal and chemical local equilibrium was assumed in this work. However, for water, the two approaches (Local Equilibrium (LE) and Local Non-Equilibrium (LNE)) have been numerically tested. The results showed that when , the water mass exchange coefficient between gas and liquid phases, ranges from 1 to 4 s-1, the LE and LNE approaches are equivalent, with less computing time for the LNE case. Thus, for all future simulations, it was decided to adopt a LNE approach with a value of equal to 2.5 s-1. Tests were then carried out to show the consistency of the model. Given the large number of parameters, a sensitivity analysis was performed to determine the parameters that have the greatest impact on the process. This analysis showed that one must be cautious about the values used for the heat capacity, a coefficient of the sorption isotherm, many parameters from the biological model (ksH, krH, μmax, Xa,0, Tmax, Topt, Xi,0, Xrb,0) and porosity, because these are the parameters that affect mainly the process. Finally, the results provided by the model were compared with experimental results obtained at a pilot scale of 1/1000 using identical operating conditions. The composting experiments were carried out by Veolia Environment Research and Innovation with a mixture of household biowaste and green waste. The results on the 1/1000 scale pilot showed that the model is good at capturing the average change in temperature and concentration during the process. The temperature at the central point in particular is very well reproduced by the model. The same applies to the assessment of organic matter degradation. Simulations at industrial scale (1/1) have also been carried out. They have given promising results.
14

Complexité des dynamiques de jeux / Complexity of games dynamics

Zeitoun, Xavier 13 June 2013 (has links)
La th´eorie de la complexit´e permet de classifier les probl`emes en fonction de leur difficult´e. Le cadre classique dans lequel elle s’applique est celui d’un algorithme centralis´e qui dispose de toutes les informations. Avec l’essor des r´eseaux et des architectures d´ecentralis´ees, l’algo- rithmique distribu´ee a ´et´e ´etudi´ee. Dans un grand nombre de probl`emes, en optimisation et en ´economie, les d´ecisions et les calculs sont effectu´es par des agents ind´ependants qui suivent des objectifs diff´erents dont la r´ealisation d´epend des d´ecisions des autres agents. La th´eorie des jeux est un cadre naturel pour analyser les solutions de tels probl`emes. Elle propose des concepts de stabilit´e, le plus classique ´etant l’´equilibre de Nash.Une mani`ere naturelle de calculer de telles solutions est de “ faire r´eagir “ les agents ; si un agent voit quelles sont les d´ecisions des autres joueurs ou plus g´en´eralement un “ ´etat du jeu “, il peut d´ecider de changer sa d´ecision pour atteindre son objectif faisant ainsi ´evoluer l’´etat du jeu. On dit que ces algorithmes sont des “ dynamiques “.On sait que certaines dynamiques convergent vers un concept de solution. On s’int´eresse `a la vitesse de convergence des dynamiques. Certains concepts de solutions sont mˆeme complets pour certaines classes de complexit´e ce qui rend peu vraisemblable l’existence de dynamiques simples qui convergent rapidement vers ces solutions. On a utilis´e alors trois approches pour obtenir une convergence rapide : am´eliorer la dynamique (en utilisant par exemple des bits al´eatoires), restreindre la structure du probl`eme, et rechercher une solution approch´ee.Sur les jeux de congestion, on a ´etendu les r´esultats de convergence rapide vers un ´equilibre de Nash approch´e aux jeux n´egatifs. Cependant, on a montr´e que sur les jeux sans contrainte de signe, calculer un ´equilibre de Nash approch´e est PLS-complet. Sur les jeux d ’appariement, on a ´etudi´e la vitesse de dynamiques concurrentes lorsque les joueurs ont une information partielle param´etr´ee par un r´eseau social. En particulier, on a am´elior´e des dynamiques naturelles afin qu’elles atteignent un ´equilibre enO(log(n)) tours (avec n le nombre de joueurs). / Complexity theory allows to classify problems by their algorithmic hardness. The classical framework in which it applies is the one of a centralized algorithm that knows every informa- tion. With the development of networks and decentralized architectures, distributed dynamics was studied. In many problems, in optimization or economy, actions and computations are made by independant agents that don’t share the same objective whose realization depends on the actions of other agents. Game theory is a natural framework to study solutions of this kind of problem. It provides solution concepts such as the Nash equilibrium.A natural way to compute these solutions is to make the agents “react” ; if an agent sees the actions of the other player, or more generally the state of the game, he can decide to change his decision to reach his objective and updates the state of the game. We call �dynamics� this kind of algorithms.We know some dynamics converges to a stable solution. We are interested by the speed of convergence of these dynamics. Some solution concepts are even complete for some complexity classes which make unrealistic the existence of fast converging dynamics. We used three ways to obtain a fast convergence : improving dynamics (using random bits), finding simple subcases, and finding an approximate solution.We extent fast convergence results to an approximate Nash equilibria in negative congestion games. However, we proved that finding an approximate Nash equilibrium in a congestion games without sign restriction is PLS-complete. On matching game, we studied the speed of concurrent dynamics when players have partial information that depends on a social network. Especially, we improved natural dynamics for them to reach an equilibrium inO(log(n)) rounds (with n is the number of players).
15

Desenvolvimento de ferramentas computacionais de auxílio ao projeto de produtos utilizando óleos vegetais: equilíbrio de fases sólido-líquido. / Développement d\'un outil informatique d\'aide à la conception de produits issues d\'huiles végétales : équilibres entre phase solide-liquide.

Santos, Moisés Teles dos 18 November 2010 (has links)
A busca pelo desenvolvimento sustentável é um incentivo para o uso de recursos renováveis na indústria química. Óleos vegetais (misturas de triacilgliceróis) são matérias-primas que atendem a este critério e apresentam aplicações atuais e potenciais em diversos setores, tais como indústria de alimentos, lubrificantes, solventes, cosméticos, farmacêutica, dentre outros. Com o objetivo de auxiliar no desenvolvimento de produtos utilizando tais matérias-primas, o presente trabalho trata da modelagem do equilíbrio de fases em misturas de triacilgliceróis e do desenvolvimento de uma ferramenta computacional preditiva de propriedades. Os modelos usados são totalmente preditivos e consideram a existência de polimorfismo na fase sólida. O estado líquido e o polimorfo são considerados ideais. Os coeficientes de atividade das fases e (não-ideais) são estimados através do modelo de Margules, no qual os coeficientes de interação molecular binária são calculados de forma preditiva através de correlações com o grau de similaridade entre as cadeias de ácidos graxos no glicerol. Através da otimização direta da Energia Livre de Gibbs, é calculado o Conteúdo de Gordura Sólida, uma propriedade fundamental para funcionalidade de produtos baseados em óleos vegetais. Através do cálculo do equilíbrio de fases em diversas temperaturas são simuladas curvas de fusão e curvas de Calorimetria Exploratória Diferencial, permitindo uma avaliação computacional do efeito que alterações na estrutura molecular e composição apresentam nas propriedades de interesse. Os resultados calculados foram aplicados e comparados com dados experimentais em diversos sistemas: triacilgliceróis puros, misturas binárias e ternárias de triacilgliceróis, óleos vegetais naturais e misturas de diversos óleos vegetais (centenas de triacilgliceróis). Reações de interesterificação química, amplamente utilizadas para alterar a composição e propriedades de óleos e gorduras, foram igualmente simuladas e os resultados comparados com dados experimentais em diversas composições e temperaturas. A boa concordância entre os dados simulados e experimentais permite validar a ferramenta computacional e seu caráter preditivo a torna útil no estudo de misturas em temperaturas e composições ainda não avaliadas, de forma que os esforços experimentais (custo e tempo) possam ser direcionados às misturas mais promissoras. / Issues de ressources renouvelables, les huiles végétales (mélanges de triacylglycérols) sont des matières premières aux multiples applications dans divers secteurs, tels que lindustrie alimentaire, les lubrifiants, les solvants, les cosmétiques, la pharmacie, parmi autres. Pour faciliter le développement de produits utilisant de telles matières premières, le travail de thèse sintéresse à la modélisation de l\'équilibre de phases pour mélanges de triacylglycérols et la conception dun logiciel prédictif de leurs propriétés. Les modèles employés sont totalement prédictifs et tiennent compte des polymorphes. La phase liquide et le polymorphe sont supposés idéaux à linverse des polymorphes et dont les coefficients dactivités sont calculés à laide du modèle de Margules où les coefficients dinteractions binaires sont prédits à partir de la similarité des chaines dacide gras sur le squelette glycérol. L\'optimisation directe de l\'énergie libre de Gibbs permet de calculer la quantité de solide dans les graisses ; propriété fondamentale corrélée à de nombreuses fonctionnalités de produits basés sur des huiles végétales. Le calcul de l\'équilibre solide - liquide à plusieurs températures permet de simuler des courbes de fusion et des courbes de calorimétrie différentielle à balayage. Linfluence sur ces courbes de modifications dans la structure moléculaire et de la composition des mélanges est étudier pour plusieurs systèmes et comparés avec des données expérimentales: triacylglycérols purs, mélanges binaires et ternaires de triacylglycérols, huiles végétales naturelles et mélanges d\'huiles végétales impliquant des centaines de triacylglycérols. Des réactions d\'interestérification chimique, largement utilisées pour modifier la composition et propriétés d\'huiles et graisses, sont simulées et comparés avec des données expérimentales. Le bon accord avec les données expérimentales permet de valider l\'outil informatique et son caractère prédictif permet denvisager son utilisation pour des mélanges, températures et compositions encore non évaluées de façon à orienter les efforts expérimentaux vers les mélanges les plus prometteurs.
16

Méthodes de Contrôle Stochastique pour la Gestion Optimale de Portefeuille

Espinosa, Gilles-Edouard 09 June 2010 (has links) (PDF)
Cette thèse présente trois sujets de recherche indépendants, le dernier étant décliné sous forme de deux problèmes distincts. Ces différents sujets ont en commun d'appliquer des méthodes de contrôle stochastique à des problèmes de gestion optimale de portefeuille. Dans une première partie, nous nous intéressons à un modèle de gestion d'actifs prenant en compte des taxes sur les plus-values. Dans une seconde partie, nous étudions un problème de détection du maximum d'un processus de retour à la moyenne. Dans les troisième et quatrième parties, nous regardons un problème d'investissement optimal lorsque les agents se regardent les uns les autres. Enfin dans une cinquième partie, nous étudions une variante de cette problématique incluant un terme de pénalisation au lieu de contraintes sur les portefeuilles admissibles.
17

Déplacement d'un mannequin virtuel dans un environnement encombré : simulation de mouvement en intégrant les contraintes d'équilibre

Qiu, Zhaopeng 05 December 2012 (has links) (PDF)
Cette thèse a été réalisée en collaboration et cofinancement impliquant le LSI du CEA/LIST et le LBMC de l'IFSTTAR. L'objectif de thèse était d'étudier et de développer une méthode pour simuler les mouvements d'un mannequin virtuel (MV) dans un environnement encombré en s'appuyant sur des connaissances a priori. L'étude présente, dans un premier temps, des expériences de capture de mouvement (MoCap). Les données enregistrées ont été analysées afin de définir quelques principes sur les mouvements humains dans des environnements encombrés. Nous proposons ensuite un critère général d'équilibre et une marge de stabilité, sur la base d'un modèle simplifié du MV. Puis, nous présentons un framework hiérarchique pouvant générer et simuler des mouvements dynamiques du MV dans un environnement encombré en trois étapes : une trajectoire globale du centre de masse (CoM) est générée au niveau global afin d'assurer l'équilibre du MV durant son mouvement; puis au niveau local, les trajectoires des organes terminaux (OT, i.e. pieds, mains) et les postures sont générées localement sous des contraintes cinématiques et d'évitement de collisions; enfin au niveau de l'exécution, les trajectoires (CoM et OTs) et les postures sont utilisées comme références dans un contrôleur dynamique associé au MV. Enfin, ce framework est mis en œuvre dans un scenario d'entrée dans un véhicule pour évaluer ses performances et proposer des améliorations futures
18

Complexité des dynamiques de jeux

Zeitoun, Xavier 13 June 2013 (has links) (PDF)
La théorie de la complexité permet de classifier les problèmes en fonction de leur difficulté. Le cadre classique dans lequel elle s'applique est celui d'un algorithme centralisé qui dispose de toutes les informations. Avec l'essor des réseaux et des architectures décentralisées, l'algorithmique distribuée a été etudiee. Dans un grand nombre de problèmes, en optimisation et en économie, les décisions et les calculs sont effectu'es par des agents indépendants qui suivent des objectifs diff'erents dont la réalisation dépend des décisions des autres agents. La théorie des jeux est un cadre naturel pour analyser les solutions de tels problèmes. Elle propose des concepts de stabilité, le plus classique étant l'équilibre de Nash.Une manière naturelle de calculer de telles solutions est de " faire réagir " les agents ; si un agent voit quelles sont les décisions des autres joueurs ou plus généralement un " état du jeu ", il peut décider de changer sa décision pour atteindre son objectif faisant ainsi 'évoluer l'etat du jeu. On dit que ces algorithmes sont des " dynamiques " On sait que certaines dynamiques convergent vers un concept de solution. On s'intéresse 'a la vitesse de convergence des dynamiques. Certains concepts de solutions sont même complets pour certaines classes de complexité ce qui rend peu vraisemblable l'existence de dynamiques simples qui convergent rapidement vers ces solutions. On a utilisé alors trois approches pour obtenir une convergence rapide : améliorer la dynamique (en utilisant par exemple des bits aléatoires), restreindre la structure du problème, et rechercher une solution approchée.Sur les jeux de congestion, on a étendu les résultats de convergence rapide vers un équilibre de Nash approche aux jeux négatifs. Cependant, on a montré que sur les jeux sans contrainte de signe, calculer un équilibre de Nash approche est PLS-complet. Sur les jeux d'appariement, on a étudie la vitesse de dynamiques concurrentes lorsque les joueurs ont une information partielle paramétrée par un reseau social. En particulier, on a améliore des dynamiques naturelles afin qu'elles atteignent un équilibre enO(log(n)) tours (avec n le nombre de joueurs).
19

Balance properties on Christoffel words and applications / Propriétés d'équilibre sur les mots de Christoffel et applications.

Tarsissi, Lama 24 November 2017 (has links)
De nombreux chercheurs se sont intéressés à la Combinatoire des mots aussi bien d'un point de vue théorique que pratique. Pendant plus de $100$ ans de recherche, de nombreuses familles de mots ont été découvertes, certaines sont infinies et d'autres sont finies. Dans cette thèse, on s'intéresse aux mots de Christoffel. On aborde aussi les mots de Lyndon et les mots Strumians standards. Dans cette thèse, nous donnons de nombreuses propriétés sur les mots de Christoffel et on approfondit l'étude de la notion d'équilibre. Il est connu que les mots de Christoffel sont des mots équilibrés sur un alphabet binaire et sont formés par la discrétisation de segments de droite de pente rationnelle. Les mots de Christoffel sont aussi retrouvés dans l'étude de la synchronisation de k processus dirigé par k mots équilibrés. Pour k=2, on retombe sur les mots de Christoffel, tandis que pour k>2, la situation est plus compliquée et nous amène à la conjecture de Fraenkel qui est ouverte depuis plus de 40 ans. Comme c'est difficile d'atteindre cette conjecture, alors nous avons cherché à construire des outils qui nous aide à s'approcher de cette conjecture. On introduit ainsi la matrice d'équilibre B_w où w est un mot de Christoffel et la valeur maximale de cette matrice est l'ordre d'équilibre du mot binaire utilisé. Comme les mots de Christoffel sont équilibrés alors la valeur maximale dans ce cas là sera égale à 1 et chaque ligne de cette matrice sera formée des mots binaires. Cela nous pousse à tester de nouveau l'ordre d'équilibre de chaque mot obtenu et une nouvelle matrice est obtenue qui s'appelle matrice d'équilibre du second ordre . Cette matrice admet de plusieurs propriétés et de symétries et a une forme particulière comme on est capable de la partager en $9$ blocs où c'est suffisant de savoir 3 parmi eux pour construire le reste. Ces trois blocs correspondent à des matrices de mots de Christoffel qui se trouvent dans des niveaux plus proches de la racine de l'arbre des mots de Christoffel. La valeur maximale de cette nouvelle matrice U_w est appelée équilibre du second ordre. En regardant les chemins qui minimisent cette valeur tout au long de l'arbre, on remarque que le chemin suivi par les fractions obtenues du rapport des nombres consécutifs de la suite de Fibonacci, appelé chemin de Zig-zag est l'un des chemins minimaux. On retrouve ces chemins géométriquement sur le chemin de Christoffel en introduisant une nouvelle factorisation pour les mots de Christoffel appelée la factorisation standard symétrique. Nous avons, également, pu trouver une relation directe entre la matrice U_w et le mot de Christoffel initial sans passer par la matrice B_w et cela en étudiant l'ensemble des vecteurs abéliens associés. Tout ce travail nous a permis de réfléchir au sujet initial qui est la synchronisation de k mots équilibrés. Ainsi, pour le cas de 3 générateurs, nous avons pu étudier tous les cas possibles de la synchronisation et une discussion bien détaillée est faite en utilisant un nouvel élément appelé la graine qui est la première colonne de la matrice de synchronisation. La matrice du second ordre d'équilibre, avec toutes ses propriétés va être un bon outil pour étudier la synchronisation de k générateurs et cela constitut mon projet de recherche dans le futur. Nous avons aussi utilisé toutes nos connaissances autour des mots de Christoffel pour avancer dans la reconstruction de polyominoes convexes. Comme le contour d'un tel polyomino est formé des mots de Christoffel de pentes décroissantes, on a introduit un nouvel opérateur qui modifie ce chemin tout en gardant la décroissance des pentes c'est-à-dire en conservant la convexité qui est un premier pas vers la reconstruction. / Many researchers have been interested in studying Combinatorics on Words in theoretical andpractical points of view. Many families of words appeared during these years of research some ofthem are infinite and others are finite. In this thesis, we are interested in Christoffel words andwe introduce the Lyndon words and Standard sturmian words. We give numerous properties forthis type of words and we stress on the main one which is the order of balancedness. Well, itis known that Christoffel words are balanced words on two letters alphabet, where these wordsare exactly the discretization of line segments of rational slope. Christoffel words are consideredalso in the topic of synchronization of k process by a word on a k letter alphabet with a balanceproperty in each letter. For k = 2, we retrieve the usual Christoffel words. While for k > 2, thesituation is more complicated and lead to the Fraenkel’s conjecture that is an open conjecturefor more than 40 years. Since it is not easy to solve this conjecture, we were interested in findingsome tools that get us close to this conjecture. A balance matrix B w is introduced, where wis a Christoffel word, and the maximal value of this matrix is the order of balancedness of thebinary word. Since Christoffel words are one balanced then the maximal value obtained in thismatrix is equal to 1 and all the rows of this matrix is made of binary words. Testing again thebalancedness of these rows, a new matrix arises, called second order balance matrix. This matrixhas lot of characteristics and many symmetries and specially the way it is constructed since it ismade of 9 blocks where three of them belong to some particular Christoffel words appearing insome levels closer to the root of the Christoffel tree. The maximal value of this matrix is calledthe second order of balancedness for Christoffel words. From this matrix and this new orderof balancedness, we were able to show that the path followed by the fractions obtained fromthe ratio of the consecutive elements of Fibonacci sequence is a minimal path in the growth ofthis second order. In addition to that, these blocks are geometrically found on the Christoffelpath, by introducing a new factorization for the Christoffel words, called Symmetric standardfactorization. Similarly, we worked on finding a direct relation between the second order balancematrix U w and the initial Christoffel word without passing by the balance matrix B w but bystudying the set of factors of abelian vectors. All this work allow us to think about the initialtopic of research which is the synchronization of k balanced words. A complete study for the casek = 3 is given and we have discussed all the possible sub-cases for the synchronization by givingits seed, which is the starting column of the synchronized matrix. The second order balancematrix, with all its properties and decompositions form a good tool to study the synchronizationfor k generators that will be my future project of research. We have tried to use all the knowledgewe apply them on the reconstruction of digital convex polyominoes. Since the boundary wordof the digital convex polyominoe is made of Christoffel words with decreasing slopes. Hencewe introduce a split operator that respects the decreasing order of the slopes and therefore theconvexity is always conserved that is the first step toward the reconstruction.
20

L'impact du changement technique endogène sur les politiques climatiques / The impact of endogenous technical change on climate policies

Sassi, Olivier 21 November 2008 (has links)
Cette thèse porte sur la modélisation économique des politiques de réduction des émissions de gaz à effet de serre. Nous explorons, avec un modèle hybride, les conséquences du passage d'une économie du changement climatique sous tendue par une vision exogène du progrès technique à un cadre où il est induit par l'ensemble des signaux économiques. Les résultats soulignent les risques de bifurcation vers des trajectoires de référence très intensives en carbone. Les scénarios avec politiques climatiques démontrent l'existence d'un écart entre l'optimisme qui était attaché à l'induction du progrès technique par les politiques climatiques et les résultats que nous obtenons. Cette thèse propose enfin de concevoir les politiques climatiques plus comme une articulation de mesures spécifiques que comme le déploiement d'un unique signal prix. Nous démontrons qu'une mise en cohérence des politiques d'infrastructures de transport avec l'objectif climatique permet de réduire fortement son coût / This thesis concerns the economic modelling of the politics of reduction of greenhouse gas emissions. We explore, with a hybrid model, the consequences of the passage of an economy of the climate change under tightened by an exogenous vision of the technical progress at a frame where it is led by all the economic signals. The results underline the risks of fork towards very intensive reference trajectories in carbon. The scenarios with climatic politicsdemonstrate the existence of a gap enter the optimism which was attached to the induction of the technical progress by the climatic politics and the results which we obtain. This thesis suggests finally conceiving the climatic politics more as a joint of specific measures than as

Page generated in 0.0589 seconds