• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 133
  • 91
  • 53
  • Tagged with
  • 269
  • 147
  • 116
  • 101
  • 82
  • 60
  • 53
  • 45
  • 45
  • 40
  • 37
  • 36
  • 33
  • 33
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

DYNAMIQUES DE PARTICULES SUR RESEAUX AVEC CONTRAINTES CINETIQUES

Blondel, Oriane 03 December 2013 (has links) (PDF)
Dans cette thèse, je m'intéresse à des modèles stochastiques de particules sur réseaux qui suivent une dynamique de Glauber avec contraintes cinétiques (KCSM), et particulièrement aux modèles Est et FA-1f. Ces modèles sont apparus en physique pour l'étude des systèmes vitreux. Dans ce document se trouve d'abord un résumé en français de son contenu. Puis viennent trois chapitres présentant le cadre dans lequel mes travaux s'inscrivent et montrant à la fois leurs contributions et à quelles notions et techniques ils font appel. Je centre ma présentation des KCSM sur les objets et résultats qui ont joué un rôle direct dans mes recherches. Mes articles sont regroupés en annexe avec éventuellement quelques extensions retranchées pour la publication. Le premier chapitre est une introduction aux KCSM. Le deuxième chapitre présente des résultats hors équilibre pour les KCSM. J'expose d'abord des résultats de relaxation locale ; pour le modèle FA-1f il s'agit d'un travail commun avec N. Cancrini, F. Martinelli, C. Roberto et C. Toninelli. J'étudie ensuite la progression d'un front dans le modèle Est, et montre un théorème de forme ainsi qu'un résultat d'ergodicité pour le processus vu du front. Ce résultat repose sur la quantification de la relaxation locale du processus vu du front plutôt que sur des arguments classiques de sous-additivité. Le dernier chapitre explore des questions liées à la dynamique des KCSM à basse température (soit à haute densité). Je rappelle des résultats asymptotiques sur le trou spectral des modèles Est et FA-1f et propose quelques heuristiques et conjectures. Je m'intéresse ensuite au comportement à basse température du coefficient de diffusion d'un traceur dans un KCSM, dans l'optique de donner des réponses rigoureuses à des questions posées dans la littérature physique.
162

Étude multi-échelle de modèles probabilistes pour les systèmes excitables avec composante spatiale.

Genadot, Alexandre 04 November 2013 (has links) (PDF)
L'objet de cette thèse est l'étude mathématique de modèles probabilistes pour la génération et la propagation d'un potentiel d'action dans les neurones et plus généralement de modèles aléatoires pour les systèmes excitables. En effet, nous souhaitons étudier l'influence du bruit sur certains systèmes excitables multi-échelles possédant une composante spatiale, que ce soit le bruit contenu intrinsèquement dans le système ou le bruit provenant du milieu. Ci-dessous, nous décrivons d'abord le contenu mathématique de la thèse. Nous abordons ensuite la situation physiologique décrite par les modèles que nous considérons. Pour étudier le bruit intrinsèque, nous considérons des processus de Markov déterministes par morceaux à valeurs dans des espaces de Hilbert ("Hilbert-valued PDMP"). Nous nous sommes intéressés à l'aspect multi-échelles de ces processus et à leur comportement en temps long. Dans un premier temps, nous étudions le cas où la composante rapide est une composante discrète du PDMP. Nous démontrons un théorème limite lorsque la composante rapide est infiniment accélérée. Ainsi, nous obtenons la convergence d'une classe de "Hilbert-valued PDMP" contenant plusieurs échelles de temps vers des modèles dits moyennés qui sont, dans certains cas, aussi des PDMP. Nous étudions ensuite les fluctuations du modèle multi-échelles autour du modèle moyenné en montrant que celles-ci sont gaussiennes à travers la preuve d'un théorème de type "central limit". Dans un deuxième temps, nous abordons le cas où la composante rapide est elle-même un PDMP. Cela requiert de connaître la mesure invariante d'un PDMP à valeurs dans un espace de Hilbert. Nous montrons, sous certaines conditions, qu'il existe une unique mesure invariante et la convergence exponentielle du processus vers cette mesure. Pour des PDMP dits diagonaux, la mesure invariante est explicitée. Ces résultats nous permettent d'obtenir un théorème de moyennisation pour des PDMP "rapides" couplés à des chaînes de Markov à temps continu "lentes". Pour étudier le bruit externe, nous considérons des systèmes d'équations aux dérivées partielles stochastiques (EDPS) conduites par des bruits colorés. Sur des domaines bornés de $\mathbb{R}^2$ ou $\mathbb{R}^3$, nous menons l'analyse numérique d'un schéma de type différences finies en temps et éléments finis en espace. Pour une classe d'EDPS linéaires, nous étudions l'erreur de convergence forte de notre schéma. Nous prouvons que l'ordre de convergence forte est deux fois moindre que l'ordre de convergence faible. Par des simulations, nous montrons l'émergence de phénomènes d'ondes ré-entrantes dues à la présence du bruit dans des domaines de dimension deux pour les modèles de Barkley et Mitchell-Schaeffer.
163

Evaluation de la performance des Systèmes Instrumentés de Sécurité à paramètres imprécis

Mechri, Walid 11 April 2011 (has links) (PDF)
Dans ce travail, le problème d'imprécision dans l'évaluation de la performance des systèmes instrumentés de sécurité est traité. Deux méthodes d'évaluation sont appliquées à un SIS. La première méthode d'évaluation utilise les arbres de défaillances, la seconde se base sur les chaînes de Markov. L'imperfection des données concerne les paramètres caractéristiques des SIS, tels que le taux de défaillance et le facteur de défaillance de cause commune. Les probabilités élémentaires sont remplacées par des modèles mathématiques permettant aux experts fiabilistes d'exprimer leur incertitude dans l'énoncé des valeurs de probabilités de défaillances et d'autres paramètres des systèmes. Nous montrons comment l'imprécision sur la valeur de taux de défaillance induit des variations particulièrement significatives sur la qualification du niveau d'intégrité de sécurité du système. Ce travail peut avoir beaucoup d'intérêt pour le décideur de connaître l'imprécision sur les paramètres de performance des systèmes.
164

Graphes et marches aléatoires

De Loynes, Basile 06 July 2012 (has links) (PDF)
L'étude des marches aléatoires fait apparaître des connexions entre leurs propriétés algébriques, géométriques ou encore combinatoires et leurs propriétés stochastiques. Si les marches aléatoires sur les groupes - ou sur des espaces homogènes - fournissent beaucoup d'exemples, il serait appréciable d'obtenir de tels résultats de rigidité sur des structures algébriques plus faibles telles celles de semi-groupoide ou de groupoide. Dans cette thèse il est considéré un exemple de semi-groupoide et un exemple de groupoide, tous les deux sont définis a partir de sous-graphes contraints du graphe de Cayley d'un groupe - le premier graphe est dirige alors que le second ne l'est pas. Pour ce premier exemple, on précise un résultat de Campanino et Petritis (ils ont montre que la marche aléatoire simple était transiente pour cet exemple de graphe dirigé) en déterminant la frontière de Martin associée à cette marche et établissant sa trivialité Dans le second exemple apparaissant dans ce manuscrit, on considère des pavages quasi-périodiques de l'espace euclidien obtenus à l'aide de la méthode de coupe et projection. Nous considérons la marche aléatoire simple le long des arêtes des polytopes constituant le pavage, et nous répondons a la question du type de celle-ci, c'est-à-dire nous déterminons si elle est récurrente ou transiente. Nous montrons ce résultat en établissant des inégalités isopérimétriques Cette stratégie permet d'obtenir des estimées de la vitesse de décroissance du noyau de la chaleur, ce que n'aurait pas permis l'utilisation d'un critère de type Nash-Williams.
165

Probabilités et géométrie dans certains groupes de type fini

Mathéus, Frédéric 25 November 2011 (has links) (PDF)
Dans de nombreux phénomènes régis par le hasard, le résultat de l'observation provient de la combinaison aléatoire d'événements élémentaires : le gain d'un joueur au jeu de pile ou face est le résultat de parties successives, mélanger un jeu de cartes s'effectue en plusieurs battages consécutifs, l'enchevêtrement d'une molécule d'ADN dans une cellule est le produit, entre autres, de croisements successifs. Ces événements élémentaires ont la particularité d'être réversibles (gagner/perdre au pile ou face, croiser/décroiser des brins d'ADN) et l'aléa régissant leur combinaison possède une certaine indépendance (l'issue d'une partie de pile ou face n'a a priori aucune influence sur la suivante). Un modèle possible pour ces phénomènes consiste à considérer un groupe G, fini ou dénombrable, que l'on munit d'une mesure de probabilité μ. On effectue des tirages successifs d'éléments dans G avec les hypothèses suivantes : les tirages sont indépendants, et, pour chaque tirage, μ(g) est la probabilité de tirer l'élément g. Si g1, g2,...,gn est le résul- tat de n tirages, on forme le produit g1.g2. ... . gn. C'est, par définition, la position à l'instant n de la marche aléatoire sur G de loi μ, et la question est : que peut-on dire du comportement asymptotique de g1.g2. ... .gn lorsque n augmente in- définiment ? La marche aléatoire s'en va-t'elle à l'infini ? Si oui, dans quelle direction ? Et à quelle vitesse ? Mes travaux depuis 2003 sont consacrés, pour l'essentiel, à l'étude du comportement asymptotique des marches aléatoires dans trois familles de groupes infinis, non abéliens et de type fini : les produits libres de groupes finis, les groupes d'Artin diédraux, ainsi que certaines extensions des groupes libres. Ils sont le fruit de collaborations avec Jean Mairesse (CNRS, Paris VI) et François Gautero (Université de Nice). Dans le cas des produits libres de groupes finis, nous décrivons précisément la mesure harmonique pour les marches aléatoires au plus proche voisin dans ces groupes, ce qui permet de calculer la vitesse et l'entropie asymptotique. En particulier, ces quantités dépendent de façon analytique des coefficients de μ. Considérant l'inégalité fondamentale de Yves Guivarc'h entre vitesse, entropie et croissance, nous montrons que les générateurs canoniques des produits libres de groupes finis sont extrémaux au sens de Vershik. Les groupes d'Artin diédraux forment une classe de groupes d'Artin qui généralise le groupe de tresses à trois brins B3 et pour laquelle nous donnons une description précise des géodésiques. La connaissance de la vitesse de fuite des marches aléatoires au plus proche voisin dans le groupe B3 est un premier outil de mesure de la complexité asymptotique d'une tresse aléatoire. Dans ce cas, on montre que la vitesse dépend de façon lipschitzienne mais non différentiable de μ, faisant apparaître certaines transitions de phase. Enfin, en ce qui concerne les extensions du groupe libre, nous montrons que, dans certains cas (comprenant notamment les extensions cycliques) les fonctions μ-harmoniques bornées sont entièrement décrites via le bord du groupe libre sous-jacent. La preuve repose sur l'existence d'actions non triviales de ces groupes sur des arbres réels, couplée à des critères généraux sur les compactifications des groupes développés par Vadim Kaimanovich.
166

Surfaces modèles or-palladium étudiées in situ:<br />de l'ultra-vide aux conditions de réactions catalytiques

Bailly, Aude 12 December 2005 (has links) (PDF)
La compréhension des processus catalytiques nécessite de pouvoir corréler la structure à l'échelle atomique des catalyseurs en cours de réaction avec les propriétés macroscopiques observées. Ce travail de thèse s'inscrit dans ce cadre et l'outil principal est la diffraction X de surface. Une partie instrumentale concerne le développement d'un réacteur permettant la caractérisation in situ, par des techniques de diffusion des rayons X, de surfaces de catalyseurs modèles pendant une réaction chimique donnée (jusqu'à 1 bar). Les caractéristiques principales du réacteur ainsi que les premiers tests de validation sous faisceau X sont décrits.<br />En relation avec la problématique précédente, une partie plus fondamentale s'intéresse à l'étude de surfaces modèles bimétalliques à base d'or et de palladium avec d'une part, des dépôts d'or sur Pd(110) et d'autre part, les surfaces (111) et (110) d'un alliage massif Au30Pd70.<br />L'étude du système Au/Pd(110), en ultra-vide, a bénéficié de la complémentarité entre la diffraction X de surface et la microscopie à effet tunnel. Pour des épaisseurs de dépôt jusqu'à 2.5 MC et des températures de recuit atteignant 470°C, nous nous sommes intéressés à la description de la croissance, de la structure et de la morphologie des dépôts d'or.<br />L'étude menée sur l'alliage Au30Pd70 a confirmé l'intérêt de la diffraction X pour caractériser ces surfaces modèles au cours d'une réaction catalytique. La structure des faces (110) et (111) a d'abord été étudiée en ultra-vide, puis en présence de faibles pressions d'hydrogène et d'oxygène, jusqu'à 10-5 mbar. Le réacteur développé par notre équipe, a ensuite permis d'étudier l'hydrogénation sélective du 1,3-butadiène sur la face (111) sous faisceau X avec pour objectif de caractériser la surface à différents stades de la réaction. Un effet très important de l'hydrogène au niveau volumique ainsi qu'à la surface de l'alliage a été mis en évidence. Ces modifications sont discutées en relation avec les propriétés catalytiques.
167

Techniques non-additives d'estimation de la densité de probabilité

Nehme, Bilal 20 December 2010 (has links) (PDF)
Dans cette thèse, nous proposons une nouvelle méthode d'estimation non-paramétrique de la densité de probabilité. Cette méthode d'estimation imprécise combine la théorie de distribution de Schwartz et la théorie de possibilité. La méthode d'estimation que nous proposons est une extension de la méthode d'estimation à noyau. Cette extension est basée sur une nouvelle méthode de représentation de la notion de voisinage sur laquelle s'appuie l'estimation à noyau. Cette représentation porte le nom de noyau maxitif. L'estimation produite est de nature intervalliste. Elle est une enveloppe convexe d'un ensemble d'estimation de Parzen-Rosenblatt obtenus avec un ensemble de noyaux contenus dans une famille particulière. Nous étudions un certain nombre des propriétés théoriques liées à cette nouvelle méthode d'estimation. Parmi ces propriétés, nous montrons un certain type de convergence de cet estimateur. Nous montrons aussi une aptitude particulière de ce type d'estimation à quantifier l'erreur d'estimation liée à l'aspect aléatoire de la distribution des observations. Nous proposons un certain nombre d'algorithmes de faible complexité permettant de programmer facilement les mathodes que nous proposons.
168

Modélisation hiérarchique bayésienne des amas stellaires jeunes / Bayesian hierarchical modelling of young stellar clusters

Olivares Romero, Javier 19 October 2017 (has links)
Il semble maintenant établi que la majorité des étoiles se forment dans des amas (Carpenter 2000; Porras et al. 2003; Lada & Lada 2003). Comprendre l'origine et l'évolution des populations stellaires est donc l'un des plus grands défis de l'astrophysique moderne. Malheureusement, moins d'un dixième de ces amas restent gravitationellement liés au delà de quelques centaines de millions d'années (Lada & Lada 2003). L’étude des amas stellaires doit donc se faire avant leur dissolution dans la galaxie.Le projet Dynamical Analysis of Nearby Clusters (DANCe, Bouy et al. 2013), dont le travail fait partie, fournit le cadre scientifique pour l'analyse des amas proches et jeunes (NYC) dans le voisinage solaire. Les observations de l'amas ouvert des Pléiades par le projet DANCe offrent une opportunité parfaite pour le développement d'outils statistiques visant à analyser les premières phases de l'évolution des amas.L'outil statistique développé ici est un système intelligent probabiliste qui effectue une inférence bayésienne des paramètres régissant les fonctions de densité de probabilité (PDF) de la population de l'amas (PDFCP). Il a été testé avec les données photométriques et astrométriques des Pléiades du relevé DANCe. Pour éviter la subjectivité de ces choix des priors, le système intelligent les établit en utilisant l'approche hiérarchique bayésienne (BHM). Dans ce cas, les paramètres de ces distributions, qui sont également déduits des données, proviennent d'autres distributions de manière hiérarchique.Dans ce système intelligent BHM, les vraies valeurs du PDFCP sont spécifiées par des relations stochastiques et déterministes représentatives de notre connaissance des paramètres physiques de l'amas. Pour effectuer l'inférence paramétrique, la vraisemblance (compte tenu de ces valeurs réelles), tient en compte des propriétés de l'ensemble de données, en particulier son hétéroscédasticité et des objects avec des valeurs manquantes.Le BHM obtient les PDF postérieures des paramètres dans les PDFCP, en particulier celles des distributions spatiales, de mouvements propres et de luminosité, qui sont les objectifs scientifiques finaux du projet DANCe. Dans le BHM, chaque étoile du catalogue contribue aux PDF des paramètres de l'amas proportionnellement à sa probabilité d'appartenance. Ainsi, les PDFCP sont exempts de biais d'échantillonnage résultant de sélections tronquées au-dessus d'un seuil de probabilité défini plus ou moins arbitrairement.Comme produit additionnel, le BHM fournit également les PDF de la probabilité d'appartenance à l'amas pour chaque étoile du catalogue d'entrée, qui permettent d'identifier les membres probables de l'amas, et les contaminants probables du champ. La méthode a été testée avec succès sur des ensembles de données synthétiques (avec une aire sous la courbe ROC de 0,99), ce qui a permis d'estimer un taux de contamination pour les PDFCP de seulement 5,8 %.Ces nouvelles méthodes permettent d'obtenir et/ou de confirmer des résultats importants sur les propriétés astrophysiques de l'amas des Pléiades. Tout d'abord, le BHM a découvert 200 nouveaux candidats membres, qui représentent 10% de la population totale de l'amas. Les résultats sont en excellent accord (99,6% des 100 000 objets dans l'ensemble de données) avec les résultats précédents trouvés dans la littérature, ce qui fournit une validation externe importante de la méthode. Enfin, la distribution de masse des systèmes actuelle (PDSMD) est en général en bon accord avec les résultats précédents de Bouy et al. 2015, mais présente l'avantage inestimable d'avoir des incertitudes beaucoup plus robustes que celles des méthodes précédentes.Ainsi, en améliorant la modélisation de l'ensemble de données et en éliminant les restrictions inutiles ou les hypothèses simplificatrices, le nouveau système intelligent, développé et testé dans le présent travail, représente l'état de l'art pour l'analyse statistique des populations de NYC. / The origin and evolution of stellar populations is one of the greatest challenges in modern astrophysics. It is known that the majority of the stars has its origin in stellar clusters (Carpenter 2000; Porras et al. 2003; Lada & Lada 2003). However, only less than one tenth of these clusters remains bounded after the first few hundred million years (Lada & Lada 2003). Ergo, the understanding of the origin and evolution of stars demands meticulous analyses of stellar clusters in these crucial ages.The project Dynamical Analysis of Nearby Clusters (DANCe, Bouy et al. 2013), from which the present work is part of, provides the scientific framework for the analysis of Nearby Young Clusters (NYC) in the solar neighbourhood (< 500 pc). The DANCe carefully designed observations of the well known Pleiades cluster provide the perfect case study for the development and testing of statistical tools aiming at the analysis of the early phases of cluster evolution.The statistical tool developed here is a probabilistic intelligent system that performs Bayesian inference for the parameters governing the probability density functions (PDFs) of the cluster population (PDFCP). It has been benchmarked with the Pleiades photometric and astrometric data of the DANCe survey. As any Bayesian framework, it requires the setting up of priors. To avoid the subjectivity of these, the intelligent system establish them using the Bayesian Hierarchical Model (BHM) approach. In it, the parameters of prior distributions, which are also inferred from the data, are drawn from other distributions in a hierarchical way.In this BHM intelligent system, the true values of the PDFCP are specified by stochastic and deterministic relations representing the state of knowledge of the NYC. To perform the parametric inference, the likelihood of the data, given these true values, accounts for the properties of the data set, especially its heteroscedasticity and missing value objects. By properly accounting for these properties, the intelligent system: i) Increases the size of the data set, with respect to previous studies working exclusively on fully observed objects, and ii) Avoids biases associated to fully observed data sets, and restrictions to low-uncertainty objects (sigma-clipping procedures).The BHM returns the posterior PDFs of the parameters in the PDFCPs, particularly of the spatial, proper motions and luminosity distributions. In the BHM each object in the data set contributes to the PDFs of the parameters proportionally to its likelihood. Thus, the PDFCPs are free of biases resulting from typical high membership probability selections (sampling bias).As a by-product, the BHM also gives the PDFs of the cluster membership probability for each object in the data set. These PDFs together with an optimal probability classification threshold, which is obtained from synthetic data sets, allow the classification of objects into cluster and field populations. This by-product classifier shows excellent results when applied on synthetic data sets (with an area under the ROC curve of 0.99). From the analysis of synthetic data sets, the expected value of the contamination rate for the PDFCPs is 5.8 ± 0.2%.The following are the most important astrophysical results of the BHM applied tothe Pleiades cluster. First, used as a classifier, it finds ∼ 200 new candidate members, representing 10% new discoveries. Nevertheless, it shows outstanding agreement (99.6% of the 105 objects in the data set) with previous results from the literature. Second, the derived present day system mass distribution (PDSMD) is in general agreement with the previous results of Bouy et al. (2015).Thus, by better modelling the data set and eliminating unnecessary restrictions to it, the new intelligent system, developed and tested in the present work, represents the state of the art for the statistical analysis of NYC populations.
169

Management de l'incertitude pour les systèmes booléens complexes - Application à la maintenance préventive des avions / Uncertainty Management for Boolean Complex Systems Application to Preventive Maintenance of Aircrafts

Jacob, Christelle 25 February 2014 (has links)
Les analyses de sûreté de fonctionnement standards sont basées sur la représentation des événements redoutés par des arbres de défaillances, qui les décrivent à l'aide de combinaison logiques d'événements plus basiques (formules Booléennes complexes). Les analyses quantitatives se font avec l'hypothèse que les probabilités d'occurrence de ces événements basiques sont connues. Le but de cette thèse est d'étudier l'impact de l'incertitude épistémique sur les événements élémentaires, ainsi que la propagation de cette incertitude à de plus hauts niveaux. Le problème soulevé est comment calculer l'intervalle de probabilité dans lequel se trouvera l'occurrence d'un événement redouté, lorsque les événements basiques qui le décrivent ont eux-mêmes une probabilité imprécise. Lorsque l'indépendance stochastique est supposée, on se retrouve avec un problème NP-hard. Nous avons donc développé un algorithme permettant de calculer l'intervalle exact dans lequel se trouvera la probabilité d'occurrence d'un événement redouté, grâce à des techniques d'analyse par intervalles. Cet algorithme a également été étendu dans le cas où les probabilités des événements basiques évolueraient en fonction du temps. Nous avons également utilisé une approche par fonctions de croyance pour étudier le cas où l'indépendance stochastique des événements ne peut pas être démontrée : on suppose alors que les probabilités viennent de différentes sources d'information Indépendantes. Dans ce cas, les mesures de plausibilité et de nécessité d'une formule Booléenne complexe sont difficiles à calculer, néanmoins nous avons pu dégager des situations pratiques dans le cadre de leur utilisation pour les Arbres de défaillances pour lesquelles elles se prêtent aux calculs. / Standard approaches to reliability analysis relies on a probabilistic analysis of critical events based on fault tree representations. However in practice, and especially for preventive maintenance tasks, the probabilities ruling the occurrence of these events are seldom precisely known. The aim of this thesis is to study the impact of epistemic uncertainty on probabilities of elementary events such as failures over the probability of some higher level critical event. The fundamental problem addressed by the thesis is thus to compute the probability interval for a Boolean proposition representing a failure condition, given the probability intervals of atomic propositions. When the stochastic independence is assumed, we face a problem of interval analysis, which is NP-hard in general. We have provided an original algorithm that computes the output probability interval exactly, taking into account the monotonicity of the obtained function in terms of some variables so as to reduce the uncertainty. We have also considered the evolution of the probability interval with time, assuming parameters of the reliability function to be imprecisely known. Besides, taking advantage of the fact that a probability interval on a binary space can be modelled by a belief function, we have solved the same problem with a different assumption, namely information source independence. While the problem of computing the belief and plausibility of a Boolean proposition are even harder to compute, we have shown that in practical situations such as usual fault-trees, the additivity condition of probability theory is still valid, which simplifies this calculation. A prototype has been developed to compute the probability interval for a complex Boolean proposition.
170

Approche novatrice pour la conception et l’exploitation d’avions écologiques / Innovative and integrated approach for environmentally efficient aircraft design and operations

Prigent, Sylvain 17 September 2015 (has links)
L'objectif de ce travail de thèse est de poser, d'analyser et de résoudre le problème multidisciplinaire et multi-objectif de la conception d'avions plus écologiques et plus économiques. Dans ce but, les principaux drivers de l'optimisation des performances d'un avion seront: la géométrie de l'avion, son moteur ainsi que son profil de mission, autrement dit sa trajectoire. Les objectifs à minimiser considérés sont la consommation de carburant, l'impact climatique et le coût d'opération de l'avion. L'étude sera axée sur la stratégie de recherche de compromis entre ces objectifs, afin d'identifier les configurations d'avions optimales selon le critère sélectionné et de proposer une analyse de ces résultats. L'incertitude présente au niveau des modèles utilisés sera prise en compte par des méthodes rigoureusement sélectionnées. Une configuration d'avion hybride est proposée pour atteindre l'objectif de réduction d'impact climatique. / The objective of this PhD work is to pose, investigate, and solve the highly multidisciplinary and multiobjective problem of environmentally efficient aircraft design and operation. In this purpose, the main three drivers for optimizing the environmental performance of an aircraft are the airframe, the engine, and the mission profiles. The figures of merit, which will be considered for optimization, are fuel burn, local emissions, global emissions, and climate impact (noise excluded). The study will be focused on finding efficient compromise strategies and identifying the most powerful design architectures and design driver combinations for improvement of environmental performances. The modeling uncertainty will be considered thanks to rigorously selected methods. A hybrid aircraft configuration is proposed to reach the climatic impact reduction objective.

Page generated in 0.0533 seconds