Spelling suggestions: "subject:"L'incertitudes"" "subject:"L'l'incertitude""
11 |
The Exploitation of Economic Leverage in Conflict Protraction :modes and aims. The cases of South Ossetia and Abkhazia (1992-2008)Prelz Oltramonti, Giulia 20 October 2015 (has links)
This thesis focuses on a key component of societal relations, namely the creation and exploitation of economic leverage. It explores how, in the context of protracted territorial conflicts, relevant actors craft it and use it. Finally, it examines to what ends economic leverage is exploited, if at all. Generally, economic leverage can translate into a considerable form of power. This thesis scrutinizes how this occurs in more specific contexts post-ceasefire agreement conflict protraction, and what the finalities of the actors concerned are. It does so by focusing on a number of relevant actors, and by treating conflict protraction as the specific context in which economic power is exploited. Two cases are examined, namely those of the South Ossetian and the Abkhaz protracted conflicts. This thesis does not focus on the historical conditions and political events that caused the separatist conflicts in Georgia, but on their consequences and on the periods following the ceasefire agreements (signed respectively in 1992 and 1993), which came to a close with the Russo-Georgian war over South Ossetia in August 2008. / Doctorat en Sciences politiques et sociales / info:eu-repo/semantics/nonPublished
|
12 |
Inconsistency and uncertainty handling in lightweight description logics / Dynamique des croyances et gestion de l'incertitude dans des logiques de description légères DL-LiteBouraoui, Zied 05 June 2015 (has links)
Cette thèse étudie la dynamique des croyances et la gestion de l’incertitude dans DL-Lite, une des plus importantes familles des logiques de description légères. La première partie de la thèse porte sur la gestion de l’incertitude dans DL-Lite. En premier lieu, nous avons proposé une extension des principaux fragments de DL-Lite pour faire face à l’incertitude associée aux axiomes en utilisant le cadre de la théorie des possibilités. Cette extension est réalisée sans engendrer des coûts calculatoires supplémentaires. Nous avons étudié ensuite la révision des bases DL-Lite possibilistes en présence d’une nouvelle information. Enfin, nous avons proposé un opérateur de fusion lorsque les assertions de ABoxsont fournies par plusieurs sources d’information ayant différents niveaux de priorité. La deuxième partie de la thèse traite le problème de la gestion d’incohérence dans les bases de connaissances DL-Lite. Nous avons étudié, tout d’abord, comment raisonner à partir d’une base DL-Lite standard avec des ABox multiples en introduisant les notions de modificateurs et de stratégies d’inférence. La combinaison des modificateurs et de stratégies d’inférence fournit une liste exhaustive des principales techniques de gestion de l’incohérence. Nous avons proposé ensuite une approche, basée sur un critère de cardinalité, de sélection des réparations, et nous avons identifié les stratégies appropriées pour la gestion de l’incohérence pour les bases DL-Lite stratifiées. Enfin, nous avons effectué une analyse comparative, suivie par des étudesexpérimentales, des différentes techniques de gestion d’incohérence proposées. Finalement, un outil de représentation et de raisonnement à partir des bases DL-Lite possibiliste est réalisé. / This thesis investigates the dynamics of beliefs and uncertainty management in DL-Lite, one of the most important lightweight description logics. The first part of the thesis concerns the problem of handling uncertainty in DL-Lite. First, we propose an extension of the main fragments of DL-Lite to deal with the uncertainty associated with axioms using a possibility theory framework without additional extra computational costs. We then study the revision of possibilistic DL-Lite bases when a new piece of information is available. Lastly, we propose a min-based assertional merging operator when assertions of ABox are provided by several sources of information having different levels of priority. The second partof the thesis concerns the problem of inconsistency handling in flat and prioritized DL-Lite knowledge bases. We first propose how to reason from a flat DL-Lite knowledge base, with a multiple ABox, which can be either issued from multiple information sources or resulted from revising DL-Lite knowledge bases. This is done by introducing the notions of modifiers and inference strategies. The combination of modifiers plus inference strategies can be mapped out in order to provide a principled and exhaustive list of techniques for inconsistency management. We then give an approach based on selecting multiple repairs using a cardinality-based criterion, and we identified suitable strategies for handling inconsistencyin the prioritized case. Lastly, we perform a comparative analysis, followed by experimental studies, of the proposed inconsistency handling techniques. A tool for representing and reasoning in possibilistic DL-Lite framework is implemented.
|
13 |
Quantification of the parametric uncertainty in the specific absorption rate calculation of a mobile phone / Quantification de l'incertitude paramétrique dans le calcul de débit d'absorption spécifique d'un téléphone mobileCheng, Xi 15 December 2015 (has links)
La thèse porte sur la quantification d'incertitude de paramètres (Uncertainty Quantification ou UQ) dans le calcul du débit d'absorption spécifique (Specific Absorption Rate ou SAR) de téléphones mobiles. L'impact de l'incertitude, ainsi le manque de connaissances détaillées sur les propriétés électriques des matériaux, les caractéristiques géométriques du système, etc., dans le calcul SAR est quantifiée par trois méthodes de calcul efficaces dites non-intrusives : Transformation non parfumée (Unscented Transformation ou UT), collocation stochastique (Stochastic Collocation ou SC) et polynômes de chaos non-intrusifs (Non-Intrusive Polynomial Chaos ou NIPC).Ces méthodes sont en effet appelées méthodes non intrusives puisque le processus de simulation est tout simplement considéré comme une boîte noire sans que ne soit modifié le code du solveur de simulation. Leurs performances pour les cas de une et deux variables aléatoires sont analysées dans le présent travail. En contraste avec le procédé d'analyse d'incertitude traditionnel (la méthode de Monte Carlo ou MCM), le temps de calcul devient acceptable. Afin de simplifier la procédure UQ pour le cas de plusieurs entrées incertaines, il est démontré que des incertitudes peuvent être combinées de manière à évaluer l'incertitude sur les paramètres de la sortie.Combiner des incertitudes est une approche généralement utilisée dans le domaine des mesures, et ici, il est utilisé dans le calcul du SAR pour la situation complexe. Une des étapes nécessaires dans le cadre de l'analyse d'incertitude est l'analyse de sensibilité (Sensitivity Analysis ou SA), qui vise à quantifier l'importance relative de chaque paramètre d'entrée incertain par rapport à l'incertitude de la sortie. La méthode reposant sur le calcul des indices de sensibilité de Sobol est employée, ces indices étant évalués par un développement en polynômes de chaos, au lieu d'utiliser la méthode de Monte-Carlo dans le calcul SAR. Les résultats des investigations sont présentés et discutés.Afin de faciliter la lecture, des notions élémentaires de débit d'absorption spécifique, de modélisation, d'incertitude dans la modélisation, de théorie des probabilités, et de calcul SAR par l'un des solveurs de simulation sont proposés dans l'Introduction (chapitre 1). Puis l'usage des méthodes non-intrusives UQ telles que UT, SC et NIPC, et l'application de la méthode des indices de Sobol pour l'analyse de sensibilité dans le calcul SAR est présentée dans les chapitres 2 et 3. Dans le chapitre 4, une autre approche d'utilisation des polynômes de chaos est fournie, et elle est utilisée dans le domaine temporel par l'intermédiaire d'un code de différences finies (Finite Difference-Time Domain ou FD-TD). Puisque le code FD-TD dans le solveur de simulation peut en effet être modifié, c'est le développement en polynômes de chaos intrusifs, étudié en détail par un certain nombre de scientifiques déjà, qui est considéré. Dans le chapitre 5, les conclusions et un aperçu des travaux futurs sont fournis. / This thesis focuses on parameter uncertainty quantification (UQ) in specific absorptionrate (SAR) calculation using a computer-aided design (CAD) mobile phone model.The impact of uncertainty, e.g., lack of detailed knowledge about material electricalproperties, system geometrical features, etc., in SAR calculation is quantified by threecomputationally efficient non-intrusive UQ methods: unscented transformation (UT),stochastic collocation (SC) and non-intrusive polynomial chaos (NIPC). They are callednon-intrusive methods because the simulation process is simply considered as a blackboxwithout changing the code of the simulation solver. Their performances for thecases of one and two random variables are analysed. In contrast to the traditionaluncertainty analysis method: Monte Carlo method, the time of the calculation becomesacceptable. To simplify the UQ procedure for the case of multiple uncertain inputs, it isdemonstrated that uncertainties can be combined to evaluate the parameter uncertaintyof the output. Combining uncertainties is an approach generally used in the field ofmeasurement, in this thesis, it is used in SAR calculations in the complex situation. Oneof the necessary steps in the framework of uncertainty analysis is sensitivity analysis (SA)which aims at quantifying the relative importance of each uncertain input parameterwith respect to the uncertainty of the output. Polynomial chaos (PC) based Sobol’indices method whose SA indices are evaluated by PC expansion instead of Monte Carlomethod is used in SAR calculation. The results of the investigations are presented anddiscussed.In order to make the reading easier, elementary notions of SAR, modelling, uncertaintyin modelling, and probability theory are given in introduction (chapter 1). Thenthe main content of this thesis are presented in chapter 2 and chapter 3. In chapter 4,another approach to use PC expansion is given, and it is used in the finite-differencetime-domain (FDTD) code. Since the FDTD code in the simulation solver should bechanged, it is so-called intrusive PC expansion. Intrusive method already investigatedin details in other people’s thesis. In chapter 5, conclusions and future work are given.
|
14 |
Variational aleatoric uncertainty calibration in neural regressionBhatt, Dhaivat 07 1900 (has links)
Des mesures de confiance calibrées et fiables sont un prérequis pour la plupart des systèmes de perception robotique car elles sont nécessaires aux modules de fusion de capteurs et de planification qui interviennent plus en aval. Cela est particulièrement vrai dans le cas d’applications où la sécurité est essentielle, comme les voitures à conduite autonome. Dans le contexte de l’apprentissage profond, l’incertitude prédictive est classée en incertitude épistémique et incertitude aléatoire. Il existe également une incertitude distributionnelle associée aux données hors distribution. L’incertitude aléatoire représente l’ambiguïté inhérente aux données d’entrée et est généralement irréductible par nature. Plusieurs méthodes existent pour estimer cette incertitude au moyen de structures de réseau modifiées ou de fonctions de perte. Cependant, en général, ces méthodes manquent de calibration, ce qui signifie que les incertitudes estimées ne représentent pas fidèlement l’incertitude des données empiriques. Les approches actuelles pour calibrer l’incertitude aléatoire nécessitent soit un "ensemble de données de calibration", soit de modifier les paramètres du modèle après l’apprentissage. De plus, de nombreuses approches ajoutent des opérations supplémentaires lors de l’inférence. Pour pallier à ces problèmes, nous proposons une méthode simple et efficace d’entraînement d’un régresseur neuronal calibré, conçue à partir des premiers principes de la calibration. Notre idée maîtresse est que la calibration ne peut être réalisée qu’en imposant des contraintes sur plusieurs exemples, comme ceux d’un mini-batch, contrairement aux approches existantes qui n’imposent des contraintes que sur la base d’un échantillon. En obligeant la distribution des sorties du régresseur neuronal (la distribution de la proposition) à ressembler à unedistribution cible en minimisant une divergence f , nous obtenons des modèles nettement mieuxcalibrés par rapport aux approches précédentes. Notre approche, f -Cal, est simple à mettre en œuvre ou à ajouter aux modèles existants et surpasse les méthodes de calibration existantes dansles tâches réelles à grande échelle de détection d’objets et d’estimation de la profondeur. f -Cal peut être mise en œuvre en 10-15 lignes de code PyTorch et peut être intégrée à n’importe quel régresseur neuronal probabiliste, de façon peu invasive. Nous explorons également l’estimation de l’incertitude distributionnelle pour la détection d’objets, et employons des méthodes conçues pour les systèmes de classification. Nous établissons un problème d’arrière-plan hors distribution qui entrave l’applicabilité des méthodes d’incertitude distributionnelle dans la détection d’objets. / Calibrated and reliable confidence measures are a prerequisite for most robotics perception systems since they are needed by sensor fusion and planning components downstream. This is particularly true in the case of safety-critical applications such as self-driving cars. In the context of deep learning, the sources of predictive uncertainty are categorized into epistemic and aleatoric uncertainty. There is also distributional uncertainty associated with out of distribution data. Epistemic uncertainty, also known as knowledge uncertainty, arises because of noise in the model structure and parameters, and can be reduced with more labeled data. Aleatoric uncertainty represents the inherent ambiguity in the input data and is generally irreducible in nature. Several methods exist for estimating aleatoric uncertainty through modified network structures or loss functions. However, in general, these methods lack calibration, meaning that the estimated uncertainties do not represent the empirical data uncertainty accurately. Current approaches to calibrate aleatoric uncertainty either require a held out calibration dataset or to modify the model parameters post-training. Moreover, many approaches add extra computation during inference time. To alleviate these issues, this thesis proposes a simple and effective method for training a calibrated neural regressor, designed from the first principles of calibration. Our key insight is that calibration can be achieved by imposing constraints across multiple examples, such as those in a mini-batch, as opposed to existing approaches that only impose constraints on a per-sample basis. By enforcing the distribution of outputs of the neural regressor (the proposal distribution) to resemble a target distribution by minimizing an f-divergence, we obtain significantly better-calibrated models compared to prior approaches. Our approach, f-Cal, is simple to implement or add to existing models and outperforms existing calibration methods on the large-scale real-world tasks of object detection and depth estimation. f-Cal can be implemented in 10-15 lines of PyTorch code, and can be integrated with any probabilistic neural regressor in a minimally invasive way. This thesis also explores the estimation of distributional uncertainty for object detection, and employ methods designed for classification setups. In particular, we attempt to detect out of distribution (OOD) samples, examples which are not part of training data distribution. I establish a background-OOD problem which hampers applicability of distributional uncertainty methods in object detection specifically.
|
15 |
Relations entre des composantes cognitives anxieuses et l'épuisement professionnelLegault, Lysiane January 2010 (has links)
Le but de la présente thèse a été d'approfondir la compréhension de la relation entre l'anxiété et l'épuisement professionnel en vérifiant la présence de liens entre d'une part, des composantes cognitives anxieuses, soient la tendance à s'inquiéter, l'intolérance à l'incertitude, l'attitude négative face aux problèmes, le perfectionnisme et le sentiment de responsabilité excessive et, d'autre part, les dimensions d'épuisement professionnel, soient l'exténuation, le cynisme et le sentiment d'inefficacité professionnelle. Également, le lien entre la présence d'un TAG et le niveau d'épuisement professionnel a été vérifié. Des corrélations partielles, des analyses de régressions et des analyses de covariance univariées amènent à confirmer partiellement les hypothèses de l'étude en montrant que chacune des composantes cognitives anxieuses s'avère significativement reliée à au moins une composante de l'épuisement professionnel. De plus, les gens présentant un TAG démontrent un niveau d'exténuation significativement plus élevé que les gens ne présentant pas les critères du trouble. Ce résultat vient en appui au modèle du TAG selon lequel les inquiétudes et l'anxiété pourraient précéder l'épuisement.
|
16 |
Lien entre une taxonomie des évènements potentiellement traumatiques et le trouble d'anxiété généraliséeBissonnette, Nathalie January 2015 (has links)
Des études antérieures sur des évènements tels le « World Trade Center », des accidents automobiles ou bien des désastres naturels, ont reconnu le lien entre l'expérience d'évènement potentiellement traumatique (EPT) et le développement et maintien des symptômes du Trouble d'Anxiété Généralisée (TAG). Peu d'études ont tenté de mieux définir et discriminer ce lien en utilisant une taxonomie des EPT et la présence ou l'absence du TAG (inquiétudes, symptômes somatiques) ainsi que les vulnérabilités cognitives associées au TAG (intolérance à l'incertitude, évitement cognitif et attitude négative face aux problèmes). Cette étude a utilisé une taxonomie basée sur trois critères: EPT de type interpersonnel, EPT de type accident et EPT de type catastrophe naturelle pour déterminer la nature du lien entre différents types d'EPT et le TAG, postulant l'existence de liens significatifs entre eux. Un échantillon de 419 participants a été recruté parmi une population adulte dans trois établissements scolaires. Les participants ont répondu à des questionnaires. Des analyses de variance (ANOVA) ainsi que des tests de khi carré, ont été faits pour apporter des réponses aux questions de recherche de la thèse. Les résultats confirment une relation significative entre une taxonomie des traumatismes, les manifestations du TAG et les vulnérabilités cognitives. L'exposition à un cumul d'accidents est impliquée dans l'étiologie du TAG. Les résultats suggèrent que l'exposition à la violence interpersonnelle induit davantage de symptômes somatiques et que ce type d'exposition favorise la tendance à s'inquiéter exagérément. La violence psychologique, par un effet de cumul, augmente également la tendance à s'inquiéter. L'intolérance à l'incertitude a des liens avec l'exposition à des traumatismes interpersonnels et des liens avec l'effet cumulatif d'accidents. L'attitude négative face aux problèmes est en lien avec les traumatismes de violence physique ou sexuelle. L'évitement cognitif est en lien avec les traumatismes interpersonnels, avec la sous-catégorie de violence sexuelle et avec les catastrophes. Il semble que la violence sexuelle ait un grand impact sur les vulnérabilités cognitives dans le TAG et sur la tendance à s'inquiéter.
|
17 |
Optimisation Multi-échelon du stock avec incertitude sur l'approvisionnement et la demande / Multi-echelon Inventory optimization under supply and demand uncertaintyFiroozi, Mehdi 03 December 2018 (has links)
Des stratégies d'approvisionnement pérennes sont nécessaires pour les gestionnaires de la chaîne d'approvisionnement afin de faire face aux incertitudes d’approvisionnement et de demande. La diminution des niveaux de service et l'augmentation simultanée des coûts de stockage sont les impacts les plus importants de ces incertitudes. Les perturbations peuvent être causées par des discontinuités de l’approvisionnement, de l'instabilité politique, des catastrophes naturelles et des grèves des employés. Elles pourraient avoir un effet important sur la performance de la chaîne d'approvisionnement. Pour faire face à de telles perturbations, les modèles d'optimisation des stocks doivent être adaptés pour couvrir une structure de réseau multi-échelons et envisager des stratégies d'approvisionnement alternatives telles que le transport latéral (lateral transshipment) et plusieurs sources d’approvisionnement. Dans ce travail, une approche de modélisation basée sur des scénarios est proposée pour résoudre un problème d'optimisation multi-échelons des stocks. En prenant en compte la demande stochastique et les incertitudes sur les capacités de production, le modèle minimise le coût opérationnel total (coûts de stockage, de transport et de retard) tout en optimisant la gestion des stocks et les flux des marchandises. Afin de faire face aux incertitudes, plusieurs échantillons de scénarios sont générés par Monte Carlo et les exemples correspondants d'approximation (SAA) des programmes sont résolus pour obtenir une politique de réponse adéquate au système d'inventaire en cas de perturbations. De nombreuses expériences numériques sont menées et les résultats permettent d'acquérir des connaissances sur l'impact des perturbations sur le coût total du réseau et le niveau de service. / Supply Chain Management (SCM) is an important part of most companies and applying the appropriate strategy is essential for managers in competitive industries and markets. In this context, Inventory Management plays a crucial role. Different inventory systems are widely used in practice. However, it is fundamentally difficult to optimize, especially in multi-echelon networks. A key challenge in managing inventory is dealing with uncertainties in supply and demand. The simultaneous decrease of customer service and increase of inventory-related costs are the most significant effects of such uncertainties. To deal with this pattern, supply chain managers need to establish more effective and more flexible sourcing and distribution strategies. In this thesis, a “framework to optimize inventory decisions in multi-echelon distribution networks under supply and demand uncertainty” is proposed. In the first part of the research work, multi-echelon distribution systems, subject to demand uncertainty, are studied. Such distribution systems are one of the most challenging inventory network topologies to analyze. The optimal inventory and sourcing policies for these systems are not yet unknown. We consider a basic type of distribution network with a single family product through a periodic review setting. Based on this property, a two-stage mixed integer programming approach is proposed to find the optimal inventory-related decisions considering the non-stationary demand pattern. The model, which is based on a Distribution Requirements Planning (DRP) approach, minimizes the expected total cost composed of the fixed allocation, inventory holding, procurement, transportation, and back-ordering costs. Alternative inventory optimization models, including the lateral transshipment strategy and multiple sourcing, are thus built, and the corresponding stochastic programs are solved using the sample average approximation method. Several problem instances are generated to validate the applicability of the model and to evaluate the benefit of lateral transshipments and multiple sourcing in reducing the expected total costs of the distribution network. An empirical investigation is also conducted to validate the numerical findings by using the case of a major French retailer’s distribution network. The second part of the research work is focused on the structure of the optimal inventory policy which is investigated under supply disruptions. A two-stage stochastic model is proposed to solve a capacitated multi-echelon inventory optimization problem considering a stochastic demand as well as uncertain throughput capacity and possible inventory losses, due to disruptions. The model minimizes the total cost, composed of fixed allocation cost, inventory holding, transportation and backordering costs by optimizing inventory policy and flow decisions. The inventory is controlled according to a reorder point order-up-to-level (s, S) policy. In order to deal with the uncertainties, several scenario samples are generated by Monte Carlo method. Corresponding sample average approximations programs are solved to obtain the adequate response policy to the inventory system under disruptions. In addition, extensive numerical experiments are conducted. The results enable insights to be gained into the impact of disruptions on the network total cost and service level. In both parts of the research, insights are offered which could be valuable for practitioners. Further research possibilities are also provided.
|
18 |
Méthodes optimistes d’apprentissage actif pour la classification / Optimistic Methods in Active Learning for ClassificationCollet, Timothé 11 July 2016 (has links)
La classification se base sur un jeu de données étiquetées par un expert. Plus le jeu de données est grand, meilleure est la performance de classification. Pourtant, la requête à un expert peut parfois être coûteuse. Le but de l'apprentissage actif est alors de minimiser le nombre de requêtes à l'expert. La collection des données non-étiquetées reste aisée cependant et illimitée, il est donc nécessaire de faire un choix sur les données à annoter, l'idée est alors de profiter de ce choix pour maximiser les performances en ne lui fournissant que les données les plus informatives à étiqueter. Pourtant, le niveau d'informativité de chaque donnée ne peut pas être calculé exactement et ne peut être estimé qu'à une incertitude près. Améliorer la précision de l'estimation nécessite d'annoter de nouvelles données. Il y a donc un dilemme entre utiliser le budget d'annotations disponible pour améliorer la performance du classifieur selon l'estimation actuelle du critère ou pour améliorer la précision sur le critère. Ce dilemme est bien connu dans le cadre de l'optimisation en budget fini sous le nom de dilemme entre exploration et exploitation. Les solutions usuelles pour résoudre ce dilemme dans ce contexte font usage du principe d'Optimisme Face à l'Incertitude. Dans cette thèse, nous montrons donc qu'il est possible d'adapter ce principe au problème d'apprentissage actif pour la classification. Pour cela, plusieurs algorithmes ont été être développés pour des classifieurs de complexité croissante, chacun utilisant le principe de l'Optimisme Face à l'Incertitude, et leurs résultats ont été évalués empiriquement / A Classification problem makes use of a training set consisting of data labeled by an oracle. The larger the training set, the best the performance. However, requesting the oracle may be costly. The goal of Active Learning is thus to minimize the number of requests to the oracle while achieving the best performance. To do so, the data that are presented to the oracle must be carefully selected among a large number of unlabeled instances acquired at no cost. However, the true profitability of labeling a particular instance may not be known perfectly. It can therefore be estimated along with a measure of uncertainty. To Increase the precision on the estimate, we need to label more data. Thus, there is a dilemma between labeling data in order to increase the performance of the classifier or to better know how to select data. This dilemma is well studied in the context of finite budget optimization under the name of exploration versus exploitation dilemma. The most famous solutions make use of the principle of Optimism in the Face of Uncertainty. In this thesis, we show that it is possible to adapt this principle to the active learning problem for classification. Several algorithms have been developed for classifiers of increasing complexity, each one of them using the principle of Optimism in the Face of Uncertainty, and their performances have been empirically evaluated
|
19 |
Compressible single and dual stream jet stability and adjoint-based sensitivity analysis in relationship with aeroacoustics / Stabilité d'un jet double flux et analyse de sensibilité sur la base d'un modèle adjoint en relation avec l'aeroacousticAnsaldi, Tobias 14 October 2016 (has links)
La thèse est relative à la compréhension de la physique et au contrôle des émissions acoustiques dans les jets turbulents simples et double-flux. La génération du bruit est associé à des structures turbulentes de grandes tailles caractéristiques et à la turbulence de petites échelles. i Il est maintenant admis que les structures de grandes échelles sont des instabilités se propageant dans un champ moyen turbulent. Ici elle sont analysées sur la base de la théorie linéaire non locale appelées PSE pour Parabolized Stability Equations. Ces instabilités inflexionnelles associées à la présence de couche de cisaillement sont des modes de Kelvin-Helmhotz. Dans le cas du jet sous détentu des cellules de choc apparaissent et influencent très fortement les taux d'amplification et fréquences des modes propres. Divers écoulements sont investigués, de faible nombre de Mach au jet double-flux supersonique dont le champ moyen provient de simulation LES (Cerfacs). Le champ acoustique lointain est déterminé par l'analogie de Ffowcs-Williams-Hawkings. Ensuite une étude de sensibilité originales des instabilités et du bruits par rapport à divers forage locaux est produite sur la base deséquations de stabilité PSE adjointes. Les fortes sensibilités apparaissent dans les couches de cisaillements et aussi dans une moindre mesure autour des cellules de chocs. Les sensibilités sont plus complexes pour le jet double flux et dépendent du mode instable étudié lié soit au jet primaire soit au jet secondaire. Les sensibilités maximales se trouvent auvoisinage de la sortie de la tuyère et à la limite ou à l’extérieur du cne potentiel. En complément une étudesur le jet simple flux permet de mettre en rapport les approches de quantification d'incertitude et la sensibilité calculée par des équations adjointes. Les résultats de sensibilité vont permettre de contribuer à proposer des stratégies de contrôle aero-acoustique dans les jets de turboréacteurs. / This thesis leads to a better knowledge of the physic and of the control of acoustic radiation in turbulent single and dual-stream jets.It is known that jet noise is produced by the turbulence present in the jet that can be separated in large coherent structures and fine structures. It is also concluded that these large-scale coherent structures are the instability waves of the jet and can be modelled as the flow field generated by the evolution of instability waves in a given turbulent jet. The growth rate and the streamwise wavenumber of a disturbance with a fixed frequency and azimuthal wavenumber are obtained by solving the non-local approach called Parabolized Stability Equations (PSE). Typically the Kelvin-Helmholtz instability owes its origin into the shear layer of the flow and, moreover, the inflection points of the mean velocity profile has a crucial importance in the instability of such a flow. The problem is more complex in case of imperfectly expanded jet where shock-cells manifest inside the jet and strongly interaction with the instability waves has been observed. Several configurations are tested in this thesis, from a subsonic incompressible case to the dual-stream underexpanded supersonic jet obtained by solving Large Eddy Simulations LES (CERFACS). The acoustic far-field is determined by the Ffowcs-Williams-Hawkings acoustic analogy. Then a sensitivity analysis of the jet with respect to external forcing acting in a localized region of the flow are investigated by solving the adjoint PSE equations. High sensitivity appeared in the shear-layer of the flow showing, also, a high dependency in the streamwise and radial direction. In the case of dual-stream jet the propagation of the instability in the inner and outer shear layer should be taken into account. This configuration leads to two different distinct Klevin-Helmholtz modes that are computed separately. The highest sensitivity is determined in the exit of the nozzle outside of the potential core of the jet. In addition, comparison between sensitivity computed by adjoint equations and Uncertainty Quantification (UQ) methods has been done, in the case of a single-stream jet, showing a link between these two methods for small variations of the input parameters. This result leads to the application of a lower cost tool for mathematical analysis of complex problem of industrial interest. This work and in particular the sensitivity theory investigated in this thesis contribute to a development of a new noise control strategy for aircraft jet.
|
20 |
Modélisation et supervision des flux énergétiques à bord d'un véhicule hybride lourd : approche par logique floue de type-2 / Energy management of a hybrid electric vehicle : an approach based on type-2 fuzzy logicSolano Martinez, Javier Enrique 08 February 2012 (has links)
Le transport des personnes et des marchandises représente plus de 25% de la consommation d'énergie et est l'une des principales sources de pollution dans le monde. Plusieurs efforts doivent être faits pour réduire la dépendance du pétrole, la consommation d'énergie et l'impact environnemental des systèmes de transport. Dans cette perspective, la Direction Générale de l’Armement a soutenu la conception et la réalisation du banc d’Evaluation de Composantes de la Chaine Electrique (ECCE). Il s’agit d’un laboratoire mobile qui permet d’évaluer dans des conditions d’utilisation réelles, les différentes composantes énergétiques utilisées dans les véhicules électriques.Les travaux de cette Thèse de Doctorat s'inscrivent dans le contexte du projet ECCE. Le principal objectif est de concevoir, d’implanter et de valider expérimentalement un système temps réel de gestion d’énergie pour véhicule électrique hybride. L’architecture énergétique retenue pour cette étude comporte un banc de batteries au plomb, un système pile à combustible et un banc de supercondensateurs. Nous proposons un système de gestion d’énergie qui permet de prendre en compte l’expertise de plusieurs spécialistes sur ces sujets. La conception du système de gestion d’énergie est ainsi réalisée en utilisant une enquête conçue pour extraire la connaissance des experts du domaine (10 experts de différentes affiliations). La logique floue de type 2 permet d’intégrer de l’incertitude dans les réponses et ainsi de considérer simultanément les différents avis des experts. Ce travail présente dans une première partie l’étude des modèles des sources énergétiques et de la structure de commande du véhicule. Cette structure est basée sur la Représentation Energétique Macroscopique (REM). Des résultats de simulation et de validation expérimentale d’une méthodologie pour paramétrer le modèle équivalent des supercondensateurs sont également présentés. La deuxième partie est consacrée à l’étude des systèmes logique floue de type 2. Ces systèmes sont étudiés et présentés en utilisant un exemple numérique. En complément des travaux menés sur l’implantation logicielle de la logique floue de type 2, une application a été conçue, implantée et validée expérimentalement : il s’agit du contrôle de la tension de sortie d’un hacheur dévolteur. L’objectif principal de cette application était de permettre une pré-validation de l’application de la logique floue de type 2 dans le cas d’applications industrielles. Finalement, le système de gestion d’énergie proposé a été validé successivement par des simulations, des essais statiques expérimentaux, des essais de roulage en mode d’opération normale et en mode d’opération dégradée.Nous avons mis en évidence que la logique floue de type 2 est particulièrement bien adaptée pour des applications temps réel dans le domaine du génie électrique. / One of the effects of the globalization of our society is that people travel more covering longer distances, live far from their work place and consume goods from all around the world. Therefore, it si no coincidence that the transport of people and goods represents more than 25% of the energy consumption and is one of the principal sources of pollution worldwide. Several efforts must be done to reduce the oil dependence, the energy consumption and the environmental impact of transport systems. In this perspective, the French Army (DGA) has designed and constructed the Electrical Chain Components Evaluation vehicle (ECCE). It is a mobile laboratory to evaluate under real conditions the electric components of Hybrid Electrical Vehicles (HEVs) that reduce the energy consumption and the pollution emission of conventional vehicles. ECCE permits evaluating different energy sources such as batteries, fuel cells, internal combustion engines, ultracapacitors or flywheels. The ECCE project, nowadays in a second phase/footnote {The first phase of the ECCE project is explained in Chapter 1} is developed in joint cooperation with the FEMTO-ST laboratory of the University of Franche-Comté and two industrial partners, HELION and PANHARD General Defense. It aims to study the implementation, control and energy management of different hybrid sources. As a research developed along the second phase of the ECCE project, the principal objective of the thesis is to design, to implement and to evaluate an energy management supervision system in the ECCE HEV. This thesis proposes an original energy management strategy based on expert knowledge and type-2 fuzzy logic. The design of the fuzzy logic controller is done by using knowledge engineering. This technique allows extracting knowledge from several experts using surveys. The considering of type-2 fuzzy logic systems enables modelling the uncertainty in the answers of the experts. The thesis presents a second application of type-2 fuzzy logic : the voltage regulation of a DC/DC power converter. The principal motivation for developing this application is that it is easier to implement in laboratory at a relatively low cost and it permits a viability evaluation of type-2 fuzzy logic before an implementation in the ECCE mobile laboratory. This is useful because one of the main challenges of this thesis is to reduce the time to experimentally validate the energy management system. This is required to respect the time schedule constraints and to reduce the costs associated to gather the partners of the project at PANHARD locations in Saint-Germain Laval.
|
Page generated in 0.073 seconds