• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 272
  • 87
  • 34
  • 1
  • 1
  • Tagged with
  • 394
  • 191
  • 102
  • 69
  • 49
  • 49
  • 47
  • 47
  • 47
  • 42
  • 38
  • 37
  • 37
  • 34
  • 34
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
291

Sur de nouveaux composes hydroxyfluores nanostructures à base d'aluminium : synthèses, structures & propriétés acides (Lewis/Bronsted)

Dambournet, Damien 04 January 2008 (has links) (PDF)
Il s'agissait dans ce travail de préparer différentes variétés cristallines d'hydroxyfluorures d'aluminium présentant des tailles nanométrique en vue d'application en catalyse. Pour ce faire une méthode solvothermale assistée par chauffage micro-ondes a été utilisée. La variation des paramètres de synthèse telle que la nature du précurseur cationique, le taux HF/Al ou encore l'utilisation de solvants organiques a permis la préparation de diverses formes cristallines présentant une pureté phasique et un aspect divisé. Trois matériaux ont ainsi été obtenus avec des structures dérivés du pyrochlore (Fd-3m), des bronzes de tungstène hexagonaux (Cmcm) et de type ReO3 (Pm-3m). L'utilisation de nombreuses techniques de caractérisations (DRX, RMN à l'état solide des noyaux 27Al, 19F et 1H, microscopie électronique, mesure de surface spécifique et spectroscopie infra-rouge) ont permis une analyse détaillée des solides préparés. L'impact structural des groupements OH sur la forme cristalline stabilisée a été mise en avant dans le cas du pyrochlore AlF1.7(OH)1.3 et de la forme HTB AlF2.6(OH)0.4. Dans le troisième composé, la stabilisation de molécule d'eau comme ligand a permis l'obtention du premier composé lacunaire dans la famille des fluorures d'aluminium. Ce dernier présente la formule générale suivante Al0.82-0.18F2.46(H2O)0.54. Le traitement d'un gel d'alkoxyfluorures d'aluminium par micro-ondes puis sous fluor gazeux a permis d'obtenir un matériau possédant une très grande surface spécifique (330 m2.g-1). L'étude des propriétés acides de ces matériaux par adsorption de molécules sondes détectées par FTIR a révélé une large gamme d'acidité de Lewis et de Brønsted. Finalement, l'influence de la surface spécifique sur le nombre de sites de Lewis forts a été mise en avant.
292

Méthodologie et algorithmes adaptés à l’optimisation multi-niveaux et multi-objectif de systèmes complexes / Multi-level and multi-objective design optimization tools for handling complex systems

Moussouni, Fouzia 08 July 2009 (has links)
La conception d'un système électrique est une tâche très complexe qui relève d’expertises dans différents domaines de compétence. Dans un contexte compétitif où l’avance technologique est un facteur déterminant, l’industrie cherche à réduire les temps d'étude et à fiabiliser les solutions trouvées par une approche méthodologique rigoureuse fournissant une solution optimale systémique.Il est alors nécessaire de construire des modèles et de mettre au point des méthodes d'optimisation compatibles avec ces préoccupations. En effet, l’optimisation unitaire de sous-systèmes sans prendre en compte les interactions ne permet pas d'obtenir un système optimal. Plus le système est complexe plus le travail est difficile et le temps de développement est important car il est difficile pour le concepteur d'appréhender le système dans toute sa globalité. Il est donc nécessaire d'intégrer la conception des composants dans une démarche systémique et globale qui prenne en compte à la fois les spécificités d’un composant et ses relations avec le système qui l’emploie.Analytical Target Cascading est une méthode d'optimisation multi niveaux de systèmes complexes. Cette approche hiérarchique consiste à décomposer un système complexe en sous-systèmes, jusqu’au niveau composant dont la conception relève d’algorithmes d'optimisation classiques. La solution optimale est alors trouvée par une technique de coordination qui assure la cohérence de tous les sous-systèmes. Une première partie est consacrée à l'optimisation de composants électriques. L'optimisation multi niveaux de systèmes complexes est étudiée dans la deuxième partie où une chaîne de traction électrique est choisie comme exemple / The design of an electrical system is a very complex task which needs experts from various fields of competence. In a competitive environment, where technological advance is a key factor, industry seeks to reduce study time and to make solutions reliable by way of a rigorous methodology providing a systemic solution.Then, it is necessary to build models and to develop optimization methods which are suitable with these concerns. Indeed, the optimization of sub-systems without taking into account the interaction does not allow to achieve an optimal system. More complex the system is more the work is difficult and the development time is important because it is difficult for the designer to understand and deal with the system in its complexity. Therefore, it is necessary to integrate the design components in a systemic and holistic approach to take into account, in the same time, the characteristics of a component and its relationship with the system it belongs to.Analytical Target Cascading is a multi-level optimization method for handling complex systems. This hierarchical approach consists on the breaking-down of a complex system into sub-systems, and component where their optimal design is ensured by way of classical optimization algorithms. The optimal solution of the system must be composed of the component's solutions. Then a coordination strategy is needed to ensure consistency of all sub-systems. First, the studied and proposed optimization algorithms are tested and compared on the optimization of electrical components. The second part focuses on the multi-level optimization of complex systems. The optimization of railway traction system is taken as a test case
293

Méthodes de résolution exactes et heuristiques pour un problème de tournées de techniciens

Mathlouthi, Ines 12 1900 (has links)
No description available.
294

Modèles d'impact statistiques en agriculture : de la prévision saisonnière à la prévision à long terme, en passant par les estimations annuelles / Impact models in agriculture : from seasonal forecast to long-term estimations, including annual estimates

Mathieu, Jordane 29 March 2018 (has links)
En agriculture, la météo est le principal facteur de variabilité d’une année sur l’autre. Cette thèse vise à construire des modèles statistiques à grande échelle qui estiment l’impact des conditions météorologiques sur les rendements agricoles. Le peu de données agricoles disponibles impose de construire des modèles simples avec peu de prédicteurs, et d’adapter les méthodes de sélection de modèles pour éviter le sur-apprentissage. Une grande attention a été portée sur la validation des modèles statistiques. Des réseaux de neurones et modèles à effets mixtes (montrant l’importance des spécificités locales) ont été comparés. Les estimations du rendement de maïs aux États-Unis en fin d’année ont montré que les informations de températures et de précipitations expliquent en moyenne 28% de la variabilité du rendement. Dans plusieurs états davantage météo-sensibles, ce score passe à près de 70%. Ces résultats sont cohérents avec de récentes études sur le sujet. Les prévisions du rendement au milieu de la saison de croissance du maïs sont possibles à partir de juillet : dès juillet, les informations météorologiques utilisées expliquent en moyenne 25% de la variabilité du rendement final aux États-Unis et près de 60% dans les états plus météo-sensibles comme la Virginie. Les régions du nord et du sud-est des États-Unis sont les moins bien prédites. Le rendements extrêmement faibles ont nécessité une méthode particulière de classification : avec seulement 4 prédicteurs météorologiques, 71% des rendements très faibles sont bien détectés en moyenne. L’impact du changement climatique sur les rendements jusqu’en 2060 a aussi été étudié : le modèle construit nous informe sur la rapidité d’évolution des rendements dans les différents cantons des États-Unis et localisent ceux qui seront le plus impactés. Pour les états les plus touchés (au sud et sur la côte Est), et à pratique agricole constante, le modèle prévoit des rendements près de deux fois plus faibles que ceux habituels, en 2060 sous le scénario RCP 4.5 du GIEC. Les états du nord seraient peu touchés. Les modèles statistiques construits peuvent aider à la gestion sur le cours terme (prévisions saisonnières) ou servent à quantifier la qualité des récoltes avant que ne soient faits les sondages post-récolte comme une aide à la surveillance (estimation en fin d’année). Les estimations pour les 50 prochaines années participent à anticiper les conséquences du changement climatique sur les rendements agricoles, pour définir des stratégies d’adaptation ou d’atténuation. La méthodologie utilisée dans cette thèse se généralise aisément à d’autres cultures et à d’autres régions du monde. / In agriculture, weather is the main factor of variability between two consecutive years. This thesis aims to build large-scale statistical models that estimate the impact of weather conditions on agricultural yields. The scarcity of available agricultural data makes it necessary to construct simple models with few predictors, and to adapt model selection methods to avoid overfitting. Careful validation of statistical models is a major concern of this thesis. Neural networks and mixed effects models are compared, showing the importance of local specificities. Estimates of US corn yield at the end of the year show that temperature and precipitation information account for an average of 28% of yield variability. In several more weather-sensitive states, this score increases to nearly 70%. These results are consistent with recent studies on the subject. Mid-season maize crop yield forecasts are possible from July: as of July, the meteorological information available accounts for an average of 25% of the variability in final yield in the United States and close to 60% in more weather-sensitive states like Virginia. The northern and southeastern regions of the United States are the least well predicted. Predicting years for which extremely low yields are encountered is an important task. We use a specific method of classification, and show that with only 4 weather predictors, 71% of the very low yields are well detected on average. The impact of climate change on yields up to 2060 is also studied: the model we build provides information on the speed of evolution of yields in different counties of the United States. This highlights areas that will be most affected. For the most affected states (south and east coast), and with constant agricultural practice, the model predicts yields nearly divided by two in 2060, under the IPCC RCP 4.5 scenario. The northern states would be less affected. The statistical models we build can help for management on the short-term (seasonal forecasts) or to quantify the quality of the harvests before post-harvest surveys, as an aid to the monitoring (estimate at the end of the year). Estimations for the next 50 years help to anticipate the consequences of climate change on agricultural yields, and to define adaptation or mitigation strategies. The methodology used in this thesis is easily generalized to other cultures and other regions of the world.
295

Pratiques langagières et rapports aux identités linguistiques chez les enseignants et les élèves du Haouz : cas des lycées d'Aït Ourir (Maroc) / Language practices and relations with linguistic identities of teachers and students in high schools of Ait Ourir, Haouz, Morocco

Kaddouri, Lahcen 27 October 2017 (has links)
Cette recherche a pour objet l’étude de la manifestation des langues au niveau du répertoire linguistique et au niveau du répertoire identitaire dans un milieu plurilingue, à savoir les lycées d’Aït Ourir au Maroc. Au niveau de la pratique, l’analyse des conversations a dévoilé que l’alternance codique est une pratique courante chez les enseignants et les élèves et que le poids de chaque langue dépend de son utilité. Au niveau identitaire, l’identité plurilingue est dominante et le poids de chaque langue correspond à celui de la biographie linguistique de nos enquêtés. Le rapport entre le répertoire linguistique et le répertoire identitaire est disproportionnel. En effet, la comparaison synchronique a dévoilé que les langues de notre étude n’ont pas le même poids aux deux niveaux. D'une part, les tours monolingues sont dominants par contre l’identité monolingue est faible. D'autre part, les tours mixtes n’ont pas de poids tandis que l’identité plurilingue est prépondérante. En outre, la comparaison diachronique a permis de déduire que le changement est continu au niveau de la pratique alors qu’il tend à être stable au niveau identitaire de l’adolescence à l’âge adulte. Ce qui indique que l’identification en une langue ne dépend pas de sa pratique. / This research aims at studying the different aspects of language use at the levels of linguistic and identity repertoires in a multilingual environment; namely high schools in Aït Ourir, Haouz Province, Morocco. The analysis of conversations in the daily usage of languages revealed that Code Switching is a common practice among teachers as well as pupils; and that the weight of each language used depends more on its usefulness to the purpose of speaking. At the identity level, multilingual identity is dominant and the weight of each language is dependent up on the linguistic biography of the person surveyed. Thus, the relationship between the linguistic and identity repertoires is disproportionate. Indeed, synchronically comparing the languages in study confirmed that they don’t have the same weight at the two levels. The monolingual turn-taking is dominating whereas the monolingual identity is weak. On the other hand, the mixed turn-taking is meaningless whilst multilingual identity is significant. Moreover, the diachronic comparison enabled us to deduce that the change is ongoing in practice while it seems steady from adolescence to adulthood which shows that identifying in a language doesn’t depend on its practice.
296

Méthodologie d'estimation des métriques de test appliquée à une nouvelle technique de BIST de convertisseur SIGMA / DELTA / Methodology for test metrics estimation built-in design flow of hard-to-simulate analog/mixed-signal circuits

Dubois, Matthieu 23 June 2011 (has links)
L'expansion du marché des semi-conducteurs dans tous les secteurs d'activité résulte de la capacité de créer de nouvelles applications grâce à l'intégration de plus en plus de fonctionnalités sur une surface de plus en plus faible. Pour chaque entreprise, la compétitivité dépend du coût de fabrication mais aussi de la fiabilité du produit. Ainsi, la phase de test d'un circuit intégré, et plus particulièrement des circuits analogiques et mixtes, est le facteur prédominant dans les choix d'un compromis entre ces deux critères antagonistes, car son coût est désormais proche du coût de production. Cette tendance contraint les acteurs du marché à mettre en place de nouvelles solutions moins onéreuses. Parmi les recherches dans ce domaine, la conception en vue du test (DfT) consiste à intégrer pendant le développement de la puce, une circuiterie additionnelle susceptible d'en faciliter le test, voire d'effectuer un auto-test (BIST). Mais la sélection d'une de ces techniques nécessite une évaluation de leur capacité de différencier les circuits fonctionnels des circuits défaillants. Ces travaux de recherche introduisent une méthodologie d'estimation de la qualité d'une DfT ou d'un BIST dans le flot de conception de circuits analogiques et mixtes. Basée sur la génération d'un large échantillon prenant en compte l'impact des variations d'un procédé technologique sur les performances et les mesures de test du circuit, cette méthodologie calcule les métriques de test exprimant la capacité de chaque technique de détecter les circuits défaillants sans rejeter des circuits fonctionnels et d'accepter les circuits fonctionnels en rejetant les circuits défaillant. Ensuite, le fonctionnement d'un auto-test numérique adapté aux convertisseurs sigma-delta est présenté ainsi qu'une nouvelle méthode de génération et d'injection du stimulus de test. La qualité de ces techniques d'auto-test est démontrée en utilisant la méthodologie d'estimation des métriques de test. Enfin, un démonstrateur développé sur un circuit programmable démontre la possibilité d'employer une technique d'auto-test dans un système de calibrage intégré. / The pervasiveness of the semiconductor industry in an increasing range of applications that span human activity stems from our ability to integrate more and more functionalities onto a small silicon area. The competitiveness in this industry, apart from product originality, is mainly defined by the manufacturing cost, as well as the product reliability. Therefore, finding a trade-off between these two often contradictory objectives is a major concern and calls for efficient test solutions. The focus nowadays is mainly on Analog and Mixed-Signal (AMS) circuits since the associated testing cost can amount up to 70% of the overall manufacturing cost despite that AMS circuits typically occupy no more than 20% of the die area. To this end, there are intensified efforts by the industry to develop more economical test solutions without sacrificing product quality. Design-for-Test (DfT) is a promising alternative to the standard test techniques. It consists of integrating during the development phase of the chip extra on-chip circuitry aiming to facilitate testing or even enable a built-in self-test (BIST). However, the adoption of a DFT technique requires a prior evaluation of its capability to distinguish the functional circuits from the defective ones. In this thesis, we present a novel methodology for estimating the quality of a DfT technique that is readily incorporated in the design flow of AMS circuits. Based on the generation of a large synthetic sample of circuits that takes into account the impact of the process ariations on the performances and test measurements, this methodology computes test metrics that determine whether the DFT technique is capable of rejecting defective devices while passing functional devices. In addition, the thesis proposes a novel, purely digital BIST technique for Sigma-Delta analog-to-digital converters. The efficiency of the test metrics evaluation methodology is demonstrated on this novel BIST technique. Finally, a hardware prototype developed on an FPGA shows the possibility of adapting the BIST technique within a calibration system.
297

Rigorous Design Flow for Programming Manycore Platforms / Flot de conception rigoureux pour la programmation de plates-formes manycore.

Bourgos, Paraskevas 09 April 2013 (has links)
L'objectif du travail présenté dans cette thèse est de répondre à un verrou fondamental, qui est «comment programmer d'une manière rigoureuse et efficace des applications embarquées sur des plateformes multi-coeurs?». Cette problématique pose plusieurs défis: 1) le développement d'une approche rigoureuse basée sur les modèles pour pouvoir garantir la correction; 2) le « mariage » entre modèle physique et modèle de calcul, c'est-à-dire, l'intégration du fonctionnel et non-fonctionnel; 3) l'adaptabilité. Pour s'attaquer à ces défis, nous avons développé un flot de conception rigoureux autour du langage BIP. Ce flot de conception permet l'exploration de l'espace de conception, le traitement à diffèrent niveaux d'abstraction à la fois pour la plate-forme et l'application, la génération du code et le déploiement sur des plates-formes multi-cœurs. La méthode utilisée s'appuie sur des transformations source-vers-source des modèles BIP. Ces transformations sont correctes-par-construction. Nous illustrons ce flot de conception avec la modélisation et le déploiement de plusieurs applications sur deux plates-formes différentes. La première plate-forme considérée est MPARM, une plate-forme virtuelle, basée sur des processeurs ARM et structurée avec des clusters, où chacun contient plusieurs cœurs. Pour cette plate-forme, nous avons considérée les applications suivantes: la factorisation de Cholesky, le décodage MPEG-2, le décodage MJPEG, la Transformée de Fourier Rapide et un algorithme de demosaicing. La seconde plate-forme est P2012/STHORM, une plate-forme multi-cœur, basée sur plusieurs clusters capable d'une gestion énergétique efficace. L'application considérée sur P2012/STHORM est l'algorithme HMAX. Les résultats expérimentaux montrent l'intérêt du flot de conception, notamment l'analyse rapide des performances ainsi que la modélisation au niveau du système, la génération de code et le déploiement. / The advent of many-core platforms is nowadays challenging our capabilities for efficient and predictable design. To meet this challenge, designers need methods and tools for guaranteeing essential properties and determining tradeoffs between performance and efficient resource management. In the process of designing a mixed software/hardware system, functional constraints and also extra-functional specifications should be taken into account as an essential part for the design of embedded systems. The impact of design choices on the overall behavior of the system should also be analyzed. This implies a deep understanding of the interaction between application software and the underlying execution platform. We present a rigorous model-based design flow for building parallel applications running on top of many-core platforms. The flow is based on the BIP - Behavior, Interaction, Priority - component framework and its associated toolbox. The method allows generation of a correct-by-construction mixed hardware/software system model for manycore platforms from an application software and a mapping. It is based on source-to-source correct-by-construction transformations of BIP models. It provides full support for modeling application software and validation of its functional correctness, modeling and performance analysis of system-level models, code generation and deployment on target many-core platforms. Our design flow is illustrated through the modeling and deployment of various software applications on two different hardware platforms; MPARM and platform P2012/STHORM. MPARM is a virtual ARM-based multi-cluster manycore platform, configured by the number of clusters, the number of ARM cores per cluster, and their interconnections. On MPARM, the software applications considered are the Cholesky factorization, the MPEG-2 decoding, the MJPEG decoding, the Fast Fourier Transform and the Demosaicing algorithm. Platform 2012 (P2012/STHORM) is a power efficient manycore computing fabric, which is highly modular and based on multiple clusters capable of aggressive fine-grained power management. As a case study on P2012/STHORM, we used the HMAX algorithm. Experimental results show the merits of the design flow, notably performance analysis as well as correct-by-construction system level modeling, code generation and efficient deployment.
298

Méthode de modélisation et de raffinement pour les systèmes hétérogènes. Illustration avec le langage System C-AMS / Study and development of a AMS design-flow in SytemC : semantic, refinement and validation

Paugnat, Franck 25 October 2012 (has links)
Les systèmes sur puces intègrent aujourd’hui sur le même substrat des parties analogiques et des unités de traitement numérique. Tandis que la complexité de ces systèmes s’accroissait, leur temps de mise sur le marché se réduisait. Une conception descendante globale et coordonnée du système est devenue indispensable de façon à tenir compte des interactions entre les parties analogiques et les partis numériques dès le début du développement. Dans le but de répondre à ce besoin, cette thèse expose un processus de raffinement progressif et méthodique des parties analogiques, comparable à ce qui existe pour le raffinement des parties numériques. L'attention a été plus particulièrement portée sur la définition des niveaux analogiques les plus abstraits et à la mise en correspondance des niveaux d’abstraction entre parties analogiques et numériques. La cohérence du raffinement analogique exige de détecter le niveau d’abstraction à partir duquel l’utilisation d’un modèle trop idéalisé conduit à des comportements irréalistes et par conséquent d’identifier l’étape du raffinement à partir de laquelle les limitations et les non linéarités aux conséquences les plus fortes sur le comportement doivent être introduites. Cette étape peut être d’un niveau d'abstraction élevé. Le choix du style de modélisation le mieux adapté à chaque niveau d'abstraction est crucial pour atteindre le meilleur compromis entre vitesse de simulation et précision. Les styles de modélisations possibles à chaque niveau ont été examinés de façon à évaluer leur impact sur la simulation. Les différents modèles de calcul de SystemC-AMS ont été catégorisés dans cet objectif. Les temps de simulation obtenus avec SystemC-AMS ont été comparés avec Matlab Simulink. L'interface entre les modèles issus de l'exploration d'architecture, encore assez abstraits, et les modèles plus fin requis pour l'implémentation, est une question qui reste entière. Une bibliothèque de composants électroniques complexes décrits en SystemC-AMS avec le modèle de calcul le plus précis (modélisation ELN) pourrait être une voie pour réussir une telle interface. Afin d’illustrer ce que pourrait être un élément d’une telle bibliothèque et ainsi démontrer la faisabilité du concept, un modèle d'amplificateur opérationnel a été élaboré de façon à être suffisamment détaillé pour prendre en compte la saturation de la tension de sortie et la vitesse de balayage finie, tout en gardant un niveau d'abstraction suffisamment élevé pour rester indépendant de toute hypothèse sur la structure interne de l'amplificateur ou la technologie à employer. / Systems on Chip (SoC) embed in the same chip analogue parts and digital processing units. While their complexity is ever increasing, their time to market is becoming shorter. A global and coordinated top-down design approach of the whole system is becoming crucial in order to take into account the interactions between the analogue and digital parts since the beginning of the development. This thesis presents a systematic and gradual refinement process for the analogue parts comparable to what exists for the digital parts. A special attention has been paid to the definition of the highest abstracted analogue levels and to the correspondence between the analogue and the digital abstraction levels. The analogue refinement consistency requires to detect the abstraction level where a too idealised model leads to unrealistic behaviours. Then the refinement step consist in introducing – for instance – the limitations and non-linearities that have a strong impact on the behaviour. Such a step can be done at a relatively high level of abstraction. Correctly choosing a modelling style, that suits well an abstraction level, is crucial to obtain the best trade-off between the simulation speed and the accuracy. The modelling styles at each abstraction level have been examined to understand their impact on the simulation. The SystemC-AMS models of computation have been classified for this purpose. The SystemC-AMS simulation times have been compared to that obtained with Matlab Simulink. The interface between models arisen from the architectural exploration – still rather abstracted – and the more detailed models that are required for the implementation, is still an open question. A library of complex electronic components described with the most accurate model of computation of SystemC-AMS (ELN modelling) could be a way to achieve such an interface. In order to show what should be an element of such a library, and thus prove the concept, a model of an operational amplifier has been elaborated. It is enough detailed to take into account the output voltage saturation and the finite slew rate of the amplifier. Nevertheless, it remains sufficiently abstracted to stay independent from any architectural or technological assumption.
299

Optimisation convexe non-différentiable et méthodes de décomposition en recherche opérationnelle / Convex nonsmooth optimization and decomposition methods in operations research

Zaourar, Sofia 04 November 2014 (has links)
Les méthodes de décomposition sont une application du concept de diviser pour régner en optimisation. L'idée est de décomposer un problème d'optimisation donné en une séquence de sous-problèmes plus faciles à résoudre. Bien que ces méthodes soient les meilleures pour un grand nombre de problèmes de recherche opérationnelle, leur application à des problèmes réels de grande taille présente encore de nombreux défis. Cette thèse propose des améliorations méthodologiques et algorithmiques de méthodes de décomposition. Notre approche est basée sur l'analyse convexe et l'optimisation non-différentiable. Dans la décomposition par les contraintes (ou relaxation lagrangienne) du problème de planification de production électrique, même les sous-problèmes sont trop difficiles pour être résolus exactement. Mais des solutions approchées résultent en des prix instables et chahutés. Nous présentons un moyen simple d'améliorer la structure des prix en pénalisant leurs oscillations, en utilisant en particulier une régularisation par variation totale. La consistance de notre approche est illustrée sur des problèmes d'EDF. Nous considérons ensuite la décomposition par les variables (ou de Benders) qui peut avoir une convergence excessivement lente. Avec un point de vue d'optimisation non-différentiable, nous nous concentrons sur l'instabilité de l'algorithme de plans sécants sous-jacent à la méthode. Nous proposons une stabilisation quadratique de l'algorithme de Benders, inspirée par les méthodes de faisceaux en optimisation convexe. L'accélération résultant de cette stabilisation est illustrée sur des problèmes de conception de réseau et de localisation de plates-formes de correspondance (hubs). Nous nous intéressons aussi plus généralement aux problèmes d'optimisation convexe non-différentiable dont l'objectif est coûteux à évaluer. C'est en particulier une situation courante dans les procédures de décomposition. Nous montrons qu'il existe souvent des informations supplémentaires sur le problème, faciles à obtenir mais avec une précision inconnue, qui ne sont pas utilisées dans les algorithmes. Nous proposons un moyen d'incorporer ces informations incontrôlées dans des méthodes classiques d'optimisation convexe non-différentiable. Cette approche est appliquée avec succès à desproblèmes d'optimisation stochastique. Finalement, nous introduisons une stratégie de décomposition pour un problème de réaffectation de machines. Cette décomposition mène à une nouvelle variante de problèmes de conditionnement vectoriel (vectorbin packing) où les boîtes sont de taille variable. Nous proposons des heuristiques efficaces pour ce problème, qui améliorent les résultats de l'état de l'art du conditionnement vectoriel. Une adaptation de ces heuristiques permet de construire des solutions réalisables au problème de réaffectation de machines de Google. / Decomposition methods are an application of the divide and conquer principle to large-scale optimization. Their idea is to decompose a given optimization problem into a sequence of easier subproblems. Although successful for many applications, these methods still present challenges. In this thesis, we propose methodological and algorithmic improvements of decomposition methods and illustrate them on several operations research problems. Our approach heavily relies on convex analysis and nonsmooth optimization. In constraint decomposition (or Lagrangian relaxation) applied to short-term electricity generation management, even the subproblems are too difficult to solve exactly. When solved approximately though, the obtained prices show an unstable noisy behaviour. We present a simple way to improve the structure of the prices by penalizing their noisy behaviour, in particular using a total variation regularization. We illustrate the consistency of our regularization on real-life problems from EDF. We then consider variable decomposition (or Benders decomposition), that can have a very slow convergence. With a nonsmooth optimization point of view on this method, we address the instability of Benders cutting-planes algorithm. We present an algorithmic stabilization inspired by bundle methods for convex optimization. The acceleration provided by this stabilization is illustrated on network design andhub location problems. We also study more general convex nonsmooth problems whose objective function is expensive to evaluate. This situation typically arises in decomposition methods. We show that it often exists extra information about the problem, cheap but with unknown accuracy, that is not used by the algorithms. We propose a way to incorporate this coarseinformation into classical nonsmooth optimization algorithms and apply it successfully to two-stage stochastic problems.Finally, we introduce a decomposition strategy for the machine reassignment problem. This decomposition leads to a new variant of vector bin packing problems, where the bins have variable sizes. We propose fast and efficient heuristics for this problem that improve on state of the art results of vector bin packing problems. An adaptation of these heuristics is also able to generate feasible solutions for Google instances of the machine reassignment problem.
300

Méthodes de correction de pression pour les équations de Navier-Stokes compressibles / Pressure correction schemes for compressible flows

Kheriji, Walid 28 November 2011 (has links)
Cette thèse porte sur le développement de schémas semi-implicites à pas fractionnaires pour les équations de Navier-Stokes compressibles ; ces schémas entrent dans la classe des méthodes de correction de pression.La discrétisation spatiale choisie est de type "à mailles décalées :éléments finis mixtes non conformes (éléments finis de Crouzeix-Raviart ou Rannacher-Turek) ou schéma MAC classique.Une discrétisation en volumes finis décentrée amont du bilan de masse garantit la positivité de la masse volumique.La positivité de l'énergie interne est obtenue en discrétisant le bilan d'énergie interne continu, par une méthode de volumes finis décentrée amont, enfin, et en couplant ce bilan d'énergie interne discret à l'étape de correction de pression.On effectue une discrétisation particulière en volumes finis sur un maillage dual du terme de convection de vitesse dans le bilan de quantité de mouvement et une étape de renormalisation de la pression; ceci permet de garantir le contrôle au cours du temps de l'intégrale de l'énergie totale sur le domaine.L'ensemble de ces estimations a priori implique en outre, par un argument de degré topologique, l'existence d'une solution discrète. L'application de ce schéma aux équations d'Euler pose une difficulté supplémentaire.En effet, l'obtention de vitesses de choc correctes nécessite que le schéma soit consistant avec l'équation de bilan d'énergie totale, propriété que nous obtenons comme suit. Tout d'abord, nous établissons un bilan discret (local) d'énergie cinétique.Ce dernier comporte des termes sources, que nous compensons ensuite dans le bilan d'énergie interne. Les équations d'énergie cinétique et interne sont associées au maillage dual et primal respectivement, et ne peuvent donc être additionnées pour obtenir un bilan d'énergie totale ; cette dernière équation est toutefois retrouvée, sous sa forme continue, à convergence : si nous supposons qu'une suite de solutions discrètes converge lorsque le pas de temps et d'espace tendent vers 0,, nous montrons en effet, en 1D au moins, que la limite en satisfait une forme faible.Ces résultats théoriques sont confortés par des tests numériques.Des résultats similaires sont obtenus pour les équations de Navier-Stokes barotropes. / This thesis is concerned with the development of semi-implicit fractional step schemes, for the compressible Navier-Stokes equations; these schemes are part of the class of the pressure correction methods.The chosen spatial discretization is staggered: non conforming mixed finite elements (Crouzeix-Raviart or Rannacher-Turek) or the classic MAC scheme. An upwind finite volume discretization of the mass balanced guarantees the positivity of the density. The positivity of the internal energy is obtained by discretising the internal energy balance by an upwind finite volume scheme and by coupling the discrete internal energy balance with the pressure correction step.A special finite volume discretization on dual cells is performed for the convection term in the momentum balance equation, along with a renormalization of the pressure; this allows to guarantee the control in time of integral of the total energy over the domain.All these a priori estimates implies lead to the existence of a discrete solution by a topological degree argument.The application of this scheme the equations of Euler yields an additional difficulty.Indeed, obtaining correct shock speeds requires that the scheme be consistent with the total energy balance,, property which we obtain as follows.First of all, a local discrete kinetic energy balance is established; it contains source terms which are compensated by adding some source terms in the internal energy balance. The kinetic and internal energy equations are associated with the dual and primal meshes respectively, and thus cannot be added to obtain a balance total energy balance; its continuous counterpart is however recovered at the limit: if we suppose that a sequence of discrete solutions converges when the space and time steps tend to 0, we indeed show, in 1D at least, that the limit satisfies a weak form of the equation. These theoretical results are comforted by numerical tests.Similar results are obtained for the barotropic Navier--Stokes equations

Page generated in 0.0606 seconds