• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • 10
  • 1
  • Tagged with
  • 20
  • 16
  • 6
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Solving Hard Combinatorial Optimization Problems using Cooperative Parallel Metaheuristics / Utilisation de méta-heuristiques coopératives parallèles pour la résolution de problèmes d'optimisation combinatoire difficiles

Munera Ramirez, Danny 27 September 2016 (has links)
Les Problèmes d’Optimisation Combinatoire (COP) sont largement utilisés pour modéliser et résoudre un grand nombre de problèmes industriels. La résolution de ces problèmes pose un véritable défi en raison de leur inhérente difficulté, la plupart étant NP-difficiles. En effet, les COP sont difficiles à résoudre par des méthodes exactes car la taille de l’espace de recherche à explorer croît de manière exponentielle par rapport à la taille du problème. Les méta-heuristiques sont souvent les méthodes les plus efficaces pour résoudre les problèmes les plus difficiles. Malheureusement, bien des problèmes réels restent hors de portée des meilleures méta-heuristiques. Le parallélisme permet d’améliorer les performances des méta-heuristiques. L’idée de base est d’avoir plusieurs instances d’une méta-heuristique explorant de manière simultanée l’espace de recherche pour accélérer la recherche de solution. Les meilleures techniques font communiquer ces instances pour augmenter la probabilité de trouver une solution. Cependant, la conception d’une méthode parallèle coopérative n’est pas une tâche aisée, et beaucoup de choix cruciaux concernant la communication doivent être résolus. Malheureusement, nous savons qu’il n’existe pas d’unique configuration permettant de résoudre efficacement tous les problèmes. Ceci explique que l’on trouve aujourd’hui des systèmes coopératifs efficaces mais conçus pour un problème spécifique ou bien des systèmes plus génériques mais dont les performances sont en général limitées. Dans cette thèse nous proposons un cadre général pour les méta-heuristiques parallèles coopératives (CPMH). Ce cadre prévoit plusieurs paramètres permettant de contrôler la coopération. CPMH organise les instances de méta-heuristiques en équipes ; chaque équipe vise à intensifier la recherche dans une région particulière de l’espace de recherche. Cela se fait grâce à des communications intra-équipes. Des communications inter-équipes permettent quant a` elles d’assurer la diversification de la recherche. CPMH offre à l’utilisateur la possibilité d’ajuster le compromis entre intensification et diversification. De plus, ce cadre supporte différentes méta-heuristiques et permet aussi l’hybridation de méta-heuristiques. Nous proposons également X10CPMH, une implémentation de CPMH, écrite en langage parallèle X10. Pour valider notre approche, nous abordons deux COP du monde industriel : des variantes difficiles du Problème de Stable Matching (SMP) et le Problème d’Affectation Quadratique (QAP). Nous proposons plusieurs méta-heuristiques originales en version séquentielle et parallèle, y compris un nouvelle méthode basée sur l’optimisation extrémale ainsi qu’un nouvel algorithme hybride en parallèle coopératif pour QAP. Ces algorithmes sont implémentés grâce à X10CPMH. L’évaluation expérimentale montre que les versions avec parallélisme coopératif offrent un très bon passage à l’échelle tout en fournissant des solutions de haute qualité. Sur les variantes difficiles de SMP, notre méthode coopérative offre des facteurs d’accélération super-linéaires. En ce qui concerne QAP, notre méthode hybride en parallèle coopératif fonctionne très bien sur les cas les plus difficiles et permet d’améliorer les meilleures solutions connues de plusieurs instances. / Combinatorial Optimization Problems (COP) are widely used to model and solve real-life problems in many different application domains. These problems represent a real challenge for the research community due to their inherent difficulty, as many of them are NP-hard. COPs are difficult to solve with exact methods due to the exponential growth of the problem’s search space with respect to the size of the problem. Metaheuristics are often the most efficient methods to make the hardest problems tractable. However, some hard and large real-life problems are still out of the scope of even the best metaheuristic algorithms. Parallelism is a straightforward way to improve metaheuristics performance. The basic idea is to perform concurrent explorations of the search space in order to speed up the search process. Currently, the most advanced techniques implement some communication mechanism to exchange information between metaheuristic instances in order to try and increase the probability to find a solution. However, designing an efficient cooperative parallel method is a very complex task, and many issues about communication must be solved. Furthermore, it is known that no unique cooperative configuration may efficiently tackle all problems. This is why there are currently efficient cooperative solutions dedicated to some specific problems or more general cooperative methods but with limited performances in practice. In this thesis we propose a general framework for Cooperative Parallel Metaheuristics (CPMH). This framework includes several parameters to control the cooperation. CPMH organizes the explorers into teams; each team aims at intensifying the search in a particular region of the search space and uses intra-team communication. In addition, inter-team communication is used to ensure search diversification. CPMH allows the user to tune the trade-off between intensification and diversification. However, our framework supports different metaheuristics and metaheuristics hybridization. We also provide X10CPMH, an implementation of our CPMH framework developed in the X10 parallel language. To assess the soundness of our approach we tackle two hard real-life COP: hard variants of the Stable Matching Problem (SMP) and the Quadratic Assignment Problem (QAP). For all problems we propose new sequential and parallel metaheuristics, including a new Extremal Optimization-based method and a new hybrid cooperative parallel algorithm for QAP. All algorithms are implemented thanks to X10CPMH. A complete experimental evaluation shows that the cooperative parallel versions of our methods scale very well, providing high-quality solutions within a limited timeout. On hard and large variants of SMP, our cooperative parallel method reaches super-linear speedups. Regarding QAP, the cooperative parallel hybrid algorithm performs very well on the hardest instances, and improves the best known solutions of several instances.
2

Reconstruction de phase pour la microscopie à Contraste Interférentiel Différentiel / Phase estimation for Differential Interference Contrast microscopy

Bautista Rozo, Lola Xiomara 30 June 2017 (has links)
Dans cette thèse, nous nous intéressons à la microscopie DIC (Differential interference contrast) en couleur. L’imagerie DIC est reconnue pour produire des images à haut contraste et à haute résolution latérale. L'un de ses inconvénients est que les images observées ne peuvent pas être utilisées directement pour l'interprétation topographique et morphologique, car les changements de phase de la lumière, produits par les variations de l'indice de réfraction de l'objet, sont cachés dans l'image d'intensité. Il s’agit donc d’un problème de reconstruction de phase. Nous présentons un modèle de formation d'image pour la lumière polychromatique, et décrivons de manière détaillée la réponse impulsionnelle du système. Le problème de la reconstruction de phase est abordé sous l’angle d’un problème inverse par minimisation d’un terme d’erreur des moindres carrés (LS) non linéaire avec un terme de régularisation préservant les discontinuités, soit par le potentiel hypersurface (HS), soit par la variation totale (TV). Nous étudions les propriétés des fonctions objectives non convexes résultantes, prouvons l'existence de minimisateurs et proposons une formulation compacte du gradient permettant un calcul rapide. Ensuite, nous proposons des outils d'optimisation efficaces récents permettant d'obtenir à la fois des reconstructions précises pour les deux régularisations lisse (HS) et non lisse (TV) et des temps de calculs réduits. / In this dissertation we address the problem of estimating the phase from colorimages acquired with differential–interference–contrast (DIC) microscopy. This technique has been widely recognized for producing high contrast images at high lateral resolution. One of its disadvant ages is that the observed images cannot be easily used for topographical and morphological interpretation, because the changes in phase of the light, produced by variations in the refractive index of the object, are hidden in the intensity image. We present an image formation model for polychromatic light, along with a detailed description of the point spread function (PSF). As for the phase recovery problem, we followed the inverse problem approach by means of minimizing a non-linear least–squares (LS)–like discrepancy term with an edge–preserving regularizing term, given by either the hypersurface (HS) potential or the total variation (TV) one. We investigate the analytical properties of the resulting objective non-convex functions, prove the existence of minimizers and propose a compact formulation of the gradient allowing fast computations. Then we use recent effective optimization tools able to obtain in both the smooth and the non-smooth cases accurate reconstructions with a reduced computational demand. We performed different numerical tests on synthetic realistic images and we compared the proposed methods with both the original conjugate gradient method proposed in the literature, exploiting a gradient–free linesearch for the computation of the steplength parameter, and other standard conjugate gradient approaches.
3

Représentations discrètes de l'ensemble des points non dominés pour des problèmes d'optimisation multi-objectifs / Discrete representations of the nondominated set for multi-objective optimization problems

Jamain, Florian 27 June 2014 (has links)
Le but de cette thèse est de proposer des méthodes générales afin de contourner l’intractabilité de problèmes d’optimisation multi-objectifs.Dans un premier temps, nous essayons d’apprécier la portée de cette intractabilité en déterminant une borne supérieure, facilement calculable, sur le nombre de points non dominés, connaissant le nombre de valeurs prises par chaque critère.Nous nous attachons ensuite à produire des représentations discrètes et tractables de l’ensemble des points non dominés de toute instance de problèmes d’optimisation multi-objectifs. Ces représentations doivent satisfaire des conditions de couverture, i.e. fournir une bonne approximation, de cardinalité, i.e. ne pas contenir trop de points, et si possible de stabilité, i.e. ne pas contenir de redondances. En s’inspirant de travaux visant à produire des ensembles ε-Pareto de petite taille, nous proposons tout d’abord une extension directe de ces travaux, puis nous axons notre recherche sur des ensembles ε-Pareto satisfaisant une condition supplémentaire de stabilité. Formellement, nous considérons des ensembles ε-Pareto particuliers, appelés (ε, ε′)-noyaux, qui satisfont une propriété de stabilité liée à ε′. Nous établissons des résultats généraux sur les (ε, ε′)-noyaux puis nous proposons des algorithmes polynomiaux qui produisent des (ε, ε′)-noyaux de petite taille pour le cas bi-objectif et nous donnons des résultats négatifs pour plus de deux objectifs. / The goal of this thesis is to propose new general methods to get around the intractability of multi-objective optimization problems.First, we try to give some insight on this intractability by determining an, easily computable, upper bound on the number of nondominated points, knowing the number of values taken on each criterion. Then, we are interested in producingsome discrete and tractable representations of the set of nondominated points for each instance of multi-objective optimization problems. These representations must satisfy some conditions of coverage, i.e. providing a good approximation, cardinality, i.e. it does not contain too many points, and if possible spacing, i.e. it does not include any redundancies. Starting from works aiming to produce ε-Pareto sets of small size, we first propose a direct extension of these works then we focus our research on ε-Pareto sets satisfying an additional condition of stability. Formally, we consider special ε-Pareto sets, called (ε, ε′)-kernels, which satisfy a property of stability related to ε′. We give some general results on (ε, ε′)-kernels and propose some polynomial time algorithms that produce small (ε, ε′)-kernels for the bicriteria case and we give some negative results for the tricriteria case and beyond.
4

Conceptual design of shapes by reusing existing heterogeneous shape data through a multi-layered shape description model and for VR applications / Design conceptuel de formes par exploitation de données hétérogènes au sein d’un modèle de description de forme multi-niveaux et pour des applications de RV

Li, Zongcheng 28 September 2015 (has links)
Les récentes avancées en matière de systèmes d'acquisition et de modélisation ont permis la mise à disposition d'une très grande quantité de données numériques (e.g. images, vidéos, modèles 3D) dans différents domaines d'application. En particulier, la création d'Environnements Virtuels (EVs) nécessite l'exploitation de données nu-mériques pour permettre des simulations et des effets proches de la réalité. Malgré ces avancées, la conception d'EVs dédiés à certaines applications requiert encore de nombreuses et parfois laborieuses étapes de modélisation et de traitement qui impliquent plusieurs experts (e.g. experts du domaine de l'application, experts en modélisation 3D et programmeur d'environnements virtuels, designers et experts communication/marketing). En fonction de l'application visée, le nombre et le profil des experts impliqués peuvent varier. Les limitations et difficultés d'au-jourd'hui sont principalement dues au fait qu'il n'existe aucune relation forte entre les experts du domaine qui ont des besoins, les experts du numérique ainsi que les outils et les modèles qui prennent part au processus de déve-loppement de l'EV. En fait, les outils existants focalisent sur des définitions souvent très détaillées des formes et ne sont pas capables de supporter les processus de créativité et d'innovation pourtant garants du succès d'un pro-duit ou d'une application. De plus, la grande quantité de données numériques aujourd'hui accessible n'est pas réellement exploitée. Clairement, les idées innovantes viennent souvent de la combinaison d'éléments et les don-nées numériques disponibles pourraient être mieux utilisées. Aussi, l'existence de nouveaux outils permettant la réutilisation et la combinaison de ces données serait d'une grande aide lors de la phase de conception conceptuelle de formes et d'EVs. Pour répondre à ces besoins, cette thèse propose une nouvelle approche et un nouvel outil pour la conception conceptuelle d'EVs exploitant au maximum des ressources existantes, en les intégrant et en les combinant tout en conservant leurs propriétés sémantiques. C'est ainsi que le Modèle de Description Générique de Formes (MDGF) est introduit. Ce modèle permet la combinaison de données multimodales (e.g. images et maillages 3D) selon trois niveaux : Conceptuel, Intermédiaire et Données. Le niveau Conceptuel exprime quelles sont les différentes parties de la forme ainsi que la façon dont elles sont combinées. Chaque partie est définie par un Elément qui peut être soit un Composant soit un Groupe de Composants lorsque ceux-ci possèdent des carac-téristiques communes (e.g. comportement, sens). Les Eléments sont liés par des Relations définies au niveau Con-ceptuel là où les experts du domaine interagissent. Chaque Composant est ensuite décrit au niveau Données par sa Géométrie, sa Structure et ses informations Sémantiques potentiellement attachées. Dans l'approche proposée, un Composant est une partie d'image ou une partie d'un maillage triangulaire 3D. Quatre Relations sont proposées (fusion, assemblage, shaping et localisation) et décomposées en un ensemble de Contraintes qui contrôlent la po-sition relative, l'orientation et le facteur d'échelle des Composants au sein de la scène graphique. Les Contraintes sont stockées au niveau Intermédiaire et agissent sur des Entités Clés (e.g. points, des lignes) attachées à la Géo-métrie ou à la Structure des Composants. Toutes ces contraintes sont résolues en minimisant une fonction énergie basée sur des grandeurs physiques. Les concepts du MDGF ont été implémentés et intégrés au sein d'un outil de design conceptuel développé par l'auteur. Différents exemples illustrent le potentiel de l'approche appliquée à différents domaines d'application. / Due to the great advances in acquisition devices and modeling tools, a huge amount of digital data (e.g. images, videos, 3D models) is becoming now available in various application domains. In particular, virtual envi-ronments make use of those digital data allowing more attractive and more effectual communication and simula-tion of real or not (yet) existing environments and objects. Despite those innovations, the design of application-oriented virtual environment still results from a long and tedious iterative modeling and modification process that involves several actors (e.g. experts of the domain, 3D modelers and VR programmers, designers or communica-tions/marketing experts). Depending of the targeted application, the number and the profiles of the involved actors may change. Today's limitations and difficulties are mainly due to the fact there exists no strong relationships between the expert of the domain with creative ideas, the digitally skilled actors, the tools and the shape models taking part to the virtual environment development process. Actually, existing tools mainly focus on the detailed geometric definition of the shapes and are not suitable to effectively support creativity and innovation, which are considered as key elements for successful products and applications. In addition, the huge amount of available digital data is not fully exploited. Clearly, those data could be used as a source of inspiration for new solutions, being innovative ideas frequently coming from the (unforeseen) combination of existing elements. Therefore, the availability of software tools allowing the re-use and combination of such digital data would be an effective support for the conceptual design phase of both single shapes and VR environments. To answer those needs, this thesis proposes a new approach and system for the conceptual design of VRs and associated digital assets by taking existing shape resources, integrating and combining them together while keeping their semantic meanings. To support this, a Generic Shape Description Model (GSDM) is introduced. This model allows the combination of multimodal data (e.g. images and 3D meshes) according to three levels: conceptual, intermediate and data levels. The conceptual level expresses what the different parts of a shape are, and how they are combined together. Each part of a shape is defined by an Element that can either be a Component or a Group of Components when they share common characteristics (e.g. behavior, meaning). Elements are linked with Relations defined at the Concep-tual level where the experts in the domain are acting and exchanging. Each Component is then further described at the data level with its associated Geometry, Structure and potentially attached Semantics. In the proposed ap-proach, a Component is a part of an image or a part of a 3D mesh. Four types of Relation are proposed (merging, assembly, shaping and location) and decomposed in a set of Constraints which control the relative position, orien-tation and scaling of the Components within the 3D viewer. Constraints are stored at the intermediate level and are acting on Key Entities (such as points, a lines, etc.) laying on the Geometry or Structure of the Components. All these constraints are finally solved while minimizing an additional physically-based energy function. At the end, most of the concepts of GSDM have been implemented and integrated into a user-oriented conceptual design tool totally developed by the author. Different examples have been created using this tool demonstrating the potential of the approach proposed in this document.
5

Optimization routes of planning and implementation in large-scale urban development projects : some learning from France for China / Conduites d’optimisation en aménagement et mise-en-œuvre dans projets de développement urbain en large échelle : des leçons françaises pour la Chine

Chen, Tingting 25 May 2012 (has links)
L’idée majeure de cette thèse de Doctorat part d’un regard sur les réalités en Chine. L’objectif majeur de cette thèse est celui d’essayer d’offrir des suggestions pour les villes chinoises à partir de l’expérience française en matière d’aménagement et de mise en œuvre de projets de développement urbain à large échelle. Comprendre le contexte, le mécanisme et la politique d’aménagement urbain au sein des pays développés peut être utile pour mieux répondre aux problèmes dans notre pays et, ainsi, à mieux construire les villes en Chine.D’abord, la dissertation fait une définition sur les concepts de base, le contenu et la structure de travail des projets de développement urbain à large échelle.L’origine des problèmes et les difficultés trouvées dans ce type d’opération seront alors débattues. Ancrée sur une étude empirique, la dissertation analyse quelques projets de développement urbain à large échelle en référence.Dans les sociétés modernes, les aménageurs doivent considérer plusieurs indicateurs d’incertitude dans le développement urbain. Ils doivent également être opérationnels en ce qui concerne la régulation de l’espace et coordonner les enjeux d’intérêt propres au développement urbain à large échelle. La thèse repère un cadre théorique de base selon ces trois aspects et travaille sur les moyens que les projets de développement urbain à large échelle en France mènent vis-à-vis de tous ces enjeux. Au travers de trois conduites qui sont la reforme du zoning et les droits du sol, une régulation plus stricte de l’espace urbain et une nette amélioration du cadre de coordination, l’aménagement et la mise en œuvre de ce type d’opération en France ont été optimisés. Au travers de réformes, de quelques modifications et améliorations, plusieurs projets français ont bien réussi à aboutir aux objectifs du plan. Les conséquences sociales, économiques et environnementales ont été également bien cadrées. Les Plans Locaux d’Urbanisme (PLU) ont été étudiés pour la reforme de la politique d’usage des sols. Le cahier des charges et le rôle de l'architecte Coordinateur ont été analysés pour la régulation des espaces urbains. Les ZAC, les SEM (Société d’Economie Mixte) et la participation institutionnelle ont été étudiées en terme de coordination d’institution. En partant d’une étude comparative entre la situation en Chine et l’expérience réussie en France, des suggestions ont été proposées pour optimiser les projets de développement urbain de large échelle en Chine. Les trois conduites d’optimisation sont bien connectées, ce qui signifie qu’ils ont une influence directe sur la construction urbaine. Une conduite isolée ne peut pas résoudre les défis. Ainsi, la dissertation suggère un ensemble de conduites d’optimisation pour les grands projets de développement urbain en Chine. La réforme de l’aménagement urbain et la mise-en-place institutionnelle devraient perfectionner les plans d’usage des sols, la régulation de l’espace urbain et les mécanismes de coordination dans son ensemble. L’aménagement urbain et le système de management devraient être orientés vers un perfectionnement intégré. / The main ideas of this thesis come from realities in China. The main objective ofthis thesis is trying to offer some suggestions for cities in China by learning fromFrance, on the topic of planning and implementation of large-scale urbandevelopment projects. Understanding the background, mechanism and policy ofurban planning in developed countries may help to cope with problems in ourcountry and then to better construct Chinese cities. Firstly, the dissertation defines the basic concepts, contents and framework of large-scale urban development projects. The origin of problems and difficulties in large-scale urban development projects is then discussed. Based on empirical study, the dissertation analyzes some typical large-scale urban development projects in France and then evaluates them. In modern society, planners should consider many uncertain indicators in urban development. They should also be effective in regulation of space and coordinate conflict of interests in large-scale urban development. The dissertation raises a basic theoritical framework in those three aspects and explores how French largescale urban development projects cope with these challenges. By three optimizing routes which are reforming of land-use planning, strengthen regulation of urban space and improvement of coordination mechanism, the planning and implementation of large-scale urban development project in France have been optimized. By continuous reforming, adjustment and improvement, many French large-scale urban development projects successfully finished the planning objectives. The social, economic and environment effects have also been well embodied.PLU (Plans Locaux d’Urbanisme) has been studied for the reform of land-use planning. Le "cahier des charges "and the role of the "Architect Coordinateur" have been analyzed for the regulation of urban space. ZAC (Zone d’Aménagement Concerte), SEM (Société d’Ecoonomie Mixte) and public participation institution have been studied in aspect of coordination institution. Based on comparativestudy of situation in China and successful experience in France, suggestionshave been made for optimizing Chinese large-scale urban development projects.The three optimizing routes are connected tightly, which means they influencethe course of urban construction together. Isolated route could not solve theproblems. Therefore, the dissertation suggests an ensemble optimizing route inChinese large-scale urban development projects. The reform of urban planningand implementation institution should improve land-use planning, regulation ofurban space and coordination mechanism all together. The urban planning andmanagement system should be in a direction of integrative improvement.
6

Abstraction et comparaison de traces d'exécution pour l'analyse d'applications multimédias embarquées / Abstraction and comparison of execution traces for analysis of embedded multimedia applications

Kamdem Kengne, Christiane 05 December 2014 (has links)
Le projet SoC-Trace a pour objectif le développement d'un ensemble de méthodes et d'outils basés sur les traces d'éxécution d'applications embarquées multicoeur afin de répondre aux besoins croissants d'observabilité et de 'débogabilité' requis par l'industrie. Le projet vise en particulier le développement de nouvelles méthodes d'analyse, s'appuyant sur différentes techniques d'analyse de données telles que l'analyse probabiliste, la fouille de données, et l'agrégation de données. Elles devraient permettre l'identification automatique d'anomalies,l'analyse des corrélations et dépendances complexes entre plusieurs composants d'une application embarquées ainsi que la maîtrise du volume important des traces qui peut désormais dépasser le GigaOctet. L'objectif de la thèse est de fournir une représentation de haut niveau des informations contenues dans les traces, basée sur la sémantique. Il s'agira dans un premier temps de développer un outil efficace de comparaison entre traces;de définir une distance démantique adaptée aux traces, puis dans un second temps d'analyser et d'interpréter les résultats des comparaisons de traces en se basant sur la distance définie. / The SoC-Trace project aims to develop a set of methods and tools based on execution traces of multicore embedded applications to meet the growing needs of observability and 'débogability' required by the industry. The project aims in particular the development of new analytical methods, based on different data analysis techniques such as probabilistic analysis, data mining, and data aggregation. They should allow the automatic identification of anomalies, the analysis of complex correlations and dependencies between different components of an embedded application and control of the volume traces that can now exceed the gigabyte. The aim of the thesis is to provide a high-level representation of information in the trace based semantics. It will initially develop an effective tool for comparing traces, to define a semantic distance for execution traces, then a second time to analyze and interpret the results of comparisons of traces based on the defined distance.
7

Caractérisation des irrigations gravitaires au moyen d'un modèle d'écoulement et de mesures in-situ : application à l'optimisation de l'irrigation du foin de Crau par calan / Adaptation of irrigation practices to a decrease in the availability of water resources : development of scenarios and quantify their impacts

Alkassem-Alosman, Mohamed 30 September 2016 (has links)
Sur la région de la Crau, le système l’irrigation gravitaire appliqué aux prairies de foin joue un rôle important dans le maintien du cycle hydrologique en étant le principal contributeur à la recharge de la nappe souterraine de la Crau (70 à 80% de la recharge). Dans le futur, des pressions sur la ressource en eau alimentée ce système d’irrigation risquent de s’accroître du fait des changements climatiques et de l’augmentation des autres usages de l’eau (domestiques,industriels, ..) et induisent la nécessité de l’optimisation de ce système afin de maintenir l’état des ressources en eau souterraines. Cette optimisation nécessite la connaissance des vrais quantités d’eau apportées à la parcelle qui sont mal connues, et de spatialiser ces quantités à l’échelle du territoire. Ainsi, l’objectif de ce travail est de développer une méthodologie permettant d’améliorer la quantification de ces volumes à deux échelle (parcellaire et régionale). Un système numérique incluant un modèle d’irrigation gravitaire dénommé ‘Calhy’ a été développé au cours de ce travail. Ce système permet de caractériser le fonctionnement des principaux processus intervenant dans ce système d’irrigation (infiltration de l’eau dans le sol et la propagation à la surface de la parcelle). Mais l’estimation de ces processus est limité par la connaissance de certains paramètres non mesurables, tels que la conductivité hydraulique à saturation du sol et la rugosité hydraulique de la surface parcellaire. Une analyse de sensibilité AS a été menée dans un premier temps au cours de ce travail afin de définir la contribution de la variation de chaque paramètre non mesurable sur la variance des variables de sortie. Les résultats montrent la possibilité d’estimation ces paramètres à partir des accessibles variables auxquels ils sont sensibles. Ainsi, une méthode d’inversion s’est basé sur les résultats d’AS, combine le modèle Calhy et un dispositif expérimental a été appliqué dans un second temps pour l’estimation paramètres et valider l’approche proposée. Les résultats montrent que cette approche est robuste et efficace pour estimer ces paramètres. A la fois les paramètres ont été issus pour démarrer le système (estimés ou mesurés), nous avons étudié différentes modifications du système d’irrigation actuel (changement de la pente de la parcelle, du sens d’irrigation, l’apport de l’eau en différents points de la parcelle, ….), et leurs impacts sur l’homogénéité de l’infiltration et la durée de l’irrigation.296En parallèle, Nous avons établi un modèle empirique de dose d’irrigation basé sur l’analyse des pratiques d’irrigation investigués auprès des enquêtes procédés chez les agriculteurs. Différents modèles empiriques ont été développés en basant sur des régressions calculant la dose d’irrigation et la durée en fonction du débit disponible et des paramètres parcellaires caractérisant les conditions d’irrigation tels que la géométrie de la parcelle (longueur, largeur et surface). Le modèle de dose empirique investigué au cours de ce travail permet de fournir une estimation de la dose distribué sur tout le territoire de la Crau en intégrant ce modèle dans le simulateur de laCrau. / Worldwide, the irrigation accounts for 70% of all water consumption: understanding therelationship between irrigation and ecosystems and optimizing the irrigation practices cancontribute to the sustainability management of water resources. In the Crau region (southern ofFrance), the flooding irrigation system used for irrigating the hay fields plays an important role inwater cycle: in this system, considerable amounts of water are brought to the hay fields (about 20000 m3/ha/year i.e. 2 000 mm), which participate strongly to the recharge of the Crau aquifer(between 66% and 80% of the recharge). In the future, the pressures on the availability of waterresources that feed this irrigation system (the reservoir of Serre Ponçon) may increase because ofthe climate change and the increase in the another water uses. Thus, it becomes necessary tooptimize the irrigation practices in order to conserve the water and ensure a sufficient rechargefor aquifer of the Crau. This optimization requires i) the knowledge of the amount of waterbrought to the plot that are not currently known, ii) spatialize these amounts over the regionalscale. This work aims to develop a methodology to improve the quantification of these volumesat the field and regional scales. A numerical system that includes a flooding irrigation modelcalled 'Calhy' was developed, takes into account the main processes involved in this irrigationsystem (water infiltration into the soil and the runoff of water slide over the plot surface). Firstly,a sensitivity analysis was conducted in order to classify the Calhy’s parameters according to theirimportance and define an optimal experimental apparatus allowing to estimate them using aninverse approach. Secondly, an inversion procedure based on the proposed experimental297apparatus and the previous model was implemented on several plots in the study area. The resultsshow that the important parameters can be estimated and then Calhy can be used to analyse andoptimize irrigation practices. Then, different optimization scenarios were identified. In parallel,we developed an empirical model of irrigation dose based on the analysis of irrigation practicesin a group of exploitations in the study region. Different empirical models were developed;regressions were used to compute the irrigation dose and duration from geometricalcharacteristics of the borders (length, width and surface) and available water inflow rate. Theempirical model of irrigation dose developed in this work would provide a spatial estimation ofirrigation doses overall plots in the study region, and would contribute to a better quantificationof water recharge of the Crau aquifer and its locations.
8

Identification de paramètres par analyse inverse à l’aide d’un algorithme méta-heuristique : applications à l’interaction sol structure, à la caractérisation de défauts et à l’optimisation de la métrologie

Fontan, Maxime 04 May 2011 (has links)
Cette thèse s’inscrit dans la thématique d’évaluation des ouvrages par des méthodes nondestructives. Le double objectif est de développer un code permettant d’effectuer au choixl’identification de paramètres par analyse inverse en utilisant un algorithme méta heuristique, ou dedéfinir une métrologie optimale (nombre de capteurs, positions, qualité) sur une structure, en vued’une identification de paramètres. Nous avons développé un code permettant de répondre à cesdeux objectifs. Il intègre des mesures in situ, un modèle mécanique aux éléments finis de lastructure étudiée et un algorithme d’optimisation méta heuristique appelé algorithme d’optimisationpar essaim particulaire. Ce code a d’abord été utilisé afin de caractériser l’influence de la métrologiesur l’identification de paramètres par analyse inverse, puis, en phase expérimentale, nous avonstravaillé sur des problèmes d’interactions sol structure. Un travail a également été réalisé surl’identification et la caractérisation de défauts par sollicitations au marteau d’impact. Enfin unexemple d’optimisation de métrologie (nombre de capteurs, positions et qualité) a été réalisé enutilisant le code original adapté pour cette étude. / This thesis deals with non-destructive evaluation in civil engineering. The objective is of two-fold:developing a code that will identify mechanical parameters by inverse analysis using a metaheuristicalgorithm, and developing another code to optimize the sensors placement (with respect tothe number and quality of the sensors) in order to identify mechanical parameters with the bestaccuracy. Our code integrates field data, a finite element model of the studying structure and aparticle swarm optimization algorithm to answer those two objectives. This code was firstly used tofocus on how the sensors placement, the number of used sensors, and their quality impact theaccuracy of parameters’ identification. Then, an application on a soil structure interaction wasconducted. Several tests to identify and characterize defaults using an impact hammer were alsocarried on. The last application focused on the optimization of the metrology in order to identifymechanical parameters with the best accuracy. This last work highlights the possibilities of theseresearches for structural health monitoring applications in civil engineering project.
9

Évaluation de la capacité à innover : une approche par auto évaluation et suivi supporté par des analyses multicritères dynamiques / Evaluation of Innovation capabilities : A self assessment approach and monitoring supported by multi-criteria dynamic analysis

Galvez Manriquez, Daniel 09 February 2015 (has links)
L’un des challenges les plus importants des pays développés ou émergents est de soutenir l’innovation dans les PME. Mais la question centrale ici, est de savoir si l’innovation dépend exclusivement de la disponibilité des ressources. La capacité à innover ne dispose pas d'un cadre de référence pour son évaluation, en raison principalement de sa complexité et sa nature abstraite. Sans les indicateurs appropriés, il est impossible d'établir les objectifs et de déterminer les efforts et les ressources nécessaires pour améliorer la capacité d'innovation. Le laboratoire ERPI a développé une approche d’évaluation de cette capacité privilégiant les pratiques internes qui favorisent l’innovation dans les entreprises (IIP, Indice d’Innovation Potentielle) basée sur des méthodes d’analyse multicritère. Mais une fois obtenu un résultat, quels sont les points sur lesquels une entreprise peut jouer afin d’améliorer son système d'innovation ? Dans cette thèse, nous proposons un modèle d'optimisation qui réplique la procédure d'évaluation de la capacité à innover utilisée par l'IIP et qui nous permettra de générer un plan d'action pour améliorer la capacité à innover des PME. Le modèle considère différents facteurs (la situation particulière de l'entreprise, les efforts économiques associés à la stratégie proposée, etc.) afin de générer le plan d'action le plus approprié aux besoins de chaque PME. Ainsi, trois stratégies potentielles sont proposées : améliorer le classement actuel avec un minimum d'effort, maximiser les économies de ressources, maximiser l’IIP avec un budget défini. Des scénarii sont simulés afin de tester les résultats de la mise en œuvre des différentes stratégies / One of the most important challenges in the current industrial policy of developed and emerging countries is to support innovation in SMEs, issue which has been approach as a problem only dependent on the availability of resources. Innovation capability does not have an appropriate framework of evaluation, mainly because of its complexity and abstract nature. Without proper indicators, it is not possible to establish objectives and identify the efforts and resources necessary for its improvement. In response to this, the ERPI laboratory has developed an evaluation approach of innovation capability, taking into account internal practices to promote innovation. A field of knowledge has been developed in this direction allowing for the proposal of a novel metrology, the Potential Innovation index (PII), based on multi-criteria analysis methods for studying the dynamics within companies. In this thesis, we propose an optimization model that replicates the evaluation procedure of innovation capability to generate an action plan, i.e., the model returns concrete points in which companies can work to improve its innovation system. The model considers factors such as the particular situation of the company, the economic efforts associated with the proposed strategy, the goals of the entrepreneur, etc. Three optimization strategies are proposed: access to a higher category with a minimum of effort, maximize resource efficiency and maximize innovation performance with a defined budget. Scenarios are simulated to test the results of the implementation of the different strategies
10

Dissémination de données dans les réseaux véhiculaires / Data dissemination in vehicular networks

Idir, Lilia 21 October 2015 (has links)
Le nombre de véhicules circulant sur les routes dans le monde est passé de 500 millions en 1986 à 1 milliard de véhicules en 2010. Un tel réseau routier immense a apporté un certain confort à de nombreux conducteurs mais d'un autre coté il a représenté environs 1,24 millions d'accidents en 2010. Avec ces chiffres vient l'augmentation du niveau des émissions de CO2 et des milliards d'heures perdues dans les embouteillages. Avec le progrès et le développement des technologies sans fil ces dernières années, les réseaux véhiculaires ont rapidement évolués. Beaucoup de constructeurs automobiles et de pays ont intégré et imaginé différentes applications dans les réseaux véhiculaires : des applications de sécurité routières, d'autres pour l'information sur le trafic, ainsi que des applications de divertissement. Cette dernière catégorie d'applications se distingue des autres par la quantité et le volume de données échangées, et constitue un réel problème dû à la nature des communications sans fil véhiculaires. Dans cette thèse, nous traitons le problème de la dissémination d'information dans les systèmes véhiculaires distribués. Notre objectif principal est de proposer des solutions pratiques et réalisables pour diffuser les données dans des environnements véhiculaires réalistes. Le concept de la diffusion des données est large et significatif. Dans ce contexte, nous nous référons à la diffusion de données chaque fois qu'il y a une certaine quantité de données qui doit être répartie sur un réseau distribué sans fil. Les données sont envoyées vers plusieurs destinations (même à tous les nœuds du réseau dans certain cas) qui sont intéressés pour récupérer la totalité ou une partie des informations générées. A titre d'exemples, nous pouvons considérer les applications de partage de fichiers, la diffusion de fichiers multimédia et ainsi de suite. Nous abordons dans cette thèse le problème de dissémination de données dans les réseaux véhiculaires, plus précisément la dissémination de grands volumes de données tel que le contenu multimédia. Avec l'évolution au cours de ces dernières années des réseaux véhiculaires notamment grâce au support de nombreux constructeurs automobiles (e.x. Toyota, Nissan, BMW, Ford, etc.), la quantité de données échangée a augmenté de manière exponentielle au fil des années. Malheureusement malgré l'avancement des technologies de communications sans fil, l'échange de grands volumes de données dans des réseaux véhiculaires reste un réel défi, à cause des caractéristiques de communications sans fil et celles spécifiques aux réseaux véhiculaires. / The number of vehicles on the roads in the world increased from 500 million in 1986 to 1 billion vehicles in 2010. Such a huge road network has brought some comfort to many drivers but on the other hand it represented around 1.24 million accidents in 2010. With the progress and development of wireless technologies these recent years, vehicular networks quickly evolved. Many car manufacturers and countries have built and imagined different applications in vehicular networks: road safety applications, others for traffic information, and entertainment applications. This last category of applications is distinguished from others by the quantity and volume of exchanged data, and represents a real problem due to the lossy nature of vehicular communications. In this thesis, we address the problem of data dissemination in distributed vehicular systems. Our main objective is to provide practical and workable solutions to disseminate data in realistic vehicular environments. The concept of data dissemination is large and significant. In this context, we call data dissemination each time there is a certain amount of data which must be distributed on in wireless network. The data is sent to multiple destinations who are interested to recover all or part of the information. As examples, we can consider the file sharing applications, streaming multimedia files and so on. We discuss in this thesis the data dissemination problem in vehicular networks, specifically the dissemination of large volumes of data such as content distribution. With the evolution in recent years of vehicular networks thanks to many car manufacturers support (eg Toyota, Nissan, BMW, Ford, etc.), the amount of exchanged data has increased exponentially over the years. Unfortunately, despite the advancement of wireless communications technologies, exchange large volumes of data in vehicular networks remains a challenge because of wireless communications features and those specific to vehicular networks.

Page generated in 0.0809 seconds