• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 689
  • 334
  • 67
  • 2
  • Tagged with
  • 1109
  • 510
  • 292
  • 197
  • 166
  • 141
  • 121
  • 110
  • 103
  • 98
  • 97
  • 97
  • 89
  • 81
  • 75
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
551

Non-linéarités quantiques d'un qubit en couplage ultra-fort avec un guide d'ondes / Quantum non-linearities of a qubit ultra-strongly coupled to a waveguide

Gheeraert, Nicolas 11 October 2018 (has links)
Au cours des dernières années, le domaine de l'interaction lumière-matière a fait un pas de plus en avant avec l'avènement des qubits supraconducteurs couplés ultra-fortement à des guides d'ondes ouverts. Dans ce contexte, un qubit devient simultanément couplé à de nombreux modes du guide d'onde, se transformant ainsi en un objet hybride lumière-matière hautement intriqué. L'étude de nouveaux phénomènes dynamiques qui émergent de la grande complexité de ces systèmes quantiques à N-corps est l'objectif principal de cette thèse.Dans une première étape cruciale, nous abordons l'évolution dans le temps d'un tel système en utilisant une nouvelle technique numérique basée sur un développement complet du vecteur d'état en termes d'états cohérents multimodes. Inspirée par des approches semi-classiques antérieures, cette technique numériquement exacte fournit un progrès important par rapport aux méthodes de pointe qui ont été utilisées jusqu'à présent pour étudier le régime de couplage ultra-fort à N-corps. Fondamentalement, cette approche préserve également le détail de la dynamique du système complet réunissant le guide d'onde et le qubit, permettant à la fois d'effectuer la tomographie et d'extraire la diffusion multi-particule des degrés de liberté du guide d'onde.Une exploration du régime de couplage ultra-fort multi-mode utilisant cette nouvelle technique a conduit aux deux prédictions théoriques fondamentales de cette thèse. La première démontre que le rayonnement émis spontanément par un qubit excité prend la forme d'un chat de Schrödinger de lumière, un résultat étonnamment différent de l'émission de photon unique habituelle en optique quantique. La seconde prédiction concerne la diffusion de signaux cohérents de faible puissance sur un qubit, un protocole expérimental très courant en laboratoire. De façon remarquable, il est montré que la non-linéarité du qubit, transférée au guide d'onde par l'interaction ultra-forte avec la lumière, est capable de diviser les photons du faisceau entrant en plusieurs photons de plus basse énergie, conduisant à l'émergence d'un continuum basse fréquence dans le spectre de puissance, qui domine le signal hors-résonant. En étudiant la fonction de corrélation de second ordre dans le champ rayonné, il est également démontré que l'émission en couplage ultra-fort présente des signatures caractéristiques de la production de particules.Dans la dernière partie de la thèse, la fonction de corrélation de second ordre est à nouveau étudiée, mais cette fois expérimentalement, et dans le régime du couplage modéré. Bien que les mesures soient encore préliminaires, cette partie de la thèse présente un compte-rendu instructif de la théorie de la mesure du signal et permet de comprendre en détail la procédure expérimentale impliquée dans la mesure des signaux quantiques. De plus, à l'avenir, les développements expérimentaux et les outils de simulation décrits pourraient être appliqués aux signaux émis par des qubits ultra-fortement couplés, afin d'observer les signatures de production de particules révélées par la fonction de corrélation du second ordre. / In the recent years, the field of light-matter interaction has made a further stride forward with the advent of superconducting qubits ultra-strongly coupled to open waveguides. In this setting, the qubit becomes simultaneously coupled to many different modes of the waveguide, thus turning into a highly intricate light-matter object. Investigating the wealth of new dynamical phenomena that emerge from the high complexity of these engineered quantum many-body systems is the main objective of this thesis.As a first crucial step, we tackle the time-evolution of such a non-trivial system using a novel numerical technique based on an expansion of the full state vector in terms of multi-mode coherent states. Inspired by earlier semi-classical approaches, this numerically exact method provides an important advance compared to the state-of-the-art techniques that have been used so far to study the many-mode ultra-strong coupling regime. Crucially, it also keeps track of every detail of the dynamics of the complete qubit-waveguide system, allowing both to perform the tomography and to extract multi-particle scattering of the waveguide degrees of freedom.An exploration of the many-mode ultra-strong coupling regime using this new technique led to the two core theoretical predictions of this thesis. The first demonstrates that the radiation spontaneously emitted by an excited qubit takes the form of a Schrödinger cat state of light, a result strikingly different from the usual single-photon emission known from standard quantum optics. The second prediction concerns the scattering of low-power coherent signals on a qubit, a very common experimental protocol performed routinely in laboratories. Most remarkably, it is shown that the qubit non-linearity, transferred to the waveguide through the ultra-strong light-matter interaction, is able to split photons from the incoming beam into several lower-energy photons, leading to the emergence of a low-frequency continuum in the scattered power spectrum that dominates the inelastic signal. By studying the second-order correlation function of the radiated field, it is also shown that emission at ultra-strong coupling displays characteristic signatures of particle production.In the final part of the thesis, the second-order correlation function is investigated again, but this time experimentally, and in the regime of moderate coupling. Although the results are still preliminary, this part of the thesis will provide an instructive account of signal measurement theory and will allow to understanding in-depth the experimental procedure involved in measuring quantum microwave signals. Moreover, the experimental developments and microwave simulations tools described in this section could be applied in the future to signals emitted by ultra-strongly coupled qubits, in order to observe the signatures of particle production revealed by the second-order correlation function.
552

Configurations centrales en toile d'araignée

Hénot, Olivier 10 1900 (has links)
No description available.
553

Conceptual design of shapes by reusing existing heterogeneous shape data through a multi-layered shape description model and for VR applications / Design conceptuel de formes par exploitation de données hétérogènes au sein d’un modèle de description de forme multi-niveaux et pour des applications de RV

Li, Zongcheng 28 September 2015 (has links)
Les récentes avancées en matière de systèmes d'acquisition et de modélisation ont permis la mise à disposition d'une très grande quantité de données numériques (e.g. images, vidéos, modèles 3D) dans différents domaines d'application. En particulier, la création d'Environnements Virtuels (EVs) nécessite l'exploitation de données nu-mériques pour permettre des simulations et des effets proches de la réalité. Malgré ces avancées, la conception d'EVs dédiés à certaines applications requiert encore de nombreuses et parfois laborieuses étapes de modélisation et de traitement qui impliquent plusieurs experts (e.g. experts du domaine de l'application, experts en modélisation 3D et programmeur d'environnements virtuels, designers et experts communication/marketing). En fonction de l'application visée, le nombre et le profil des experts impliqués peuvent varier. Les limitations et difficultés d'au-jourd'hui sont principalement dues au fait qu'il n'existe aucune relation forte entre les experts du domaine qui ont des besoins, les experts du numérique ainsi que les outils et les modèles qui prennent part au processus de déve-loppement de l'EV. En fait, les outils existants focalisent sur des définitions souvent très détaillées des formes et ne sont pas capables de supporter les processus de créativité et d'innovation pourtant garants du succès d'un pro-duit ou d'une application. De plus, la grande quantité de données numériques aujourd'hui accessible n'est pas réellement exploitée. Clairement, les idées innovantes viennent souvent de la combinaison d'éléments et les don-nées numériques disponibles pourraient être mieux utilisées. Aussi, l'existence de nouveaux outils permettant la réutilisation et la combinaison de ces données serait d'une grande aide lors de la phase de conception conceptuelle de formes et d'EVs. Pour répondre à ces besoins, cette thèse propose une nouvelle approche et un nouvel outil pour la conception conceptuelle d'EVs exploitant au maximum des ressources existantes, en les intégrant et en les combinant tout en conservant leurs propriétés sémantiques. C'est ainsi que le Modèle de Description Générique de Formes (MDGF) est introduit. Ce modèle permet la combinaison de données multimodales (e.g. images et maillages 3D) selon trois niveaux : Conceptuel, Intermédiaire et Données. Le niveau Conceptuel exprime quelles sont les différentes parties de la forme ainsi que la façon dont elles sont combinées. Chaque partie est définie par un Elément qui peut être soit un Composant soit un Groupe de Composants lorsque ceux-ci possèdent des carac-téristiques communes (e.g. comportement, sens). Les Eléments sont liés par des Relations définies au niveau Con-ceptuel là où les experts du domaine interagissent. Chaque Composant est ensuite décrit au niveau Données par sa Géométrie, sa Structure et ses informations Sémantiques potentiellement attachées. Dans l'approche proposée, un Composant est une partie d'image ou une partie d'un maillage triangulaire 3D. Quatre Relations sont proposées (fusion, assemblage, shaping et localisation) et décomposées en un ensemble de Contraintes qui contrôlent la po-sition relative, l'orientation et le facteur d'échelle des Composants au sein de la scène graphique. Les Contraintes sont stockées au niveau Intermédiaire et agissent sur des Entités Clés (e.g. points, des lignes) attachées à la Géo-métrie ou à la Structure des Composants. Toutes ces contraintes sont résolues en minimisant une fonction énergie basée sur des grandeurs physiques. Les concepts du MDGF ont été implémentés et intégrés au sein d'un outil de design conceptuel développé par l'auteur. Différents exemples illustrent le potentiel de l'approche appliquée à différents domaines d'application. / Due to the great advances in acquisition devices and modeling tools, a huge amount of digital data (e.g. images, videos, 3D models) is becoming now available in various application domains. In particular, virtual envi-ronments make use of those digital data allowing more attractive and more effectual communication and simula-tion of real or not (yet) existing environments and objects. Despite those innovations, the design of application-oriented virtual environment still results from a long and tedious iterative modeling and modification process that involves several actors (e.g. experts of the domain, 3D modelers and VR programmers, designers or communica-tions/marketing experts). Depending of the targeted application, the number and the profiles of the involved actors may change. Today's limitations and difficulties are mainly due to the fact there exists no strong relationships between the expert of the domain with creative ideas, the digitally skilled actors, the tools and the shape models taking part to the virtual environment development process. Actually, existing tools mainly focus on the detailed geometric definition of the shapes and are not suitable to effectively support creativity and innovation, which are considered as key elements for successful products and applications. In addition, the huge amount of available digital data is not fully exploited. Clearly, those data could be used as a source of inspiration for new solutions, being innovative ideas frequently coming from the (unforeseen) combination of existing elements. Therefore, the availability of software tools allowing the re-use and combination of such digital data would be an effective support for the conceptual design phase of both single shapes and VR environments. To answer those needs, this thesis proposes a new approach and system for the conceptual design of VRs and associated digital assets by taking existing shape resources, integrating and combining them together while keeping their semantic meanings. To support this, a Generic Shape Description Model (GSDM) is introduced. This model allows the combination of multimodal data (e.g. images and 3D meshes) according to three levels: conceptual, intermediate and data levels. The conceptual level expresses what the different parts of a shape are, and how they are combined together. Each part of a shape is defined by an Element that can either be a Component or a Group of Components when they share common characteristics (e.g. behavior, meaning). Elements are linked with Relations defined at the Concep-tual level where the experts in the domain are acting and exchanging. Each Component is then further described at the data level with its associated Geometry, Structure and potentially attached Semantics. In the proposed ap-proach, a Component is a part of an image or a part of a 3D mesh. Four types of Relation are proposed (merging, assembly, shaping and location) and decomposed in a set of Constraints which control the relative position, orien-tation and scaling of the Components within the 3D viewer. Constraints are stored at the intermediate level and are acting on Key Entities (such as points, a lines, etc.) laying on the Geometry or Structure of the Components. All these constraints are finally solved while minimizing an additional physically-based energy function. At the end, most of the concepts of GSDM have been implemented and integrated into a user-oriented conceptual design tool totally developed by the author. Different examples have been created using this tool demonstrating the potential of the approach proposed in this document.
554

Fully self-consistent multiparticle-multihole configuration mixing method : applications to a few light nuclei / Méthode de mélange de configuration multiparticules-multitrous complètement auto-cohérente : application à quelques noyaux légers

Robin, Caroline 30 September 2014 (has links)
Ce travail de thèse s'inscrit dans le cadre du développement de la méthode de mélange de configurations multiparticules-multitrous visant à décrire les propriétés de structure des noyaux atomiques. Basée sur un double principe variationnel, cette approche permet de déterminer simultanément les coefficients d'expansion de la fonction d'onde et les orbitales individuelles.Dans ce manuscrit, le formalisme complet méthode de mélange de configurations multiparticules-multitrous auto-cohérente est pour la première fois appliqué à la description de quelques noyaux des couches p et sd, avec l'interaction de Gogny D1S.Un première étude du 12C est effectuée afin de tester et comparer le double processus de convergence lorsque différents types de critères sont appliqués pour sélectionner les configurations à N-corps inclues dans la fonction d'onde du noyau. Une analyse détaillée de l'effet induit par l'optimisation des orbitales est conduite. En particulier, son impact sur la densité à un corps et sur la fragmentation de la fonction d'onde de l'état fondamental, est analysé.Une étude systématique de noyaux de la couche sd est ensuite conduite. Une analyse précise du contenu en corrélation de l'état fondamental est effectuée, et quelques quantités observables telles que les énergies de liaison et de séparation, ainsi que les rayons de charge, sont calculées et comparées à l'expérience. Les résultats obtenus sont satisfaisants. La spectroscopie de basse énergie est ensuite étudiée. Les énergies d'excitation théoriques sont en très bon accord avec les données expérimentales, et les caractéristiques dipolaires magnétiques sont également satisfaisantes. Les propriétés quadripolaires électriques, et en particulier les probabilités de transition B(E2), sont par contre largement sous-estimée par rapport aux valeurs expérimentales, et révèle un manque important de collectivité dans la fonction d'onde, dû à l'espace de valence restreint considéré. Si la renormalisation des orbitales induit une importante fragmentation de la fonction d'onde de l'état fondamental, seul un effet très faible est obtenu sur les probabilités de transition B(E2). Une tentative d'explication est donnée.Enfin, les informations de structure fournies par la méthode de mélange de configurations multiparticules-multitrous sont utilisées comme ingrédient de base pour des calculs de réactions telles que la diffusion inélastique de protons et d'électrons sur noyaux de la couche sd. Si les résultats révèlent aussi un manque de collectivité, les tendances expérimentales sont bien reproduites et sont améliorées par l'optimisation des orbitales. / This thesis project takes part in the development of the multiparticle-multihole configuration mixing method aiming to describe the structure of atomic nuclei. Based on a double variational principle, this approach allows to determine the expansion coefficients of the wave function and the single-particle states at the same time. In this work we apply for the first time the fully self-consistent formalism of the mp-mh method to the description of a few p- and sd-shell nuclei, using the D1S Gogny interaction.A first study of the 12C nucleus is performed in order to test the doubly iterative convergence procedure when different types of truncation criteria are applied to select the many-body configurations included in the wave-function. A detailed analysis of the effect caused by the orbital optimization is conducted. In particular, its impact on the one-body density and on the fragmentation of the ground state wave function is analyzed.A systematic study of sd-shell nuclei is then performed. A careful analysis of the correlation content of the ground state is first conducted and observables quantities such as binding and separation energies, as well as charge radii are calculated and compared to experimental data. Satisfactory results are found. Spectroscopic properties are also studied. Excitation energies of low-lying states are found in very good agreement with experiment, and the study of magnetic dipole features are also satisfactory. Calculation of electric quadrupole properties, and in particular transition probabilities B(E2), however reveal a clear lack of collectivity of the wave function, due to the reduced valence space used to select the many-body configurations. Although the renormalization of orbitals leads to an important fragmentation of the ground state wave function, only little effect is observed on B(E2) probabilities. A tentative explanation is given.Finally, the structure description of nuclei provided by the multiparticle-multihole configuration mixing method is utilized to study reaction mechanisms such as electron and proton inelastic scattering on sd-shell nuclei. Although the results also suffer from the lack of collectivity, the experimental trends are well reproduced and improved by the orbital optimization.
555

Pour une éducation libératrice : alliances conceptuelles entre Deleuze et Bergson / In favor of a liberatin education : conceptual alliances between Deleuze and Bergson / Por uma educação liberadora : alianças conceituais entre Deleuze e Bergson

Sanfelice Zeppini, Paola 16 October 2017 (has links)
La critique deleuzienne de l’image dogmatique de la pensée vise à la création d’autres manières de concevoir ce que signifie penser. Une telle critique nous permet d’opérer certains déplacements afin de vérifier les résonances productives entre philosophie et d’autres formes de production de la connaissance. En ce qui concerne les problèmes s’imposant au domaine de l’éducation, le but du présent travail consiste à penser les possibilités d’une éducation marquée par des mouvements qui dégagent d’autres manières de penser capables de frayer la voie à des processus de création visant à d’autres formes de vie plus puissantes et joyeuses. Pour ce faire, on partira de l’alliance conceptuelle établie entre Gilles Deleuze et Henri Bergson afin de vérifier de quelle manière la méthode de l’intuition permet de mettre en évidence le rôle central des problèmes et la façon dont on les pose, cela dans le but d’affirmer la nécessité pour chaque participant d’une processualité éducationnelle de soulever les questionnements vitaux qui le traversent. Les différences existantes entre le savoir en tant que résultat et l’apprendre en tant que processus, nous conduiront à remettre en question la notion de sujet et à affirmer la vie comme un mouvement de création et de différenciation constante, ce que nous permettra de penser la libération éducationnelle en termes d’augmentation de la capacité réceptive et de déclenchement de liaisons inattendues. Il s’agit en effet d’affirmer notre capacité de renforcer la différenciation de soi-même qui nous constitue et l’apprendre comme opérateur intensif qui relie les mouvements d’organisation et d’explosion créative. / Within the context of Gilles Deleuze critique to the dogmatic image of thought in support of the creation of other ways of grasping the meaning of what it is to think, displacements may be produced so as to ascertain productive resonances between philosophy and other forms of knowledge production. Amidst questions which impose themselves to the field of education, this thesis aims to think about the possibilities of an education marked by movements that liberate other ways of thinking and are capable of triggering processes which lead to the creation of more potent and happier ways of living. In order to achieve this, our analysis starts out with the conceptual alliance established between Gilles Deleuze and Henri Bergson, so that we may ascertain in which ways the method of intuition enables one to affirm the importance of not only the questions themselves, but also the way in which they are posed; and thus also affirm how necessary it is for a participant of an educational process to be able to raise vital questions that they may be going through. The existing differences between knowledge as a result and learning as a process lead to challenging of the notion of subject and to the affirmation of life as an ongoing creation and differentiation movement, that enable one to conceive the liberation that interests us in terms of the receptive capacity increase and of the triggering of unusual connexions. That is, to affirm our capacity to bolster the act of differing from oneself, which constitutes us, and the act of learning as an intensive operator that connects movements of organization and of creative explosion. / No âmbito da crítica feita por Gilles Deleuze à imagem dogmática do pensamento em proveito da criação de outras maneiras de se dar o que significa pensar, deslocamentos podem ser operados no sentido de verificar ressonâncias produtivas entre a filosofia e outras formas de produção de conhecimento. Em meio a problemas que se impõem ao campo da educação, este trabalho busca pensar as possibilidades de uma educação marcada por movimentos liberadores de outras maneiras de pensar e que sejam capazes de abrir processos de criação de maneiras mais potentes e alegres de viver. Para tanto, parte-se da aliança conceitual estabelecida entre Gilles Deleuze e Henri Bergson para verificar de quais modos o método da intuição permite afirmar a importância dos problemas e da forma como são colocados, para afirmar também a necessidade de que cada partícipe de uma processualidade educacional possa por em pauta os questionamentos vitais que o atravessam. As diferenças existentes entre o saber como resultado e o aprender como processo levam à problematização da noção de sujeito e a afirmação da vida como movimento de criação e de diferenciação constante, o que permite pensar a liberação que nos interessa em termos de aumento de capacidade receptiva e disparação de conexões inusitadas. Trata-se de afirmar nossa capacidade de potencializar o diferir de si mesmo que nos constitui e o aprender como operador intensivo que conecta movimentos de organização e de explosão criativa.
556

Métaheuristiques hybrides distribuées et massivement parallèles / Hybrid metaheuristics distributed and massively parallel

Abdelkafi, Omar 07 November 2016 (has links)
De nombreux problèmes d'optimisation propres à différents secteurs industriels et académiques (énergie, chimie, transport, etc.) nécessitent de concevoir des méthodes de plus en plus efficaces pour les résoudre. Afin de répondre à ces besoins, l'objectif de cette thèse est de développer une bibliothèque composée de plusieurs métaheuristiques hybrides distribuées et massivement parallèles. Dans un premier temps, nous avons étudié le problème du voyageur de commerce et sa résolution par la méthode colonie de fourmis afin de mettre en place les techniques d'hybridation et de parallélisation. Ensuite, deux autres problèmes d'optimisation ont été traités, à savoir, le problème d'affectation quadratique (QAP) et le problème de la résolution structurale des zéolithes (ZSP). Pour le QAP, plusieurs variantes basées sur une recherche taboue itérative avec des diversifications adaptatives ont été proposées. Le but de ces propositions est d'étudier l'impact de : l'échange des données, des stratégies de diversification et des méthodes de coopération. Notre meilleure variante est comparée à six des meilleurs travaux de la littérature. En ce qui concerne le ZSP, deux nouvelles formulations de la fonction objective sont proposées pour évaluer le potentiel des structures zéolitiques trouvées. Ces formulations sont basées sur le principe de pénalisation et de récompense. Deux algorithmes génétiques hybrides et parallèles sont proposés pour générer des structures zéolitiques stables. Nos algorithmes ont généré actuellement six topologies stables, parmi lesquelles trois ne sont pas répertoriées sur le site Web du SC-IZA ou dans l'Atlas of Prospective Zeolite Structures. / Many optimization problems specific to different industrial and academic sectors (energy, chemicals, transportation, etc.) require the development of more effective methods in resolving. To meet these needs, the aim of this thesis is to develop a library of several hybrid metaheuristics distributed and massively parallel. First, we studied the traveling salesman problem and its resolution by the ant colony method to establish hybridization and parallelization techniques. Two other optimization problems have been dealt, which are, the quadratic assignment problem (QAP) and the zeolite structure problem (ZSP). For the QAP, several variants based on an iterative tabu search with adaptive diversification have been proposed. The aim of these proposals is to study the impact of: the data exchange, the diversification strategies and the methods of cooperation. Our best variant is compared with six from the leading works of the literature. For the ZSP two new formulations of the objective function are proposed to evaluate the potential of the zeolites structures founded. These formulations are based on reward and penalty evaluation. Two hybrid and parallel genetic algorithms are proposed to generate stable zeolites structures. Our algorithms have now generated six stable topologies, three of them are not listed in the SC-JZA website or in the Atlas of Prospective Zeolite Structures.
557

De la mise à l’épreuve de l’alimentation par l’antibiorésistance au développement des concepts sans antibiotique et One Health ˸ publicisation et communication en France et aux États-Unis / From the recognition of the link between antibiotic resistance and food to the development of the antibiotic free production and the One Health approach ˸ publicization and communication in France and in the United States

Badau, Estera-Tabita 20 May 2019 (has links)
Dans une perspective comparative entre la France et les États-Unis, ce travail analyse le processus de publicisation des liens entre l’antibiorésistance et l’alimentation, ainsi que ses implications en termes de contribution au développement de la production appelée sans antibiotique et de l’approche One Health. En partant de la prise de conscience des conséquences de l’usage des antibiotiques dans l’élevage, la recherche s’inscrit dans une réflexion pragmatiste de constitution des problèmes publics et s’appuie sur un corpus hybride composé de documents publiés entre 1980 et 2016 (presse écrite, littérature institutionnelle et entretiens semi-directifs). La méthode développée s’enrichit des outils de textométrie issus de l’analyse de discours et s’intéresse à l’émergence des dénominations et des formules qui nomment le problème, ses causes et ses solutions. La comparaison montre que le processus de publicisation de liens entre l’antibiorésistance et l’alimentation dévoile une trajectoire opposée dans les deux pays. Dans le cas français, ce processus s’inscrit dans un schéma top-down et se caractérise par une publicisation tardive faisant suite aux démarches des instances sanitaires européennes et internationales. L’appropriation du problème par des associations de consommateurs, ainsi que l’investissement des acteurs agroalimentaires dans le développement de la production sans antibiotique, n’émergent que récemment. En revanche, aux États-Unis, ce processus s’inscrit dans un modèle bottom-up suite à la constitution d’un public d’organisations non gouvernementales autour du problème. Leur mobilisation a contribué significativement au développement de programmes d’élevage sans antibiotique ainsi qu’à la mise à l’agenda gouvernemental du problème et le lancement d’un plan national dans une approche One Health. / In a cross-country perspective between France and the United States, this research analyses the process of publicizing the links between antibiotic resistance and food, as well as its contribution to the development of the antibiotic free production and the implementation of the One Health approach. Starting with the awareness of the antibiotic use in livestock consequences, the study relies on the pragmatist approach of the constitution of the public problems. It is based on wide corpora composed by documents published between 1980 and 2016 (written press, institutional literature and semi-directive interviews). The analysis method uses textometric tools derived from discourse analysis and focuses on the emergence of formulas that name the problem, its causes and its solutions. The comparison uncovers an opposite process between the two countries. In France, this process is part of a top-down approach and is characterized by a late publicization following the European and international health authorities’ initiatives. The consumer associations taking over the problem, as well as the agri-food actors’ commitment to the antibiotic free production, is very recent. In the United States, this process reveals a bottom-up model following a non-governmental organizations public constitution taking over the problem. Their mobilization has contributed to the development of the antibiotic free breeding programs, as well as to place the problem on the government agenda that launched a national plan in a One Health approach.
558

Planning and routing via decomposition approaches / Planification et Routage via les Approches de Décomposition

Rahmani, Nastaran 26 June 2014 (has links)
Problèmes de tournées de véhicules statiques et déterministes ne peuvent pas être utilisés dans de nombreux systémes de la vieréelle, du fait que les données d’entrée ne sont pas fiables et sont révélées au fil du temps. Dans cette thèse, nous étudions un problème de ramassage et de livraison avec fenêtres de temps et un maximum de temps de trajet - le problème dial-a-ride - dans sa variante statique et dynamique, et nous faisons des propositions spécifiques sur les modèles d’optimisation robustes pour résoudre ce problème. Pour résoudre le modèle statique, nous développons une approche branch-and-price qui gère toutes les contraintes detemps dans le processus de création d’itinéraires de véhicules. Notre travail est axé sur les techniques de résolution du sous-problème et d’accélération pour l’approche branch-and-price. Nos résultats numériques montrent que la méthode est compétitive par rapport aux approches existantes qui sont basées sur le branch-and-cut. Dans le contexte dynamique, où certaines données d’entrée sont révélées dynamiquement ou modifiées au fil du temps, nous appliquons notre algorithme branch-and-price pour la ré-optimisation dans une approche sur horizon glissant. / Static and deterministic vehicle routing problems cannot be used in many real-life systems, as input data are not reliable and revealedover time. In this thesis, we study a pickup and delivery problem with time windows accounting for maximum ride time constraints – the so-called diala- ride problem – in its static and dynamic variant, and we make specific proposal on robust optimization models for this problem. To solve the static model, we develop a branch-and-price approach that handles ride time constraints in the process of generating feasible vehicle routes in the course of the optimization procedure. Our work is focussed on the pricing problem solver and acceleration techniques for the branch-and-price approach. Our numerical results show that the method is competitive compared to existing approaches that are based on branch-and-cut. In the dynamic context, where some input data are revealed or modified over time, we apply our branchand- price algorithm for re-optimization in a rolling horizon approach.
559

Modeling and Solving Home Health Care Routing and Scheduling Problem with Consideration of Uncertainties / Modélisation et résolution des problèmes de routage et de planification des soins de santé à domicile liés à la prise en compte des incertitudes

Shi, Yong 27 November 2018 (has links)
Les soins de santé à domicile (HHC) sont un large éventail de services de santé pouvant être dispensés à domicile pour une maladie ou une blessure. Ces dernières années, le secteur des soins de santé est devenu l'un des plus grands secteurs de l'économie des pays développés. L'un des défis les plus importants dans le domaine des HHC consiste à affecter plus efficacement les ressources en main-d'œuvre et les équipements sous des ressources limitées. Étant donné que le coût du transport est l’une des dépenses les plus critiques dans les activités de l’entreprise, il est très important d’optimiser le problème de routage des véhicules pour les sociétés HHC.Cependant, la majorité des travaux existants ne prennent en compte que le modèle déterministe. Dans la pratique de HHC, le décideur et les aidants rencontrent souvent des incertitudes. Il est donc essentiel d'intégrer l'incertitude dans le modèle pour établir un calendrier raisonnable pour la société HHC. Cette thèse aborde le problème du routage et de la planification HHC en prenant en compte respectivement la demande non déterministe, le service et le temps de parcours. Le corps principal de la thèse est composé de trois œuvres indépendantes.(1) Sur la base de la théorie de la crédibilité floue, nous avons proposé un modèle de programmation par contraintes de hasard flou (FCCP) pour le problème de routage HHC avec une demande floue. Ce modèle présente à la fois des caractéristiques d'optimisation combinatoire et de FCCP. Pour faire face au problème à grande échelle, nous avons développé un algorithme génétique hybride avec la simulation de Monte Carlo. Trois séries d'expériences ont été menées pour valider les performances du modèle et de l'algorithme proposés. Enfin, l’analyse de sensibilité a également porté sur l’observation du paramètre variable impliqué dans la prise de décision floue.(2) En fonction de l'activité des soignants de HHC, nous avons proposé un modèle de programmation stochastique en deux étapes avec recours (SPR) pour la livraison et la reprise simultanées avec des temps de trajet et de service stochastiques dans HHC. Pour résoudre le modèle, nous avons d’une part réduit le modèle au cas déterministe. Le solveur de Gurobi, le recuit simulé (SA), l’algorithme de chauve-souris, l’algorithme de luciole ont été proposés pour résoudre le modèle déterministe pour 56 instances respectivement. Enfin, le SA a été adopté pour traiter le modèle SPR. Une comparaison entre les solutions obtenues par les deux modèles a également été réalisée pour mettre en évidence la prise en compte des temps de parcours et de service stochastiques.(3) Pour garantir la qualité du service, sur la base d’un budget de la théorie de l’incertitude, nous avons proposé un modèle d’optimisation robuste (RO) pour HHC Routing, prenant en compte les exigences en termes de temps de déplacement et de service. La vérification de la solution réalisable a été réécrite en tant que fonction récursive complexe. Recherche tabou, SA, Recherche de voisinage variable sont également adaptés pour résoudre le modèle. Un grand nombre d'expériences ont été réalisées pour évaluer le modèle déterministe et le modèle RO. Une analyse de sensibilité des paramètres a également été effectuée. / Home health care (HHC) is a wide range of healthcare services that can be given in one's home for an illness or injury. In recent years, the healthcare industry has become one of the largest sectors of the economy in developed countries. One of the most significant challenges in HHC domain is to assign the labor resources and equipment more efficiently under limited resources. Since the transportation cost is one of the most critical spendings in the company activities, it is of great significance to optimize the vehicle routing problem for HHC companies.However, a majority of the existing work only considers the deterministic model. In the practical of HHC, the decision-makers and caregivers often encounter with uncertainties. So, it is essential to incorporate the uncertainty into the model to make a reasonable and robust schedule for HHC company. This thesis addresses the HHC routing and scheduling problem with taking into account the non-deterministic demand, uncertain service and travel time respectively. The main body the thesis is composed of three independent works.(1) Based on the Fuzzy Credibility Theory, we proposed a fuzzy chance constraint programming (FCCP) model for HHC routing problem with fuzzy demand. This model has both characteristics of combinatorial optimization and FCCP. To deal with the large-scale problem, we developed a Hybrid Genetic Algorithm with the Monte Carlo simulation. Three series of experiments were conducted to validate the performance of the proposed model and algorithm. At last the sensitivity analysis was also carried out the observe the variable parameter involved in the fuzzy decision-making.(2) According to the activity of the caregivers in HHC, we proposed a two-stage stochastic programming model with recourse (SPR) for the simultaneous delivery and pick-up with stochastic travel and service times in HHC. To solve the model, firstly, we reduced the model to the deterministic one. Gurobi Solver, Simulated Annealing (SA), Bat Algorithm (BA), Firefly Algorithm (FA) were proposed to solve the deterministic model for 56 instances respectively. At last the SA was adopted to address the SPR model. Comparison between the solutions obtained by the two models was also conducted to highlight the consideration of the stochastic travel and service times.(3) To guarantee the service quality, based on a budget of uncertainty theory, we proposed a Robust Optimization (RO) model for HHC Routing with considering skill requirements under travel and service times uncertainty. The feasible solution check was rewritten as a complex recursive function. Tabu Search, SA, Variable Neighborhood Search are adapted to solve the model. A large number of experiments had been performed to evaluate the deterministic model and the RO model.
560

Contrôle endogène des systêmes multi-agents pour la résolution de problèmes complexes / Endogenous control of multi-agents systems for solving complex problems

Lefevre, Olivier 05 October 2010 (has links)
Ces travaux abordent la problématique du contrôle endogène dans les Systèmes Multi-Agents (SMA) pour la résolution de problèmes complexes, que nous explorons grâce au problème de partage de ressources critiques. Les problèmes dits complexes que nous abordons se caractérisent par une explosion combinatoire du nombre de solutions avec la taille des problèmes, une forte dynamique des données du problème induite par un environnement ouvert dans lequel de nombreux événements peuvent avoir lieu, une grande complexité systémique issue des interdépendances entre les nombreuses variables du problèmes et enfin une décentralisation du processus de résolution imposée par une distribution physique et fonctionnelle des variables incompatible avec une vision centralisée du problème. Un parcours complet des espaces de recherche associés à de tels problèmes est irréaliste en un temps acceptable, il est alors nécessaire d'employer des méthodes de résolution dite incomplètes. Quelque soit l'approche incomplète considérée, le parcours incomplet de l'espace de recherche requiert un contrôle afin de maximiser la probabilité de converger vers une solution satisfaisante. Nous identifions trois niveaux de contrôle du parcours de l'espace de recherche indépendamment de l'approche utilisée : un contrôle statique (définition a priori du comportement du système), un contrôle dynamique (évoluant en cours de résolution selon des mécanismes préétablis) et un contrôle adaptatif (évoluant dynamiquement en cours de résolution). Nous montrons qu'un contrôle endogène de l'activité du système, c.-à-d. un contrôle adaptatif issu de l'activité même des agents, est nécessaire au guidage du parcours de l'espace de recherche dans le contexte de résolution de problèmes complexes. Ces travaux ayant été réalisés dans un contexte de collaboration industrielle, ils s'appuient sur une approche développée au cours de précédents travaux : CESNA (Complex Exchanges between Stigmergic Negotiating Agents). CESNA est une approche multi-agents auto-organisationnelle exploitant des agents situés dans un environnement matérialisant le problème et exploité par un processus de résolution basé sur une négociation stigmergique entre les agents. Le cas applicatif utilisé par l'approche CESNA et permettant d'illustrer ces travaux est le problème de partage de ressources critiques, caractérisé par un ensemble restreint de ressources exploitées par un grand nombre de consommateurs. Nos contributions sont de deux types : nous avons dans un premier temps proposé des évolutions de la représentation du problème exploitée par l'approche initiale (CESNA) afin d'en supprimer les limitations interdisant un passage à l'échelle, et dans un second temps, nous avons défini un nouveau modèle (MANA : Multi-level bAlancing Negotiating Agents) exploitant cette nouvelle représentation à l'aide d'un nouveau processus de résolution basé sur des mécanismes endogènes de contrôle de l'activité du système. Ces mécanismes reposent sur la matérialisation des effets microscopiques du phénomène macroscopique à orienter (le parcours de l'espace de recherche) afin de le rendre perceptible localement par les agents. Nos mesures montrent que ce nouveau modèle permet le passage à l'échelle (la résolution de problèmes industriels de grande taille) et une amélioration significative des performances de résolution par rapport à l'approche initiale montrant ainsi l'efficacité du guidage permis par les mécanismes utilisés. / This work addresses the issue of the endogenous control of Multi-Agents Systems (MAS) for solving complex problems, which we explore through the critical resources sharing problem. The complex problems we address are characterized by a combinatorial explosion of number of solutions with the size of the problems, a strong dynamic of the problem's data caused by an open environment in which many events can take place, a huge systemic complexity caused by the interdependencies between the many variables of the problem and a decentralization of the resolution process imposed by a physical and functional distribution of the variables incompatible with a centralized view of the problem. A complete course of the search space associated with such problems is unrealistic in an acceptable time, it is necessary to employ resolution methods known as incomplete. Whatever the incomplete approach considered, the incomplete course of the search space requires a control to maximize the probability of converging to a satisfactory solution. We identify three levels of control of the course of the search space regardless of the used approach : a static control (textit a priori definition of the behavior of the system), a dynamic control (evolving during the resolution according to pre-established mechanisms) and adaptive control (dynamically evolving during resolution). We show that an endogenous control of the system activity, ie. an adaptive control from the agents activity, is necessary to guide the course of the search space in the context of solving complex problems. This work was made in a context of industrial collaboration, they rely on an approach developed in previous work : CESNA (Complex Exchanges Between Stigmergic Negotiating Agents). CESNA is a multi-agent self-organizational approach using agents situated in an environment embodying the problem and used by a resolution process based on a stigmergic negotiation between agents. The application used by the CESNA approach allowing to illustrate this work is the critical resources sharing problem, characterized by a limited set of resources exploited by many consumers. Our contributions are of two kinds : we initially proposed changes in the representation of the problem used by the initial approach (CESNA) to remove restrictions prohibiting scalability, and in a second time we defined a new model (MANA : Multi-level balancing Negotiating Agents) using this new representation with a new resolution process based on endogenous control mechanisms of the system activity. These mechanisms are based on the materialization of the microscopic effects of the macroscopic phenomenon to direct (the path in the search space) to make it noticeable by agents. Our measurements show that this new model allows the scaling (the resolution of industrial problems) and a significant performances improvement of the resolution showing the effectiveness of the control allowed by the mechanisms used.

Page generated in 0.0762 seconds