• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 689
  • 335
  • 71
  • 2
  • Tagged with
  • 1113
  • 511
  • 292
  • 197
  • 166
  • 141
  • 121
  • 111
  • 103
  • 98
  • 97
  • 97
  • 89
  • 81
  • 76
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
551

Contribution to fault tolerant flight control under actuator failures / Contribution à la commande tolérante aux fautes pour la conduite du vol avec panne d'actionneur

Zhong, Lunlong 27 January 2014 (has links)
L'objectif de cette thèse est d'optimiser l'utilisation d'actionneurs redondants pour un avion de transport lorsqu’une défaillance des actionneurs arrive en vol. La tolérance aux pannes résulte ici de la redondance des actionneurs présents sur l’avion. Différents concepts et méthodes classiques liés aux chaînes de commande de vol tolérantes aux pannes sont d'abord examinés et de nouveaux concepts utiles pour l'analyse requise sont introduits. Le problème qui est abordé ici est de développer une méthode de gestion des pannes des commandes de vol dans le cas d'une défaillance partielle des actionneurs, qui va permettre à l'avion de poursuivre en toute sécurité la manœuvre prévue. Une approche de commande en deux étapes est proposée et appliquée à la fois à l'évaluation de la manoeuvrabilité restante et à la conception de structures de commande tolérante aux pannes. Dans le premier cas, une méthode d'évaluation hors ligne des qualités de vol basée sur la commande prédictive est proposée. Dans le second cas, une structure de commande tolérante aux pannes basée sur la commande non linéaire inverse et la réaffectation des actionneurs en ligne est développée. Dans les deux cas, un problème de programmation linéaire quadratique (LQ) est formulé. Différents cas de pannes sont considérés lorsqu'un avion effectue une manoeuvre classique. Trois solveurs numériques sont appliqués aux solutions en ligne et hors ligne des problèmes LQ qui en résultent. / The objective of this thesis is to optimize the use of redundant actuators for a transportation aircraft once some actuators failure occurs during the flight. Here, the fault tolerant ability resulting from the redundant actuators is mainly considered. Different classical concepts and methods related to a fault tolerant flight control channel are first reviewed and new concepts useful for the required analysis are introduced. The problem which is tackled here is to develop a design methodology for fault tolerant flight control in the case of a partial actuator failure which will allow the aircraft to continue safely the intended maneuver. A two stages control approach is proposed and applied to both the remaining maneuverability evaluation and a fault tolerant control structure design. In the first case, an offline handling qualities assessment method based on Model Predictive Control is proposed. In the second case, a fault tolerant control structure based on Nonlinear Inverse Control and online actuator reassignment is developed. In both cases, a Linear Quadratic (LQ) programming problem is formulated and different failure cases are considered when an aircraft performs a classical maneuver. Three numerical solvers are studied and applied to the offline and online solutions of the resulting LQ problems.
552

Optimisation de problème de tournées de véhicules de service à domicile / Optimization of vehicle routing problem for field service

Liu, Yihan 27 June 2017 (has links)
La performance logistique des entreprises et l’optimisation des transports sont devenues un grand problème ces dernières années. La planification et l’optimisation des services constituent en particulier un nouveau défi. Afin d’accroître la productivité et de réduire les coûts de la logistique, ce travail de recherche contribue à l’optimisation d’un problème de tournées de service à domicile multi-dépôt, multi-période avec fenêtres de temps de vie réelle. Le problème vient d’un contexte réaliste et est formulé comme un modèle en Mixed Integer Programming (MIP). Les résultats avec Cplex montrent que ce problème ne peut être résolu par des méthodes exactes dans un délai raisonnable pour une utilisation pratique. Par conséquent, nous introduisons des heuristiques. Premièrement, les heuristiques de recherche locales sont utilisées pour résoudre le problème. Les solutions réalisables initiales sont générées par une heuristique de construction et plusieurs heuristiques de recherche locales sont appliquées pour obtenir des solutions dans un temps de calcul assez court. Ensuite, nous proposons un algorithme génétique avec une nouvelle représentation du chromosome et de nouveaux opérateurs génétiques pour le problème abordé. Enfin, nous considérons un algorithme génétique avec contrôle de la diversité pour problèmes à grande échelle. Les solutions infaisables sont prises en compte dans la population et la contribution à la diversité fait partie de l’évaluation afin d’éviter une recherche prématurée. Ces méthodes ont été mises en œuvre avec succès pour optimiser le problème de routage. / The logistics performance of enterprises and the optimization of transportation have become a great issue in recent years. Field force planning and optimization is a new challenge for the service sector. In order to increase productivity and reduce cost of logistics, this research contributes to the optimization of a real-life multi-depot multi-period field service routing problem with time window. The problem is abstracted from the realistic problem and formulated as a Mixed Integer Programming (MIP) model. Computational results with Cplex show that this problem cannot be solved by exact methods in reasonable time for practical use. First, local search heuristics are used for solving the problem. Initial feasible solutions are generated by a constructive heuristic and several local search heuristics are applied to obtain solutions in a very short computing time. Then we propose a genetic algorithm with new representation of chromosome and new genetic operators for the addressed problem. Finally we consider a genetic algorithm with diversity control to deal with large scale problems. Infeasible solutions are taken account in the population and the diversity contribution is part of the evaluation to avoid premature of search. These methods have been successfully implemented to the optimization of the routing problem
553

Development of Numerical Methods to Accelerate the Prediction of the Behavior of Multiphysics under Cyclic Loading / Développement de méthodes numériques en vue d'une prédiction plus rapide du comportement multiphysique sous chargement cyclique

Al Takash, Ahmad 23 November 2018 (has links)
La réduction du temps de calcul lors de la résolution de problèmes d’évolution dans le cadre du calcul de structure constitue un enjeu majeur pour, par exemple, la mise en place de critères de rupture des pièces dans le secteur de l’aéronautique et de l’automobile. En particulier, la prédiction du cycle stabilisé des polymères sollicités sous chargement cyclique nécessite de résoudre un problème thermo-viscoélastique à grand nombre de cycles. La présence de différentes échelles de temps telles que le temps de relaxation (viscosité), le temps caractéristique associé au problème thermique et le temps du cycle de chargement conduit à un temps de calcul significatif lorsqu’un schéma incrémental est utilisé comme c’est le cas avec la méthode des éléments finis (MEF). De plus, un nombre important de données doit être stocké (au moins à chaque cycle). L’objectif de cette thèse est de proposer de nouvelles méthodes ainsi que d’étendre des méthodes existantes. Il est choisi de résoudre un problème thermique transitoire cyclique impliquant différentes échelles de temps avec l’objectif de réduire le temps de calcul réduit. Les méthodes proposées font partie des méthodes de réduction de modèles. Tout d’abord, la méthode de décomposition propre généralisée(PGD) a été étendue à un problème transitoire cyclique 3D non linéaire, la non-linéarité a été traitée en combinant la méthode PGD à la Méthode d’interpolation empirique discrète (DEIM), stratégie numérique déjà proposée dans la littérature. Les résultats ont montré l’efficacité de la PGD pour générer des résultats précis par rapport à la solution FEM avec une erreur relative inférieure à (1%). Ensuite, afin de réduire le temps de calcul, une autre approche alternative a été développée. Cette approche est basée sur l’utilisation d’une collection de modes, les modes les plus significatifs, issus de solutions PGD pour différentes échelles de temps et différentes valeurs de paramètres. Un dictionnaire regroupant ces modes est alors utilisé pour construire des solutions pour différents temps caractéristiques et différentes conditions aux limites, uniquement par projection de la solution sur les modes du dictionnaire. Cette approche a été adaptée pour traiter un problème faiblement couplé diffuso-thermique. La nouveauté de cette approche est de considérer un dictionnaire composé de bases spatio-temporelles et non pas uniquement de bases spatiales comme dans la fameuse méthode POD. Les résultats obtenus avec cette approche sont précis et permettent une réduction notable du temps de calcul on line. Néanmoins, lorsque différents temps de cycles sont considérés, le nombre de modes dans le dictionnaire augmente, ce qui en limite son utilisation. Afin de pallier cette limitation,une troisième stratégie numérique est proposée dans cette thèse. Elle consiste à considérer comme a priori connues des bases temporelles, elle est appelée stratégie mixte. L’originalité dans cette approche réside dans la construction de la base temporelle a prior basée sur l’analyse de Fourier de différentes simulations pour différents temps et différentes valeurs des paramètres. Une fois cette étude réalisée, une expression analytique des bases temporelles fonction des paramètres tels que le temps caractéristique et le temps du cycle est proposée. Les bases spatiales associées sont calculées à l’aide d’un algorithme type PGD. Cette méthode est ensuite testée pour la résolution de problèmes thermiques 3D sous chargement cyclique linéaires et non linéaires et un problème faiblement couplé thermo-diffusion. / In the framework of structural calculation, the reduction of computation time plays an important rolein the proposition of failure criteria in the aeronautic and automobile domains. Particularly, the prediction of the stabilized cycle of polymer under cyclic loading requires solving of a thermo-viscoelastic problem with a high number of cycles. The presence of different time scales, such as relaxation time (viscosity), thermal characteristic time (thermal), and the cycle time (loading) lead to a huge computation time when an incremental scheme is used such as with the Finite Element Method (FEM).In addition, an allocation of memory will be used for data storage. The objective of this thesis isto propose new techniques and to extend existent ones. A transient thermal problem with different time scales is considered in the aim of computation time reduction. The proposed methods are called model reduction methods. First, the Proper Generalized Decomposition method (PGD) was extended to a nonlinear transient cyclic 3D problems. The non-linearity was considered by combining the PGD method with the Discrete Empirical Interpolation Method (DEIM), a numerical strategy used in the literature. Results showed the efficiency of the PGD in generating accurate results compared to the FEM solution with a relative error less than 1%. Then, a second approach was developed in order to reduce the computation time. It was based on the collection of the significant modes calculated from the PGD method for different time scales. A dictionary assembling these modes is then used to calculate the solution for different characteristic times and different boundary conditions. This approach was adapted in the case of a weak coupled diffusion thermal problem. The novelty of this method is to consider a dictionary composed of spatio-temporal bases and not spatial only as usedin the POD. The results showed again an exact reproduction of the solution in addition to a huge time reduction. However, when different cycle times are considered, the number of modes increases which limits the usage of the approach. To overcome this limitation, a third numerical strategy is proposed in this thesis. It consists in considering a priori known time bases and is called the mixed strategy. The originality in this approach lies in the construction of a priori time basis based on the Fourier analysis of different simulations for different time scales and different values of parameters.Once this study is done, an analytical expression of time bases based on parameters such as the characteristic time and the cycle time is proposed. The related spatial bases are calculated using the PGD algorithm. This method is then tested for the resolution of 3D thermal problems under cyclic loading linear and nonlinear and a weak coupled diffusion thermal problem.
554

Non-linéarités quantiques d'un qubit en couplage ultra-fort avec un guide d'ondes / Quantum non-linearities of a qubit ultra-strongly coupled to a waveguide

Gheeraert, Nicolas 11 October 2018 (has links)
Au cours des dernières années, le domaine de l'interaction lumière-matière a fait un pas de plus en avant avec l'avènement des qubits supraconducteurs couplés ultra-fortement à des guides d'ondes ouverts. Dans ce contexte, un qubit devient simultanément couplé à de nombreux modes du guide d'onde, se transformant ainsi en un objet hybride lumière-matière hautement intriqué. L'étude de nouveaux phénomènes dynamiques qui émergent de la grande complexité de ces systèmes quantiques à N-corps est l'objectif principal de cette thèse.Dans une première étape cruciale, nous abordons l'évolution dans le temps d'un tel système en utilisant une nouvelle technique numérique basée sur un développement complet du vecteur d'état en termes d'états cohérents multimodes. Inspirée par des approches semi-classiques antérieures, cette technique numériquement exacte fournit un progrès important par rapport aux méthodes de pointe qui ont été utilisées jusqu'à présent pour étudier le régime de couplage ultra-fort à N-corps. Fondamentalement, cette approche préserve également le détail de la dynamique du système complet réunissant le guide d'onde et le qubit, permettant à la fois d'effectuer la tomographie et d'extraire la diffusion multi-particule des degrés de liberté du guide d'onde.Une exploration du régime de couplage ultra-fort multi-mode utilisant cette nouvelle technique a conduit aux deux prédictions théoriques fondamentales de cette thèse. La première démontre que le rayonnement émis spontanément par un qubit excité prend la forme d'un chat de Schrödinger de lumière, un résultat étonnamment différent de l'émission de photon unique habituelle en optique quantique. La seconde prédiction concerne la diffusion de signaux cohérents de faible puissance sur un qubit, un protocole expérimental très courant en laboratoire. De façon remarquable, il est montré que la non-linéarité du qubit, transférée au guide d'onde par l'interaction ultra-forte avec la lumière, est capable de diviser les photons du faisceau entrant en plusieurs photons de plus basse énergie, conduisant à l'émergence d'un continuum basse fréquence dans le spectre de puissance, qui domine le signal hors-résonant. En étudiant la fonction de corrélation de second ordre dans le champ rayonné, il est également démontré que l'émission en couplage ultra-fort présente des signatures caractéristiques de la production de particules.Dans la dernière partie de la thèse, la fonction de corrélation de second ordre est à nouveau étudiée, mais cette fois expérimentalement, et dans le régime du couplage modéré. Bien que les mesures soient encore préliminaires, cette partie de la thèse présente un compte-rendu instructif de la théorie de la mesure du signal et permet de comprendre en détail la procédure expérimentale impliquée dans la mesure des signaux quantiques. De plus, à l'avenir, les développements expérimentaux et les outils de simulation décrits pourraient être appliqués aux signaux émis par des qubits ultra-fortement couplés, afin d'observer les signatures de production de particules révélées par la fonction de corrélation du second ordre. / In the recent years, the field of light-matter interaction has made a further stride forward with the advent of superconducting qubits ultra-strongly coupled to open waveguides. In this setting, the qubit becomes simultaneously coupled to many different modes of the waveguide, thus turning into a highly intricate light-matter object. Investigating the wealth of new dynamical phenomena that emerge from the high complexity of these engineered quantum many-body systems is the main objective of this thesis.As a first crucial step, we tackle the time-evolution of such a non-trivial system using a novel numerical technique based on an expansion of the full state vector in terms of multi-mode coherent states. Inspired by earlier semi-classical approaches, this numerically exact method provides an important advance compared to the state-of-the-art techniques that have been used so far to study the many-mode ultra-strong coupling regime. Crucially, it also keeps track of every detail of the dynamics of the complete qubit-waveguide system, allowing both to perform the tomography and to extract multi-particle scattering of the waveguide degrees of freedom.An exploration of the many-mode ultra-strong coupling regime using this new technique led to the two core theoretical predictions of this thesis. The first demonstrates that the radiation spontaneously emitted by an excited qubit takes the form of a Schrödinger cat state of light, a result strikingly different from the usual single-photon emission known from standard quantum optics. The second prediction concerns the scattering of low-power coherent signals on a qubit, a very common experimental protocol performed routinely in laboratories. Most remarkably, it is shown that the qubit non-linearity, transferred to the waveguide through the ultra-strong light-matter interaction, is able to split photons from the incoming beam into several lower-energy photons, leading to the emergence of a low-frequency continuum in the scattered power spectrum that dominates the inelastic signal. By studying the second-order correlation function of the radiated field, it is also shown that emission at ultra-strong coupling displays characteristic signatures of particle production.In the final part of the thesis, the second-order correlation function is investigated again, but this time experimentally, and in the regime of moderate coupling. Although the results are still preliminary, this part of the thesis will provide an instructive account of signal measurement theory and will allow to understanding in-depth the experimental procedure involved in measuring quantum microwave signals. Moreover, the experimental developments and microwave simulations tools described in this section could be applied in the future to signals emitted by ultra-strongly coupled qubits, in order to observe the signatures of particle production revealed by the second-order correlation function.
555

Configurations centrales en toile d'araignée

Hénot, Olivier 10 1900 (has links)
No description available.
556

Conceptual design of shapes by reusing existing heterogeneous shape data through a multi-layered shape description model and for VR applications / Design conceptuel de formes par exploitation de données hétérogènes au sein d’un modèle de description de forme multi-niveaux et pour des applications de RV

Li, Zongcheng 28 September 2015 (has links)
Les récentes avancées en matière de systèmes d'acquisition et de modélisation ont permis la mise à disposition d'une très grande quantité de données numériques (e.g. images, vidéos, modèles 3D) dans différents domaines d'application. En particulier, la création d'Environnements Virtuels (EVs) nécessite l'exploitation de données nu-mériques pour permettre des simulations et des effets proches de la réalité. Malgré ces avancées, la conception d'EVs dédiés à certaines applications requiert encore de nombreuses et parfois laborieuses étapes de modélisation et de traitement qui impliquent plusieurs experts (e.g. experts du domaine de l'application, experts en modélisation 3D et programmeur d'environnements virtuels, designers et experts communication/marketing). En fonction de l'application visée, le nombre et le profil des experts impliqués peuvent varier. Les limitations et difficultés d'au-jourd'hui sont principalement dues au fait qu'il n'existe aucune relation forte entre les experts du domaine qui ont des besoins, les experts du numérique ainsi que les outils et les modèles qui prennent part au processus de déve-loppement de l'EV. En fait, les outils existants focalisent sur des définitions souvent très détaillées des formes et ne sont pas capables de supporter les processus de créativité et d'innovation pourtant garants du succès d'un pro-duit ou d'une application. De plus, la grande quantité de données numériques aujourd'hui accessible n'est pas réellement exploitée. Clairement, les idées innovantes viennent souvent de la combinaison d'éléments et les don-nées numériques disponibles pourraient être mieux utilisées. Aussi, l'existence de nouveaux outils permettant la réutilisation et la combinaison de ces données serait d'une grande aide lors de la phase de conception conceptuelle de formes et d'EVs. Pour répondre à ces besoins, cette thèse propose une nouvelle approche et un nouvel outil pour la conception conceptuelle d'EVs exploitant au maximum des ressources existantes, en les intégrant et en les combinant tout en conservant leurs propriétés sémantiques. C'est ainsi que le Modèle de Description Générique de Formes (MDGF) est introduit. Ce modèle permet la combinaison de données multimodales (e.g. images et maillages 3D) selon trois niveaux : Conceptuel, Intermédiaire et Données. Le niveau Conceptuel exprime quelles sont les différentes parties de la forme ainsi que la façon dont elles sont combinées. Chaque partie est définie par un Elément qui peut être soit un Composant soit un Groupe de Composants lorsque ceux-ci possèdent des carac-téristiques communes (e.g. comportement, sens). Les Eléments sont liés par des Relations définies au niveau Con-ceptuel là où les experts du domaine interagissent. Chaque Composant est ensuite décrit au niveau Données par sa Géométrie, sa Structure et ses informations Sémantiques potentiellement attachées. Dans l'approche proposée, un Composant est une partie d'image ou une partie d'un maillage triangulaire 3D. Quatre Relations sont proposées (fusion, assemblage, shaping et localisation) et décomposées en un ensemble de Contraintes qui contrôlent la po-sition relative, l'orientation et le facteur d'échelle des Composants au sein de la scène graphique. Les Contraintes sont stockées au niveau Intermédiaire et agissent sur des Entités Clés (e.g. points, des lignes) attachées à la Géo-métrie ou à la Structure des Composants. Toutes ces contraintes sont résolues en minimisant une fonction énergie basée sur des grandeurs physiques. Les concepts du MDGF ont été implémentés et intégrés au sein d'un outil de design conceptuel développé par l'auteur. Différents exemples illustrent le potentiel de l'approche appliquée à différents domaines d'application. / Due to the great advances in acquisition devices and modeling tools, a huge amount of digital data (e.g. images, videos, 3D models) is becoming now available in various application domains. In particular, virtual envi-ronments make use of those digital data allowing more attractive and more effectual communication and simula-tion of real or not (yet) existing environments and objects. Despite those innovations, the design of application-oriented virtual environment still results from a long and tedious iterative modeling and modification process that involves several actors (e.g. experts of the domain, 3D modelers and VR programmers, designers or communica-tions/marketing experts). Depending of the targeted application, the number and the profiles of the involved actors may change. Today's limitations and difficulties are mainly due to the fact there exists no strong relationships between the expert of the domain with creative ideas, the digitally skilled actors, the tools and the shape models taking part to the virtual environment development process. Actually, existing tools mainly focus on the detailed geometric definition of the shapes and are not suitable to effectively support creativity and innovation, which are considered as key elements for successful products and applications. In addition, the huge amount of available digital data is not fully exploited. Clearly, those data could be used as a source of inspiration for new solutions, being innovative ideas frequently coming from the (unforeseen) combination of existing elements. Therefore, the availability of software tools allowing the re-use and combination of such digital data would be an effective support for the conceptual design phase of both single shapes and VR environments. To answer those needs, this thesis proposes a new approach and system for the conceptual design of VRs and associated digital assets by taking existing shape resources, integrating and combining them together while keeping their semantic meanings. To support this, a Generic Shape Description Model (GSDM) is introduced. This model allows the combination of multimodal data (e.g. images and 3D meshes) according to three levels: conceptual, intermediate and data levels. The conceptual level expresses what the different parts of a shape are, and how they are combined together. Each part of a shape is defined by an Element that can either be a Component or a Group of Components when they share common characteristics (e.g. behavior, meaning). Elements are linked with Relations defined at the Concep-tual level where the experts in the domain are acting and exchanging. Each Component is then further described at the data level with its associated Geometry, Structure and potentially attached Semantics. In the proposed ap-proach, a Component is a part of an image or a part of a 3D mesh. Four types of Relation are proposed (merging, assembly, shaping and location) and decomposed in a set of Constraints which control the relative position, orien-tation and scaling of the Components within the 3D viewer. Constraints are stored at the intermediate level and are acting on Key Entities (such as points, a lines, etc.) laying on the Geometry or Structure of the Components. All these constraints are finally solved while minimizing an additional physically-based energy function. At the end, most of the concepts of GSDM have been implemented and integrated into a user-oriented conceptual design tool totally developed by the author. Different examples have been created using this tool demonstrating the potential of the approach proposed in this document.
557

Fully self-consistent multiparticle-multihole configuration mixing method : applications to a few light nuclei / Méthode de mélange de configuration multiparticules-multitrous complètement auto-cohérente : application à quelques noyaux légers

Robin, Caroline 30 September 2014 (has links)
Ce travail de thèse s'inscrit dans le cadre du développement de la méthode de mélange de configurations multiparticules-multitrous visant à décrire les propriétés de structure des noyaux atomiques. Basée sur un double principe variationnel, cette approche permet de déterminer simultanément les coefficients d'expansion de la fonction d'onde et les orbitales individuelles.Dans ce manuscrit, le formalisme complet méthode de mélange de configurations multiparticules-multitrous auto-cohérente est pour la première fois appliqué à la description de quelques noyaux des couches p et sd, avec l'interaction de Gogny D1S.Un première étude du 12C est effectuée afin de tester et comparer le double processus de convergence lorsque différents types de critères sont appliqués pour sélectionner les configurations à N-corps inclues dans la fonction d'onde du noyau. Une analyse détaillée de l'effet induit par l'optimisation des orbitales est conduite. En particulier, son impact sur la densité à un corps et sur la fragmentation de la fonction d'onde de l'état fondamental, est analysé.Une étude systématique de noyaux de la couche sd est ensuite conduite. Une analyse précise du contenu en corrélation de l'état fondamental est effectuée, et quelques quantités observables telles que les énergies de liaison et de séparation, ainsi que les rayons de charge, sont calculées et comparées à l'expérience. Les résultats obtenus sont satisfaisants. La spectroscopie de basse énergie est ensuite étudiée. Les énergies d'excitation théoriques sont en très bon accord avec les données expérimentales, et les caractéristiques dipolaires magnétiques sont également satisfaisantes. Les propriétés quadripolaires électriques, et en particulier les probabilités de transition B(E2), sont par contre largement sous-estimée par rapport aux valeurs expérimentales, et révèle un manque important de collectivité dans la fonction d'onde, dû à l'espace de valence restreint considéré. Si la renormalisation des orbitales induit une importante fragmentation de la fonction d'onde de l'état fondamental, seul un effet très faible est obtenu sur les probabilités de transition B(E2). Une tentative d'explication est donnée.Enfin, les informations de structure fournies par la méthode de mélange de configurations multiparticules-multitrous sont utilisées comme ingrédient de base pour des calculs de réactions telles que la diffusion inélastique de protons et d'électrons sur noyaux de la couche sd. Si les résultats révèlent aussi un manque de collectivité, les tendances expérimentales sont bien reproduites et sont améliorées par l'optimisation des orbitales. / This thesis project takes part in the development of the multiparticle-multihole configuration mixing method aiming to describe the structure of atomic nuclei. Based on a double variational principle, this approach allows to determine the expansion coefficients of the wave function and the single-particle states at the same time. In this work we apply for the first time the fully self-consistent formalism of the mp-mh method to the description of a few p- and sd-shell nuclei, using the D1S Gogny interaction.A first study of the 12C nucleus is performed in order to test the doubly iterative convergence procedure when different types of truncation criteria are applied to select the many-body configurations included in the wave-function. A detailed analysis of the effect caused by the orbital optimization is conducted. In particular, its impact on the one-body density and on the fragmentation of the ground state wave function is analyzed.A systematic study of sd-shell nuclei is then performed. A careful analysis of the correlation content of the ground state is first conducted and observables quantities such as binding and separation energies, as well as charge radii are calculated and compared to experimental data. Satisfactory results are found. Spectroscopic properties are also studied. Excitation energies of low-lying states are found in very good agreement with experiment, and the study of magnetic dipole features are also satisfactory. Calculation of electric quadrupole properties, and in particular transition probabilities B(E2), however reveal a clear lack of collectivity of the wave function, due to the reduced valence space used to select the many-body configurations. Although the renormalization of orbitals leads to an important fragmentation of the ground state wave function, only little effect is observed on B(E2) probabilities. A tentative explanation is given.Finally, the structure description of nuclei provided by the multiparticle-multihole configuration mixing method is utilized to study reaction mechanisms such as electron and proton inelastic scattering on sd-shell nuclei. Although the results also suffer from the lack of collectivity, the experimental trends are well reproduced and improved by the orbital optimization.
558

Pour une éducation libératrice : alliances conceptuelles entre Deleuze et Bergson / In favor of a liberatin education : conceptual alliances between Deleuze and Bergson / Por uma educação liberadora : alianças conceituais entre Deleuze e Bergson

Sanfelice Zeppini, Paola 16 October 2017 (has links)
La critique deleuzienne de l’image dogmatique de la pensée vise à la création d’autres manières de concevoir ce que signifie penser. Une telle critique nous permet d’opérer certains déplacements afin de vérifier les résonances productives entre philosophie et d’autres formes de production de la connaissance. En ce qui concerne les problèmes s’imposant au domaine de l’éducation, le but du présent travail consiste à penser les possibilités d’une éducation marquée par des mouvements qui dégagent d’autres manières de penser capables de frayer la voie à des processus de création visant à d’autres formes de vie plus puissantes et joyeuses. Pour ce faire, on partira de l’alliance conceptuelle établie entre Gilles Deleuze et Henri Bergson afin de vérifier de quelle manière la méthode de l’intuition permet de mettre en évidence le rôle central des problèmes et la façon dont on les pose, cela dans le but d’affirmer la nécessité pour chaque participant d’une processualité éducationnelle de soulever les questionnements vitaux qui le traversent. Les différences existantes entre le savoir en tant que résultat et l’apprendre en tant que processus, nous conduiront à remettre en question la notion de sujet et à affirmer la vie comme un mouvement de création et de différenciation constante, ce que nous permettra de penser la libération éducationnelle en termes d’augmentation de la capacité réceptive et de déclenchement de liaisons inattendues. Il s’agit en effet d’affirmer notre capacité de renforcer la différenciation de soi-même qui nous constitue et l’apprendre comme opérateur intensif qui relie les mouvements d’organisation et d’explosion créative. / Within the context of Gilles Deleuze critique to the dogmatic image of thought in support of the creation of other ways of grasping the meaning of what it is to think, displacements may be produced so as to ascertain productive resonances between philosophy and other forms of knowledge production. Amidst questions which impose themselves to the field of education, this thesis aims to think about the possibilities of an education marked by movements that liberate other ways of thinking and are capable of triggering processes which lead to the creation of more potent and happier ways of living. In order to achieve this, our analysis starts out with the conceptual alliance established between Gilles Deleuze and Henri Bergson, so that we may ascertain in which ways the method of intuition enables one to affirm the importance of not only the questions themselves, but also the way in which they are posed; and thus also affirm how necessary it is for a participant of an educational process to be able to raise vital questions that they may be going through. The existing differences between knowledge as a result and learning as a process lead to challenging of the notion of subject and to the affirmation of life as an ongoing creation and differentiation movement, that enable one to conceive the liberation that interests us in terms of the receptive capacity increase and of the triggering of unusual connexions. That is, to affirm our capacity to bolster the act of differing from oneself, which constitutes us, and the act of learning as an intensive operator that connects movements of organization and of creative explosion. / No âmbito da crítica feita por Gilles Deleuze à imagem dogmática do pensamento em proveito da criação de outras maneiras de se dar o que significa pensar, deslocamentos podem ser operados no sentido de verificar ressonâncias produtivas entre a filosofia e outras formas de produção de conhecimento. Em meio a problemas que se impõem ao campo da educação, este trabalho busca pensar as possibilidades de uma educação marcada por movimentos liberadores de outras maneiras de pensar e que sejam capazes de abrir processos de criação de maneiras mais potentes e alegres de viver. Para tanto, parte-se da aliança conceitual estabelecida entre Gilles Deleuze e Henri Bergson para verificar de quais modos o método da intuição permite afirmar a importância dos problemas e da forma como são colocados, para afirmar também a necessidade de que cada partícipe de uma processualidade educacional possa por em pauta os questionamentos vitais que o atravessam. As diferenças existentes entre o saber como resultado e o aprender como processo levam à problematização da noção de sujeito e a afirmação da vida como movimento de criação e de diferenciação constante, o que permite pensar a liberação que nos interessa em termos de aumento de capacidade receptiva e disparação de conexões inusitadas. Trata-se de afirmar nossa capacidade de potencializar o diferir de si mesmo que nos constitui e o aprender como operador intensivo que conecta movimentos de organização e de explosão criativa.
559

Métaheuristiques hybrides distribuées et massivement parallèles / Hybrid metaheuristics distributed and massively parallel

Abdelkafi, Omar 07 November 2016 (has links)
De nombreux problèmes d'optimisation propres à différents secteurs industriels et académiques (énergie, chimie, transport, etc.) nécessitent de concevoir des méthodes de plus en plus efficaces pour les résoudre. Afin de répondre à ces besoins, l'objectif de cette thèse est de développer une bibliothèque composée de plusieurs métaheuristiques hybrides distribuées et massivement parallèles. Dans un premier temps, nous avons étudié le problème du voyageur de commerce et sa résolution par la méthode colonie de fourmis afin de mettre en place les techniques d'hybridation et de parallélisation. Ensuite, deux autres problèmes d'optimisation ont été traités, à savoir, le problème d'affectation quadratique (QAP) et le problème de la résolution structurale des zéolithes (ZSP). Pour le QAP, plusieurs variantes basées sur une recherche taboue itérative avec des diversifications adaptatives ont été proposées. Le but de ces propositions est d'étudier l'impact de : l'échange des données, des stratégies de diversification et des méthodes de coopération. Notre meilleure variante est comparée à six des meilleurs travaux de la littérature. En ce qui concerne le ZSP, deux nouvelles formulations de la fonction objective sont proposées pour évaluer le potentiel des structures zéolitiques trouvées. Ces formulations sont basées sur le principe de pénalisation et de récompense. Deux algorithmes génétiques hybrides et parallèles sont proposés pour générer des structures zéolitiques stables. Nos algorithmes ont généré actuellement six topologies stables, parmi lesquelles trois ne sont pas répertoriées sur le site Web du SC-IZA ou dans l'Atlas of Prospective Zeolite Structures. / Many optimization problems specific to different industrial and academic sectors (energy, chemicals, transportation, etc.) require the development of more effective methods in resolving. To meet these needs, the aim of this thesis is to develop a library of several hybrid metaheuristics distributed and massively parallel. First, we studied the traveling salesman problem and its resolution by the ant colony method to establish hybridization and parallelization techniques. Two other optimization problems have been dealt, which are, the quadratic assignment problem (QAP) and the zeolite structure problem (ZSP). For the QAP, several variants based on an iterative tabu search with adaptive diversification have been proposed. The aim of these proposals is to study the impact of: the data exchange, the diversification strategies and the methods of cooperation. Our best variant is compared with six from the leading works of the literature. For the ZSP two new formulations of the objective function are proposed to evaluate the potential of the zeolites structures founded. These formulations are based on reward and penalty evaluation. Two hybrid and parallel genetic algorithms are proposed to generate stable zeolites structures. Our algorithms have now generated six stable topologies, three of them are not listed in the SC-JZA website or in the Atlas of Prospective Zeolite Structures.
560

De la mise à l’épreuve de l’alimentation par l’antibiorésistance au développement des concepts sans antibiotique et One Health ˸ publicisation et communication en France et aux États-Unis / From the recognition of the link between antibiotic resistance and food to the development of the antibiotic free production and the One Health approach ˸ publicization and communication in France and in the United States

Badau, Estera-Tabita 20 May 2019 (has links)
Dans une perspective comparative entre la France et les États-Unis, ce travail analyse le processus de publicisation des liens entre l’antibiorésistance et l’alimentation, ainsi que ses implications en termes de contribution au développement de la production appelée sans antibiotique et de l’approche One Health. En partant de la prise de conscience des conséquences de l’usage des antibiotiques dans l’élevage, la recherche s’inscrit dans une réflexion pragmatiste de constitution des problèmes publics et s’appuie sur un corpus hybride composé de documents publiés entre 1980 et 2016 (presse écrite, littérature institutionnelle et entretiens semi-directifs). La méthode développée s’enrichit des outils de textométrie issus de l’analyse de discours et s’intéresse à l’émergence des dénominations et des formules qui nomment le problème, ses causes et ses solutions. La comparaison montre que le processus de publicisation de liens entre l’antibiorésistance et l’alimentation dévoile une trajectoire opposée dans les deux pays. Dans le cas français, ce processus s’inscrit dans un schéma top-down et se caractérise par une publicisation tardive faisant suite aux démarches des instances sanitaires européennes et internationales. L’appropriation du problème par des associations de consommateurs, ainsi que l’investissement des acteurs agroalimentaires dans le développement de la production sans antibiotique, n’émergent que récemment. En revanche, aux États-Unis, ce processus s’inscrit dans un modèle bottom-up suite à la constitution d’un public d’organisations non gouvernementales autour du problème. Leur mobilisation a contribué significativement au développement de programmes d’élevage sans antibiotique ainsi qu’à la mise à l’agenda gouvernemental du problème et le lancement d’un plan national dans une approche One Health. / In a cross-country perspective between France and the United States, this research analyses the process of publicizing the links between antibiotic resistance and food, as well as its contribution to the development of the antibiotic free production and the implementation of the One Health approach. Starting with the awareness of the antibiotic use in livestock consequences, the study relies on the pragmatist approach of the constitution of the public problems. It is based on wide corpora composed by documents published between 1980 and 2016 (written press, institutional literature and semi-directive interviews). The analysis method uses textometric tools derived from discourse analysis and focuses on the emergence of formulas that name the problem, its causes and its solutions. The comparison uncovers an opposite process between the two countries. In France, this process is part of a top-down approach and is characterized by a late publicization following the European and international health authorities’ initiatives. The consumer associations taking over the problem, as well as the agri-food actors’ commitment to the antibiotic free production, is very recent. In the United States, this process reveals a bottom-up model following a non-governmental organizations public constitution taking over the problem. Their mobilization has contributed to the development of the antibiotic free breeding programs, as well as to place the problem on the government agenda that launched a national plan in a One Health approach.

Page generated in 0.0487 seconds