• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 30
  • 9
  • 3
  • Tagged with
  • 44
  • 12
  • 10
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 4
  • 4
  • 4
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Dynamique évolutive des éléments transposables de type séquence d'insertion dans les génomes des bactéries endosymbiotiques Wolbachia

Cerveau, Nicolas 06 December 2011 (has links) (PDF)
Les éléments transposables (ET) sont l'une des principales forces guidant l'évolution des génomes. La présence de copies dégradées a permis de bien caractérisée la dynamique des ET eucaryotes. A contrario, chez les procaryotes, les ET sont considérés comme récents, ce qui complique l'étude de leur dynamique. Les séquences d'insertion (IS) sont les ET procaryotes les plus abondants. Les modèles prédisent que les IS, arrivés par transferts horizontaux, subissent une forte augmentation de leur nombre, puis sont éliminés. De plus, les modèles prédisent que les génomes des bactéries intracellulaires devraient avoir peu ou pas d'IS. Le séquençage des génomes de bactéries intracellulaires obligatoires, comme Wolbachia, a remis en cause les modèles, car certains ont une grande quantité d'IS. Notre travail portait sur l'étude des génomes de cinq souches de Wolbachia ayant des caractéristiques diverses. Nous avons réalisé une annotation détaillée des IS pour chaque génome et testé nos hypothèses basés issues de l'analyse in silico sur un panel de souches. Nous avons confirmé que les génomes de Wolbachia ont une forte abondance d'IS. La majorité des copies d'IS étaient dégradées, ce qui a permis d'étudier leur dynamique. L'activité passée des IS de Wolbachia n'a pas été constante au cours du temps avec des alternances de phases de forte activité et de quiescence. Les phases de forte activité doivent être précédées de transferts horizontaux, qui ont été expérimentalement détectés en abondance. Enfin, des analyses d'expression suggèrent que l'activité des IS n'est pas uniquement contrôlée par les éléments eux-mêmes, mais dépend également de l'environnement génomique des copies.
22

Handicap et emploi : les chargés d'insertion professionnelle à la croisée des chemins / Disablement and employment : vocational project managers for the disabled at a crossroads

Bongiovanni Sorignon, Joëlle 16 December 2015 (has links)
Issue d'un contexte professionnel, cette thèse tente de mettre au jour, principalement à travers le concept d'activité et la médiation du processus d'autoconfrontation, l'émergence de questionnements majeurs au cœur de la pratique quotidienne des chargés d'insertion des travailleurs handicapés en centre de réadaptation professionnelle. Il s’agit de contribuer à montrer et comprendre comment ces professionnels interrogent leur posture dans leur travail d'insertion, pris entre des valeurs parfois contradictoires, entre marché du travail et accompagnement médico-social. / This thesis draws upon a professional context in an attempt to highlight the emergence of major queries central to the everyday duties of vocational project managers supporting disabled workers in vocational rehabilitation centers. The underlying approach is based on the concept of activity and mediation through the process of self-confrontation. The objective is to help demonstrate and understand how these vocational professionals, despite being caught between sometimes conflicting values, between the labour market and the medico-social support they provide, perceive their position as they strive to enable disabled persons to find employment.
23

Quality of insertion in cochlear implants : a clinical and temporal bone study / Qualité de l'insertion des implants cochléaires : une étude clinique et sur os temporal

De Seta, Daniele 24 May 2016 (has links)
L'implant cochléaire représente le dispositif de référence pour réhabiliter l'audition des patients atteints de surdités sévère à profonde. Les indications se sont récemment étendues vers les patients avec une audition résiduelle avec de bons résultats. Il persiste cependant une grande hétérogénéité des résultats auditifs. Plusieurs facteurs ont été identifiés comme influençant les performances auditives: durée de la surdité, intelligibilité préopératoire et stratégie de codage. Dans cette thèse, l'anatomie de la cochlée et la position postopératoire du porte-électrodes ont été étudiés afin d'identifier les facteurs de variabilité de la discrimination vocale inter- et intra-individuelle. Les résultats de cette thèse ont montré un lien entre la position de l'électrode et les performances auditives à court terme, alors que la plasticité neuronale pourrait jouer un rôle important dans l'adaptation de l'implant cochléaire aux structures neurales à long terme. De plus, la préservation des structures cochléaires est maintenant recommandée pour tous les candidats à l'implantation, quelle que soit leur audition préopératoire. Une étude radio-histologique sur rochers avec une insertion motorisée du porte-électrodes a été réalisée afin d'identifier les paramètres des forces d'insertion qui pourraient prédire le traumatisme de l'oreille interne lié à l'insertion. Une corrélation entre les valeurs de forces d'insertion et le traumatisme cochléaire a été trouvée dans les os temporaux. Ces valeurs, serviront au développement d'outils d'insertion " intelligents " pour réduire les lésions liées à l'insertion et ainsi conduire à des conditions de rééducation auditive optimale. / The cochlear implantation represents the standard technique to restore the hearing in totallydeafened persons, and the indications during the last years are widening also to patients withresidual hearing or presenting single sided deafness. Despite the overall good to very goodresults after cochlear implantation reported in literature a wide heterogeneity of the hearingoutcomes emerges in the single studies and poor results both in unilateral and bilateralcochlear implantation are still reported. Several patients’ specific factors have been identifiedas affecting postimplant speech perception score, including duration of deafness, residualpreoperative speech recognition, and different speech coding strategy. In this thesis theanatomy of the cochlea and the position of the electrode array in implanted patients have beenstudied with the attempt to identify the affecting factors that contribute to the variability of theinter- and intra-individual speech discrimination scores both in bilaterally and unilaterallyimplanted patients. Moreover, following the expanding indication for cochlear implantation,the preservation of inner ear structures is becoming recommended for all cochlear implantcandidates, regardless of their preoperative hearing. A radio-histological temporal bone studywith a motorized insertion of the array was performed in order to identify the insertion forcesparameters that could predict the possible traumatism involving the inner ear. The results ofthis thesis showed a relationship between the intracochlear electrode position and hearingperformance in the short term follow up, whereas the neural plasticity would play animportant role in the adaptation of the cochlear implant to the neural structures in the longterm. A correlation between insertion forces and inner ear traumatism was found in temporalbones. Two different force profiles for traumatic and atraumatic insertion were obtained; thesevalues, if confirmed by further studies, could be useful for the development of future forcefeedback automated cochlear implant insertion tool in order to reduce the risk of insertionrelated damage and provide the best chance for an optimal hearing rehabilitation in cochlearimplanted candidates.
24

Time-dependent routing : models, algorithms, and the value of information

Jaballah, Rabie 20 April 2022 (has links)
Le problème de tournées de véhicules (Vehicle routing problem - VRP), introduit il y a plus de 60 ans, demeure au cœur des systèmes de transport. Après des décennies de développement, le VRP, par son ensemble très riche de variantes, représente l'un des problèmes les plus étudiés dans la littérature. Pourtant, en raison du manque de données, deux hypothèses importantes font que le VRP ne s'adapte pas efficacement au trafic et à la congestion, deux éléments importants pour modéliser de façon réelle des problèmes pratiques. Une première hypothèse considère que la vitesse de déplacement est constante dans le temps. La seconde, considère que chaque paire de nœuds (clients) n'est reliée que par un arc, ignorant le réseau routier implicite (sous-jacent). La congestion de la circulation est l'un des plus grands défis des systèmes de transport. Ces systèmes étant directement affectés par la congestion, l'ensemble de la chaîne d'approvisionnement doit s'adapter à ce facteur, ce qui n'est pas simple. La croissance continue du fret au cours des dernières années aggrave encore la situation et une attention renouvelée à la mobilité, à l'environnement et à la logistique urbaine a mis en lumière ces questions. Récemment, les avancées technologiques en communication et en acquisition de données en temps réel ont permis de collecter plusieurs informations sur les véhicules telles que leur localisation, leur accélération, leur vitesse, leur décélération, etc. Ainsi, nous pouvons remettre en question la façon dont nous définissons, modélisons et résolvons les problèmes de transport. Ceci nous permet de surmonter les deux hypothèses mentionnées en intégrant non seulement les informations relatives à la congestion, mais aussi en considérant l'ensemble du réseau routier. Dans cette thèse nous considérons l'ensemble du réseau routier sous-jacent, ce qui signifie que nous avons les nœuds clients mais également tous les nœuds intermédiaires qui constituent ce réseau. Ensuite, nous modélisons le temps de trajet de chaque route individuellement au cours de la journée. En divisant une journée en petits intervalles, jusqu'à une précision de l'ordre de la seconde, nous prenons en considération des informations précises sur le trafic. Il en résulte un nouveau problème appelé le problème de tournées de véhicules à plus court chemin avec dépendance du temps (Time-dependant shortest path vehicle routing problem - TD-SPVRP), dans lequel nous combinons le problème du plus court chemin avec dépendance du temps et le VRP avec dépendance du temps, créant ainsi un problème plus général et très complexe. Le TD-SPVRP est plus proche des conditions réelles et il constitue le sujet du chapitre 2 où nous le formulons comme un modèle de programmation linéaire en nombres entiers mixtes et concevons une heuristique rapide et efficace pour le résoudre. Nous testons le modèle ainsi que l'heuristique sur des instances générées à partir de données réelles de circulation sur le réseau routier de la ville de Québec, Canada. Les résultats montrent que l'heuristique fournit des solutions de haute qualité avec un écart moyen de 5,66% par rapport aux bornes inférieures déterminées par le modèle. Cependant, le modèle mathématique ne parvient pas à trouver aucune solution pour les instances de données réelles. Pour pouvoir résoudre ce problème complexe, une grande attention a été portée à la performance de l'implantation des algorithmes proposés afin d'améliorer leur rapidité en termes de temps d'exécution. Le problème reste très compliqué, surtout lorsque nous considérons une grande partie du réseau routier sous-jacent avec des données de trafic très précises. Pour cela, nous avons utilisé différentes techniques pour optimiser l'effort de calcul afin de résoudre le problème en évaluant l'impact engendré sur la précision tout en évitant la perte de précieuses informations. Nous avons développé deux types d'agrégation de données couvrant deux niveaux d'information différents. Premièrement, nous avons manipulé la structure du réseau en réduisant sa taille, et deuxièmement en contrôlant le niveau d'agrégation temporel pour générer les données de trafic et pour déterminer la vitesse d'un véhicule à tout moment. Pour la structure du réseau, nous avons utilisé différentes techniques de réduction de graphe pour en réduire la taille. Nous avons étudié la valeur et le compromis de l'information spatiale. Les solutions générées en utilisant le graphe réduit sont analysées dans le Chapitre 3 pour évaluer la qualité et la perte d'information dû à la réduction. Cette analyse démontre également que la transformation classique du TD-SPVRP en un problème de tournées dépendant du temps (Time-dependant VRP - TD-VRP) équivalent résulte en un graphe plus grand qui nécessite un temps de traitement important ce qui a un impact sur la qualité de la solution. Notre développement montre que la résolution du TD-SPVRP nécessite en moyenne 1445 secondes tandis que la résolution du TD-VRP associé nécessite 41 181 secondes. Garder un haut niveau de précision et réussir à réduire la taille du graphe est possible. En particulier, deux procédures de réduction ont été développées, la réduction des nœuds et la réduction des arcs parallèles. Les deux techniques réduisent la taille du graphe. La réduction des nœuds conduit à une amélioration de 1,11%, la réduction des arcs parallèles donne un écart de 2,57% signifiant la présence d'une distorsion dans le graphe réduit. En ce qui concerne les informations sur le trafic, nous avons analysé les compromis entre une grande quantité de données très précises et un plus petit volume de données agrégées avec une perte potentielle d'information. Ceci est fait en analysant la précision des données agrégées sous différents modèles de détermination des temps de parcours. Ces approches sont présentées dans le Chapitre 4. Au niveau de la prévision des temps de parcours, il est important que chaque segment routier ait des observations de vitesse pour chaque intervalle de temps considéré, ce que nous appelons le niveau de couverture du réseau. Notre analyse indique qu'une couverture complète du réseau routier à tout moment de la journée est nécessaire pour atteindre un niveau de précision élevé. Le recours à une agrégation élevée (de grands intervalles de temps) permet de réduire la taille du problème et d'obtenir une meilleure couverture des données, mais au prix d'une perte d'information. Les modèles analysés, LTM (link travel mode) et FSM (flow speed model), partagent les mêmes performances lorsqu'on utilise un grand intervalle de temps (120, 300 et 600 secondes), donc un niveau d'agrégation plus élevé, avec un écart moyen absolu de 5,5% par rapport aux temps de parcours observés. Cependant, avec une courte période (1, 10, 30 et 60 secondes), FSM fonctionne mieux que LTM. Pour un intervalle d'une seconde, FSM donne un écart absolu moyen de 6,70%, tandis que LTM fournit un écart de 11,17%. Ce chapitre détermine ainsi sous quelles conditions les modèles d'estimation de temps de parcours fonctionnent bien et procurent des estimations fidèles des temps de parcours réalisés. Cette thèse est structurée de la manière suivante. À la suite d'une introduction générale dans laquelle nous présentons le cadre conceptuel de la thèse et son organisation, le Chapitre 1 présente une revue de la littérature pour les deux problèmes fondamentaux étudiés, le problème de plus court chemin (Shortest path problem - SPP) et le VRP et leurs variantes développées au cours des années. Le Chapitre 2 introduit une nouvelle variante du VRP, le TD-SPVRP. Le Chapitre 3 présente les différentes techniques développées pour réduire la taille du réseau en manipulant les informations spatiales du réseau routier. L'impact de ces réductions est évalué et analysé sur des instances réelles en utilisant plusieurs heuristiques. Le Chapitre 4 traite l'impact de l'agrégation des données temporelle et des modèles d'évaluation des temps de parcours. Le dernier chapitre constitue une conclusion et ouvre des perspectives de recherche relatives à nos travaux. / The vehicle routing problem (VRP), introduced more than 60 years ago, is at the core of transportation systems. With decades of development, the VRP is one of the most studied problems in the literature, with a very rich set of variants. Yet, primarily due to the lack of data, two critical assumptions make the VRP fail to adapt effectively to traffic and congestion. The first assumption considers that the travel speed is constant over time ; the second, that each pair of customers is connected by an arc, ignoring the underlying street network. Traffic congestion is one of the biggest challenges in transportation systems. As traffic directly affects transportation activities, the whole supply chain needs to adjust to this factor. The continuous growth of freight in recent years worsens the situation, and a renewed focus on mobility, environment, and city logistics has shed light on these issues. Recently, advances in communications and real-time data acquisition technologies have made it possible to collect vehicle data such as their location, acceleration, driving speed, deceleration, etc. With the availability of this data, one can question the way we define, model, and solve transportation problems. This allows us to overcome the two issues indicated before and integrate congestion information and the whole underlying street network. We start by considering the whole underlying street network, which means we have customer nodes and intermediate nodes that constitute the street network. Then, we model the travel time of each street during the day. By dividing the day into small intervals, up to a precision of a second, we consider precise traffic information. This results in a new problem called the time-dependent shortest path vehicle routing problem (TD-SPVRP), in which we combine the time-dependent shortest path problem (TD-SPP) and the time-dependent VRP (TD-VRP), creating a more general and very challenging problem. The TD-SPVRP is closer to what can be found in real-world conditions, and it constitutes the topic of Chapter 2, where we formulate it as a mixed-integer linear programming model and design a fast and efficient heuristic algorithm to solve this problem. We test it on instances generated from actual traffic data from the road network in Québec City, Canada. Results show that the heuristic provides high-quality solutions with an average gap of only 5.66%, while the mathematical model fails to find a solution for any real instance. To solve the challenging problem, we emphasize the importance of a high-performance implementation to improve the speed and the execution time of the algorithms. Still, the problem is huge especially when we work on a large area of the underlying street network alongside very precise traffic data. To this end, we use different techniques to optimize the computational effort to solve the problem while assessing the impact on the precision to avoid the loss of valuable information. Two types of data aggregation are developed, covering two different levels of information. First, we manipulated the structure of the network by reducing its size, and second by controlling the time aggregation level to generate the traffic data, thus the data used to determine the speed of a vehicle at any time. For the network structure, we used different reduction techniques of the road graph to reduce its size. We studied the value and the trade-off of spatial information. Solutions generated using the reduced graph are analyzed in Chapter 3 to evaluate the quality and the loss of information from the reduction. We show that the transformation of the TD-SPVRP into an equivalent TD-VRP results in a large graph that requires significant preprocessing time, which impacts the solution quality. Our development shows that solving the TD-SPVRP is about 40 times faster than solving the related TD-VRP. Keeping a high level of precision and successfully reducing the size of the graph is possible. In particular, we develop two reduction procedures, node reduction and parallel arc reduction. Both techniques reduce the size of the graph, with different results. While the node reduction leads to improved reduction in the gap of 1.11%, the parallel arc reduction gives a gap of 2.57% indicating a distortion in the reduced graph. We analyzed the compromises regarding the traffic information, between a massive amount of very precise data or a smaller volume of aggregated data with some potential information loss. This is done while analyzing the precision of the aggregated data under different travel time models, and these developments appear in Chapter 4. Our analysis indicates that a full coverage of the street network at any time of the day is required to achieve a high level of coverage. Using high aggregation will result in a smaller problem with better data coverage but at the cost of a loss of information. We analyzed two travel time estimation models, the link travel model (LTM) and the flow speed model (FSM). They both shared the same performance when working with large intervals of time (120, 300, and 600 seconds), thus a higher level of aggregation, with an absolute average gap of 5.5% to the observed route travel time. With short periods (1, 10, 30, and 60 seconds), FSM performs better than LTM. For 1 second interval, FSM gives an average absolute gap of 6.70%, while LTM provides a gap of 11.17%. This thesis is structured as follows. After a general introduction in which we present the conceptual framework of the thesis and its organization, Chapter 1 presents the literature review for the two main problems of our development, the shortest path problem (SPP) and the VRP, and their time-dependent variants developed over the years. Chapter 2 introduces a new VRP variant, the TD-SPVRP. Chapter 3 presents the different techniques developed to reduce the size of the network by manipulating spatial information of the road network. The impact of these reductions is evaluated and analyzed on real data instances using multiple heuristics. Chapter 4 covers the impact of time aggregation data and travel time models when computing travel times on the precision of their estimations against observed travel times. The conclusion follows in the last chapter and presents some research perspectives for our works.
25

Modélisation mathématique et simulation du trafic routier : analyse statistique de modèles d'insertion et simulation probabiliste d'un modèle cinétique / Mathematical modelling and simulation of the road traffic : statistical analysis of merging models and probabilistic simulation of a kinetic model

Mint Moustapha, Jyda 13 November 2014 (has links)
La première partie de cette thèse a consisté à proposer des modèles d'insertion de trafic sur une bretelle d'entrée d'autoroute. Deux types de modélisation ont été élaborés. Une approche statistique utilisant les techniques de régression logistique nous a permis de sélectionner les variables jouant un rôle dans le choix par les véhicules provenant de la voie d'accélération du lieu où ils s'insèrent. Dans un second temps, nous effectuons une modélisation comportementale basée sur le principe d'acceptation de créneaux. Les modèles proposés ont été validés à l'aide de données issues d'un site d'observations expérimentales situé près d'Angers, le site SAROT. La seconde partie est consacrée au développement d'une méthode particulaire probabiliste permettant de simuler un modèle mésoscopique de trafic : le modèle cinétique de Paveri-Fontana. La complexité algorithmique de cette méthode proposée comme alternative aux méthodes déterministes couramment utilisées est optimisée. La comparaison des résultats obtenus à ceux d'une méthode déterministe plus standard de différences finies sur des cas-tests bien choisis a permis de valider la méthode particulaire. Ces expériences numériques ont mis en valeur ses qualités notamment sa rapidité (coût numérique) par rapport à la méthode déterministe ainsi que sa capacité à mieux reproduire certains phénomènes observés dans le trafic / The first part of this thesis is dedicated to the optimization of the lengths of acceleration lanes using microscopic data collected from real traffic. The insertions on the highway junctions can indeed be especially dangerous considering the difference between the speeds on the on ramp merge lane and those on the highway lanes. We develop and analyse some microscopic merging models. We first propose a statistical model based on the logistic regression techniques. Statistical hypothesis tests allow to select the most significant descriptive variables in the merging decision process. A behavioural modelling taking those variables into account is next proposed to better capture the interactions by including some thresholds on the gaps between the merging vehicles and freeway vehicles. The models are validated using real traffic data collected at the SAROT site near Angers. Secondly, traffic simulation at the mesoscopic scale is mostly based on deterministic numerical schemes. However, these methods have a high computational cost. The objective of the second part of this thesis is to present a new method to simulate the Paveri-Fontana kinetic model through a probabilistic approach. We interpret the evolution equation in this model as a Fokker-Planck equation and deduce an approximation based on a system of interacting particles. The algorithmic complexity of this method is optimized. We have performed a numerical comparison between the probabilistic method and a deterministic method on some cases study. The qualitative analysis highlights the benefits of the particle method such as its computation cost and its ability to reproduce some typical traffic effects
26

LA SPECTROSCOPIE DE PERTE D'ÉNERGIE DES ÉLECTRONS APPLIQUÉE AUX BATTERIES AU LITHIUM : EXPÉRIENCES ET SIMULATIONS AU SEUIL K DU LITHIUM

Mauchamp, V. 06 October 2006 (has links) (PDF)
Ce travail combine études expérimentales et théoriques au seuil K du lithium dans le but de permettre une meilleure compréhension des propriétés des matériaux pour électrodes de batteries au lithium. Les spectres de pertes d'énergie des électrons (EELS) sont interprétés grâce à des simulations des structures proches du seuil (ELNES) et à des calculs de structures électroniques, tous basés sur la Théorie de la Fonctionnelle de la Densité (DFT). Après un descriptif concis de la DFT, les deux approches utilisées pour la simulation des spectres (la théorie de Bethe et le calcul de la fonction diélectrique) ainsi que les codes de calculs associés sont revus en détail. Le deuxième chapitre porte sur les aspects expérimentaux : il insiste particulièrement sur le contrôle de l'oxydation des échantillons et le traitement des spectres. La simulation du seuil K du lithium fait l'objet du troisième chapitre. Les difficultés liées aux états de semi-coeur 1s du lithium sont alors mises en avant et l'importance des effets d'écrantage liés aux seuils M2,3 des métaux de transition sur le seuil K du lithium discutés. Les calculs montrent par ailleurs la faible influence des effets de champs locaux à ce seuil. Enfin, le dernier chapitre porte sur l'étude systématique d'une famille de composés pour électrodes négatives, de formulation LixTiP4 (2 < x < 11). Grâce à l'analyse des structures ELNES, il est démontré que le lithium est préférentiellement inséré en site tétraédrique pour les faibles teneurs x. D'autre part, la comparaison des spectres obtenus en oxydation et en réduction confirme la nature biphasée du composé pendant la phase d'oxydation.
27

INTERACTION DES RESEAUX DE TRANSPORT ET DE DISTRIBUTION EN PRESENCE DE PRODUCTION DECENTRALISEE

Fontela Garcia, Miguel Angel 10 July 2008 (has links) (PDF)
l'insertion des énergies non polluantes ou vertes font que les réseaux électriques doivent être prêts à accueillir et intégrer des nouvelles productions d'énergie, quelques fois intermittentes. Le renforcement du réseau en terme de construction de nouvelles lignes et liaisons internationales n'est pas forcement suffisant pour conduire à un système plus robuste et flexible. Une méthodologie et une définition de la robustesse sont proposées afin de garantir la robustesse du système et de limiter les effets néfastes de l'insertion de production décentralisée pour le système global en cas de pannes généralisées. Ces pannes électriques pourraient être limitées par des îlotages intentionnels au niveau de la distribution. Une étude de sa faisabilité est donnée. Dans ce sens, l'intelligence distribuée semble nécessaire pour permettre ces types de fonctionnements « in extremis ». Des nouveaux composant NTICs sont proposés afin d'allouer les futures stratégies de localisation des défauts et îlotages intentionnels. Une maquette pour le test des réseaux IP est aussi présentée.
28

Évaluation d'une politique publique sectorielle de lutte contre les exclusions : le cas de la classe de troisième d'insertion

Cambon, Sandrine 21 November 2005 (has links) (PDF)
Depuis 1975, l'expression de "collège unique" est régulièrement évoquée pour décrire le premier cycle de notre enseignement secondaire. Fonctionnent pourtant, depuis 1992 et pour les élèves en difficulté, des classes nommées troisième d'insertion, ni vouées à l'enseignement général, ni assimilables à celles de l'enseignement adapté. A la croisée de problématiques politiques, historiques, économiques et sociales, cette étude tente d'articuler chacun de ces domaines, le public concerné par le dispositif de troisième d'insertion, placé au centre de ces questions, étant à la fois issu d'un milieu défavorisé et en échec scolaire. La réflexion qui s'ensuit demande simultanément une recherche portant sur le concept d'insertion, du nom de la classe étudiée, ainsi qu'une autre portant sur l'analyse des politiques publiques dans un contexte de décentralisation faisant des établissements scolaires des unités pertinentes de diagnostic et de remédiation.
29

Transitions de phases et ordre des oxygènes interstitiels dans les oxydes de type K2NiF4 : monocristaux de La2CoO4+δ et La2CuO4 T, T' explorés par diffraction des neutrons et rayonnement synchrotron

Le Dréau, Loïc 06 July 2011 (has links) (PDF)
Cette thèse concerne l'étude structurale d'oxydes cristallins à stœchiométrie en oxygène variable. La méthode de synthèse de gros monocristaux est présentée en détail. Ces matériaux présentent une structure atomique en couche entre lesquelles des ions oxygènes peuvent être intercalés de manière topotactique par différentes méthodes, aussi bien par électrochimie à l'ambiante que par traitement thermique sous atmosphère et pression contrôlée. L'insertion d'oxygène entre les couches ne se fait pas aléatoirement mais ces atomes excédentaires restent ordonnés à longue distance et provoquent des distorsions du réseau cristallin par effet stérique. La structure atomique devient modulée par l'occupation des sites interstitiels et par les déplacements des atomes environnants. La structure réelle des composés riches en oxygène a été étudiée par diffraction des neutrons et des rayons-X synchrotron. La reconstruction des plans du réseau réciproque a permis de mesurer précisément la position et l'intensité de chaque réflexion satellite. L'application de la méthode de maximum d'entropie a permis la reconstruction des densités nucléaires avec une haute précision, ce qui favorise la visualisation des déplacements atomiques courts, et donne alors une meilleure connaissance de la structure cristalline réelle. Les transitions de phase en température ont également été étudiées par diffraction et par thermogravimétrie, montrant que la quantité d'oxygène intercalés varie spontanément avec la température, et, contre toute attente, que les phases restent modulées jusqu'à des hautes températures. La diffusion des ions oxygènes dans le réseau hôte aux températures modérées pourrait être amplifiée par l'occurrence de phonons spécifiques impliquant le tilt rigide des octaèdres composant le cristal.
30

SYNTHESE ET ETUDE ELECTROCHIMIQUE DE NITRURES MIXTES DE LITHIUM ET DE METAL DE TYPE Li3-xMxN (M = Co, Cu, Ni) UTILISABLES COMME ELECTRODE NEGATIVE DANS LES ACCUMULATEURS LI-ION.

Ducros, Jean-Baptiste 12 December 2006 (has links) (PDF)
Dans ce travail on réalise la synthèse de nitrures doubles de lithium et de métal de type Li3-nxMx[]nx-xN (Mn+ = Co2+, Cu+ et Ni2+, [] représente les lacunes en ions Li+) par une méthode céramique, sous atmosphère contrôlée, pour une large gamme de composition (0 < x = 0,6). L'évolution des paramètres de maille de ces nitrures et l'analyse fine des diagrammes de diffraction des rayons X indiquent la présence de Co2+ et de Ni2+ en position interfeuillets, ainsi que la présence simultanée de lacunes dans le plan azoté. Dans le cas du cuivre, des ions Cu+ interfeuillets sont présents, sans lacunes dans le plan azoté. Après avoir acquis la maîtrise des paramètres de synthèse, nous réalisons la caractérisation structurale et l'étude des propriétés électrochimiques de chaque matériau en terme de capacité spécifique, rechargeabilité, durée de vie, cinétique, etc. On démontre dans tous les cas que les systèmes redox impliqués font intervenir les divers degrés d'oxydation des métaux mais également ceux de l'azote à travers d'entités (métal-N).Les performances en cyclage galvanostatique sont largement dépendantes du métal et du domaine de potentiel concerné. Des matériaux d'intercalation du lithium sont concernés dans le domaine de potentiel [0,02 – 1,0] V vs Li+/Li car ils ne font intervenir que les systèmes CoII/CoI et NiII/NiI, avec insertion du lithium dans les lacunes, et des capacités stables mais restreintes (180 mAh.g-1). Une optimisation des performances est possible si on étend le domaine de cyclage à 1,1 V, avec une capacité spécifique stable de l'ordre de 320 mAh.g-1 sur plusieurs centaines de cycles, pour le matériau Li2,23Co0,39N.

Page generated in 0.1396 seconds