• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2203
  • 1101
  • 837
  • 6
  • 3
  • 1
  • Tagged with
  • 4152
  • 4152
  • 3642
  • 1786
  • 1786
  • 1775
  • 592
  • 584
  • 520
  • 486
  • 474
  • 462
  • 462
  • 458
  • 390
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Etude des propriétés optiques et mécaniques des verres binaires silicatés d'alcalins lourds

Chligui, Miriam 09 December 2010 (has links) (PDF)
L'étude présentée ici est consacrée à une approche expérimentale dans les verres silicatés d'alcalins lourds : (SiO2)1-x(Rb2O)x et (SiO2)1-x(Cs2O)x. La polymérisation du réseau est dépendante de la composition du verre, la concentration en cation modificateur ainsi que sa nature vont donc être des facteurs importants influençant la topologie du réseau silicaté. Afin de mieux comprendre les propriétés de ces verres, il est indispensable d'en connaître la structure. Dans ce travail nous nous sommes particulièrement intéressés à l'ordre à moyenne distance qui contrôle les propriétés mécaniques, et à l'ordre à courte distance déterminant pour les propriétés optiques. La spécificité de ce travail réside dans la volonté comprendre le rôle des cations lourds sur la structure et les propriétés du réseau silicaté, dans les binaires alcalins, à l'échelle macroscopique à l'aide de diffusion Brillouin et à l'échelle microscopique en utilisant les spectroscopies Raman et Infrarouge.
232

Etude des mécanismes de coloration de verres obtenue par échange ionique Ag+/Na+ et précipitation de nano agrégats métalliques

Veron, Olivier 13 December 2010 (has links) (PDF)
L'objectif est d'étudier par la méthode d'échange ionique à l'argent de verres silicatés la coloration induite etla réalisation de guides d'ondes planaires. Deux méthodes de modélisation de l'échange ionique sont présentées pour évaluer les paramètres de l'échange qui sont le coefficient de diffusion, la forme du profil et la mobilité des ions. Cette technique purement thermique permet la réalisation de guides d'onde à gradient d'indice, l'ajout d'un champ électrique permet d'obtenir un profil à saut d'indice. Différentes compositions de verre sont étudiées dans le but de déterminer la variation d'indice induite par la polarisabilité de l'ion argent plus forte que les ions sodium ou lithium initialement présents dans les verres. A la suite de l'échange ionique, un recuit peut être effectué dans le but de précipiter l'argent en nanoparticules métalliques qui possèdent des propriétés d'absorption intéressantes permettant de colorer les verres : la résonance plasmon de surface (RPS). Le mécanisme de formation de ces nanoparticules dépend de la température et de l'effet redox de l'environnement. L'irradiation effectuée par un laser pulsé nanoseconde des verres échangés permet la précipitation locale des nanoagrégats d'argent à la surface des verres. L'irradiation pulsée en régime femtoseconde permet une interaction dans le volume du verre, soit avec des nanoparticules déjà présentes dans le but de modifier la couleur localement, soit avec des verres échangés dans lequel des défauts sont générés pour ensuite favoriser la formation de nanoparticules par recuit. La modélisation de la résonance plasmon de surface effectuée permet d'évaluer le mécanisme de croissance des nanoparticules dans les verres. Les méthodes de caractérisation utilisées sont la microscopie électronique à balayage, la microscopie électronique en transmission, la spectrophotométrie UV/Visible, la photoluminescence et la spectroscopie infrarouge à transformée de Fourier.
233

Impact d'une polarisation électrochimique pour le piégeage réversible de la bentazone sur carbones nanoporeux

Ouldriane, Sandrine 29 November 2010 (has links) (PDF)
De part leur surface poreuse développée, les carbones activés montrent une grande efficacité pour l'adsorption de composés organiques en solution et la dépollution de l'eau. Cependant, l'adsorption est souvent irréversible et se pose le problème de la régénération de l'adsorbant. Dans ce travail, nous avons examiné les potentialités de piégeage réversible d'un herbicide, la bentazone, sur des tissus de carbone activé en utilisant un procédé électrochimique. Nous avons montré que la polarisation cathodique permet véritablement de régénérer la porosité du tissu de carbone avec une cinétique de désorption rapide et supérieure à la cinétique d'adsorption. Le processus d'adsorption fait intervenir essentiellement des interactions dispersives, en partie atténuées par les répulsions électrostatiques avec les groupes de surface dissociés. La bentazone s'adsorbe à plat par interactions et envahit les ultramicropores. La désorption sous polarisation négative implique des forces électrostatiques répulsives entre la surface de carbone polarisée et la bentazone chargée négativement, significativement renforcées par la présence du champ électrostatique, d'autant plus à des valeurs de pH élevées. L'électrodécomposition de l'eau joue un rôle crucial en provoquant une augmentation locale de pH dans la porosité, favorisant la dissociation de la bentazone, et donc en accentuant les répulsions électrostatiques. Les taux de désorption sont élevés et atteignent jusqu'à 95% au second cycle de désorption, sans altérer les propriétés physico-chimiques initiales de l'adsorbant carboné. Lors du premier cycle de désorption, on constate qu'une partie de la bentazone reste piégée irréversiblement (30 à 50%), soit parce qu'elle est bloquée dans l'ultramicroporosité ou bien parce qu'elle est adsorbée au niveau de feuillets qui ne sont pas connectés électriquement aureste du réseau carboné, et restent donc inefficaces lors de la polarisation de l'électrode.
234

Modélisation de la détection de présence humaine

Belconde, Antoine 28 September 2010 (has links) (PDF)
Les travaux présentés dans ce manuscrit traitent de la détection de présence humaine à l'aide d'un ou plusieurs capteurs. Ces travaux ont été menés au sein de l'Institut PRISME dans le cadre du projet CAPTHOM du pôle de compétitivité S2E2. Nous proposons une réflexion sur les phénomènes physiques en jeu pour la détection de présence humaine et un état de l'art des différents systèmes utilisés pour la détection de présence humaine aujourd'hui. La solution commerciale la plus prisée aujourd'hui est l'utilisation des détecteurs de mouvements basés sur la détection de la chaleur du corps humain, c'est-à-dire, la détection des émissions infrarouges. Le besoin de l'information de présence se fait ressentir dans de nombreux projets qui ont pour but de gérer les ressources énergétiques domestiques et/ou qui ont une vocation pour le maintien à domicile. Après une évaluation de plusieurs capteurs de différentes technologies à l'aide de scénarios basiques, notre intérêt s'est porté sur les capteurs de type thermopile. Ces capteurs ont fait l'objet d'une série de tests pour aboutir à la proposition d'un modèle de la réponse des capteurs. En parallèle, nous abordons la problématique de la localisation d'une personne dans une pièce. Deux méthodes sont proposées et ont pour point commun l'utilisation d'un réseau de capteurs. La première méthode utilise les chaînes de Markov cachées et permet de trouver le chemin parcouru par la personne et ouvre des perspectives sur le diagnostic des erreurs de détections des capteurs. La deuxième méthode permet d'obtenir les coordonnées dans l'espace d'une cible à l'aide d'une optimisation par Levenberg-Marquardt des coordonnées à l'aide des réponses des capteurs de type thermopile et de leur modèle. Au final, nous nous sommes intéressés au cadre du maintien à domicile. Nous avons à notre disposition un appartement pilote qui a la particularité d'être entièrement domotisé. Une personne âgée a pu tester cet habitat durant plusieurs semaines. Les résultats obtenus nous confortent pour l'utilisation des capteurs étudiés et des méthodes de localisation développées.
235

Génération d'indicateurs de maintenance par une approche semi-paramétrique et par une approche markovienne

Vrignat, Pascal 14 October 2010 (has links) (PDF)
Les stratégies de maintenance et leurs évaluations demeurent une préoccupationparticulièrement forte au sein des entreprises aujourd'hui. Les enjeux socio-économiquesdépendant de la compétitivité de chacune d'entre elles sont de plus en plus étroitement liés àl'activité et à la qualité des interventions de maintenance. Une suite d'évènements particulierspeut, éventuellement, informer l'expert d'une panne prochaine. Notre étude tente d'appréhender" cette signature " à l'aide d'un modèle de Markov caché. Nous proposons à l'expert deuxstratégies sur l'estimation du niveau de dégradation du système maintenu. La première stratégieconsiste à utiliser des lois de dégradation non paramétrique et semi-paramétrique. La deuxièmestratégie consiste à utiliser une approche markovienne. Toutes les propositions sont illustrées surdeux études de cas correspondant à deux situations réelles de travail (système continu dans lafabrication de pain et produits moulés en alliages d'aluminium dans le cadre d'un processusdiscontinu).
236

Nonlinear transient analysis of isotropic and composite shell structures under dynamic loading by SPH method

Lin, Jun 02 April 2014 (has links) (PDF)
The objective of this thesis is the development and the extension of the SPH method for the analysis of isotropic and multilayered composite shell structures, undergoing dynamic loading. Major defects of the classical SPH method such as the lack of consistency, the tensile instability are solved by "Corrective Smoothed Particle Method", the use of the Total Lagrangian Formulation and artificial viscosity. Mindlin-Reissner Theory is employed for the modeling of thick shells, by using only one layer of particles in the mid-plane. The strong form of the governing equations for shell structures are discretized directly by the modified SPH method and solved using the central difference time integration scheme. An extension of the method has been introduced for the modeling of low-velocity impact of shells by rigid impactors. The contact force is calculated based on the Hertzian contact law. A last extension of the SPH method concerns the integration of Tsai-Wu failure criterion for the modeling of progressive degradation of multilayered structures.
237

Modélisation d’essais de choc sur dispositifs de retenue de véhicules : Application aux dispositifs mixtes acier-bois

GOUBEL, Clément 13 December 2012 (has links)
En France, un tiers des personnes tuées sur la route le sont lors d’un accident sur un obstacle fixe. Dans 90% des cas, ces accidents surviennent après une perte de contrôle du véhicule. Les dispositifs de retenue de véhicule ont pour but de maintenir les véhicules en perdition sur la chaussée en limitant la sévérité de l’impact. Ces dispositifs doivent subir des essais de chocs normatifs afin de pouvoir être installés sur le bord des routes européennes et d’évaluer leurs performances en termes de sévérité et de déflexion. Les tolérances existantes sur les paramètres d’essai (véhicule, masse du véhicule, vitesse, angle et point d’impact …) et les incertitudes sur les caractéristiques mécaniques des matériaux constituant le dispositif ont un effet sur les performances de ce dispositifs et doivent être prises en compte lors des calculs Les dispositifs mixtes (acier-bois) présentent une difficulté supplémentaire en raison de l’hétérogénéité du matériau et de sa sensibilité aux variables d’environnement telles que la température et l’humidité. Afin de prendre en compte cette variabilité et d’évaluer son impact sur les performances d’un dispositif, des essais dynamiques sur des échantillons de structure ont été réalisés et modélisés numériquement. Enfin, un modèle complet d’un dispositif de retenue de véhicule a été effectué et corrélé sur un essai de choc réel à l’aide d’une méthode prenant en compte la variation de paramètres physiques liés à l’apparition des modes de ruine de la structure. Une fois corrélé, le modèle a été utilisé afin d’évaluer l’incidence de la modification des caractéristiques mécaniques du bois liée aux variations des conditions environnementales.
238

Modular Multilevel Converters for HVDC power stations

Serbia, Nicola 29 January 2014 (has links) (PDF)
Les travaux présentés dans ce mémoire ont été réalisés dans le cadre d'une collaboration entre le LAboratoire PLAsma et Conversion d'Énergie (LAPLACE), Université de Toulouse, et la Seconde Université de Naples (SUN). Ce travail a reçu le soutien de la société Rongxin Power Electronics (Chine) et traite de l'utilisation des convertisseurs multi-niveaux pour le transport d'énergie électrique en courant continu Haute Tension (HVDC). Depuis plus d'un siècle, la génération, la transmission, la distribution et l'utilisation de l'énergie électrique sont principalement basées sur des systèmes alternatifs. Les systèmes HVDC ont été envisagés pour des raisons techniques et économiques dès les années 60. Aujourd'hui il est unanimement reconnu que ces systèmes de transport d'électricité sont plus appropriés pour les lignes aériennes au-delà de 800 km de long. Cette distance limite de rentabilité diminue à 50 km pour les liaisons enterrées ou sous-marines. Les liaisons HVDC constituent un élément clé du développement de l'énergie électrique verte pour le XXIème siècle. En raison des limitations en courant des semi-conducteurs et des câbles électriques, les applications à forte puissance nécessitent l'utilisation de convertisseurs haute tension (jusqu'à 500 kV). Grâce au développement de composants semi-conducteurs haute tension et aux architectures multicellulaires, il est désormais possible de réaliser des convertisseurs AC/DC d'une puissance allant jusqu'au GW. Les convertisseurs multi-niveaux permettent de travailler en haute tension tout en délivrant une tension quasi-sinusoïdale. Les topologies multi-niveaux classiques de type NPC ou " Flying Capacitor " ont été introduites dans les années 1990 et sont aujourd'hui couramment utilisées dans les applications de moyenne puissance comme les systèmes de traction. Dans le domaine des convertisseurs AC/DC haute tension, la topologie MMC (Modular Multilevel Converter), proposée par le professeur R. Marquardt (Université de Munich, Allemagne) il y a dix ans, semble particulièrement intéressante pour les liaisons HVDC. Sur le principe d'une architecture de type MMC, le travail de cette thèse propose différentes topologies de blocs élémentaires permettant de rendre le convertisseur AC/DC haute tension plus flexible du point de vue des réversibilités en courant et en tension. Ce document est organisé de la manière suivante. Les systèmes HVDC actuellement utilisés sont tout d'abord présentés. Les configurations conventionnelles des convertisseurs de type onduleur de tension (VSCs) ou de type onduleur de courant (CSCs) sont introduites et les topologies pour les systèmes VSC sont ensuite plus particulièrement analysées. Le principe de fonctionnement de la topologie MMC est ensuite présenté et le dimensionnement des éléments réactifs est développé en considérant une commande en boucle ouverte puis une commande en boucle fermée. Plusieurs topologies de cellules élémentaires sont proposées afin d'offrir différentes possibilités de réversibilité du courant ou de la tension du côté continu. Afin de comparer ces structures, une approche analytique de l'estimation des pertes est développée. Elle permet de réaliser un calcul rapide et direct du rendement du système. Une étude de cas est réalisée en considérant la connexion HVDC d'une plateforme éolienne off-shore. La puissance nominale du système étudié est de 100 MW avec une tension de bus continu égale à 160 kV. Les différentes topologies MMC sont évaluées en utilisant des IGBT ou des IGCT en boitier pressé. Les simulations réalisées valident l'approche analytique faite précédemment et permettent également d'analyser les modes de défaillance. L'étude est menée dans le cas d'une commande MLI classique avec entrelacement des porteuses. Enfin, un prototype triphasé de 10kW est mis en place afin de valider les résultats obtenus par simulation. Le système expérimental comporte 18 cellules de commutations et utilise une plate-forme DSP-FPGA pour l'implantation des algorithmes de commande.
239

Grid reliability assessment for short-term planning

Dogan, Gamze 10 September 2018 (has links) (PDF)
With the increasing amount of renewable and difficult-to-forecast generation units, Transmission System Operators (TSO) face new challenges to operate the grid properly. The deterministic N-1 criterion is currently used to assess grid reliability. This criterion states that the loss of an active component should not trigger the violation of operational constraints. It has been chosen in the conventional context of electricity in which large units produced power transmitted to the consumer through the transmission and the distribution systems. The renewable energy sources, the distributed generations, and the liberalization of the electricity market led to a revolution in power systems. Renewable energies present intrinsic variability and limited predictability. Those variables are thus subject to forecasting errors. Distributed generations changed the structure of the power system to include smaller productions dispersed in the grid. The competitive electricity market led the consumers to react to electricity prices. The load is thus now subject to higher forecasting errors. An increasing share of the power system’s variables is thus now subject to errors that are likely to affect the operations and the planning of the grid. The N-1 criterion reaches limitations in considering the new characteristics of the power system. To account for this evolution, TSOs have to make a shift in paradigm. They must go from the N-1 criterion to a reliability-based approach, with risk management and integration of errors on forecasted values. This amounts to going from deterministic to probabilistic approaches capable of quantifying this risk.The purpose of this research project is to develop the basis of an industrial tool. The method considers thus the barriers to the use of a probabilistic method for grid planning. TSOs are indeed reluctant to give up the N-1 criterion. They fear that a probabilistic method would be too difficult to understand and apply and that the related computational time would be too long for the operational planning.The method proposed in this research project aims at overcoming those barriers. The method sets the basis of a decision support tool for the planners to make sound decisions. It is thus not a black-box and the planners are included in the assessment. The method is based on the current work of the planners and widens it to englobe probabilistic considerations. It offers thus a smooth evolution from a deterministic to a probabilistic method which will ease the industrial development of the tool using it. The method is called Discrete Forecast ERrors Scenarios method: DIFERS. It has been developed to be consistent with the operational planning in terms of time constraints and available information. It relies on three evolutions from the deterministic N-1 criterion: 1. Include possible variations from the best estimate of the forecasts.2. Enlarge the contingency list to higher N-k events.3. Consider the impact and the probability of the events to compute their risk.The contingency list evolves thus toward a risk-based classification of events. The planners’ work aims then at proposing actions to decrease the risk to an acceptable level. The first step of DIFERS is performed off-line to relax the time constraints. It aims at evaluating the contingency list for a set of situations. It performs an assessment on the most probable events, considering a larger group than the N-1 criterion. The assessment focuses on N-1 and nearby N-2 events. The nearby events have been selected based on a distance criterion defined in terms of number of components in the smallest path from one component to another. Some random N-3 and N-4 events are also analyzed to assess the evolution of the risk with regard to the number of failing components. Continuous variables are represented by their probability density functions (PDFs), which represent the variation range for the set of situations considered. Those PDFs are discretized to limit the computational time. The assessment of the contingencies is performed on each combination of those discrete points. The second step uses the contingency list developed in step 1 to assess the risk related to a specific situation: a grid plan. The PDFs used in this step represent the forecasting errors on the continuous variables for the grid plan considered. They are also discretized and each combination is tested with the events of the contingency list. At the end of the assessment, indicators are computed and provided to the planner. The planner can then propose actions to be tested by the tool to see their impact on the reliability indicators. The assessment stops once the reliability target is met.The final step aims at updating the information computed in step 2 with newly acquired forecasts. As real-time is closer, those forecasts are more reliable. The method has been tested on a plausible scenario and on a simplified version of the Belgian grid. The load and the offshore wind production have been considered as input variables for this implementations. The results show that there is an interest in evolving toward a risk-based assessment to capture the new characteristics of the evolving context of electricity supply. The implementation of the DIFERS method should continue on several scenarios. It should integrate all continuous variables such as solar and onshore productions. Moreover, all real-life considerations on the input variables, such as correlations, should be included to represent the power system as best as possible.This research project has been conducted in collaboration with the Belgian TSO Elia and it has been financed by the Doctiris grant of Innoviris. / Doctorat en Sciences de l'ingénieur et technologie / info:eu-repo/semantics/nonPublished
240

Fault location with travelling waves

Bustamante Mparsakis, Xavier 08 February 2018 (has links) (PDF)
Travelling wave fault locators (TWFL) have the possibility to get rid of the limitation of typical locators based on the 50Hz impedance. Their principles were invented in the early 1900's, but only recently became economically viable. Some TWFL devices are now commercialized.Despite the recent commercialization of TW fault locators, actual field experience of TWFL is hard to acquire and rarely presented in the literature. Due to this, most studies are based on simplified simulation models.Practical experience in the form of TW records are important. It is the basis to understand the practical difficulties of applying TWFL algorithms. It is also necessary to illustrate the simulations limitations, and to test algorithms on real records.The work performed in this thesis was supported by Siemens with the hope to develop TWFL devices based on the results. The aim of the work was first to acquire experience in the practical side of TWs and their recording in substations. Based on this practical experience, the second objective was to study a TWFL that includes a new method for wave detection: the pattern recognition algorithm (PRA). The practical experience was acquired with a measurement campaign performed in the Belgian transmission network, and with laboratory tests that reproduce the measurements of currents inside a substation.Fault records suitable to TW studies were acquired during the measurement campaign, and are analysed in this report. The fault records and the laboratory tests highlighted and characterized the impact of the substation measurements on the waves recorded. Modelling those measurement systems is shown to improve the accuracy of the simulation tools.This report also presents a theoretical development of the PRA. The algorithm is adapted to take into account the practical difficulties previously analysed. An applicable version of the algorithm is proposed and tested. The algorithm proposal provides a precision better than 300m when applied to the simulation models. This precision varies with the set of parameters used, with the line topology, and with the fault location. On the field record acquired, the algorithm provides the fault location with a precision of 110m.A prototype has been developed by Siemens, and some devices have been installed at the end of this thesis. The TW records that will be acquired by those prototypes will provide a significant help in continuing the work presented in this report. / Doctorat en Sciences de l'ingénieur et technologie / info:eu-repo/semantics/nonPublished

Page generated in 0.079 seconds