291 |
Caractérisation des décharges partielles et identification des défauts dans les PSEM sous haute tension continue / Characterization of Partial Discharges and Defect Identification in High-Voltage Direct Current GISOuss, Etienne 24 September 2018 (has links)
Cette thèse s’inscrit dans le contexte de la surveillance des postes sous enveloppe métallique (PSEM) en courant continu (DC). La disponibilité de ces équipements étant primordiale pour leurs utilisateurs, il est nécessaire de disposer d’un outil de surveillance (monitoring) permettant de prévenir toute défaillance. Cet outil doit être capable de détecter et d’identifier les défauts présents, afin d’apporter une réponse adaptée. Depuis de nombreuses années, le monitoring des PSEM en AC est réalisé grâce à la mesure des décharges partielles (DP). Malheureusement, les connaissances des DP dans les PSEM en DC sont encore lacunaires, et les techniques d’identification des défauts sont intrinsèquement liées à l’environnement AC. De nouvelles techniques sont donc nécessaires en DC.Ce travail de thèse avait pour but de caractériser les décharges partielles dans les postes sous enveloppe métallique en tension continue, et de mettre en place une solution de reconnaissance automatique des défauts. Pour cela, un banc de mesure des décharges partielles a d’abord été mis en place. Afin de garantir la pertinence des résultats pour des systèmes industriels, les travaux ont été réalisés dans une section de PSEM sous tension continue. Le comportement des DP a été étudié pour deux types de défauts : des pointes sur le conducteur haute-tension et des particules libres métalliques. La caractérisation a porté sur l’influence de plusieurs paramètres : la nature et la pression du gaz, le niveau et la polarité de la tension. La mesure des DP a d’abord été réalisée en conformité avec la norme IEC 60270, permettant ainsi d’évaluer la pertinence de cette méthode pour les applications DC. La caractérisation a été complétée grâce à d’autres chaînes de mesure : une mesure de courant stationnaire, une mesure de courant haute-fréquence, une mesure de lumière, et une mesure des ondes ultra-haute fréquence (UHF). Le travail sur l’identification des défauts a d’abord consisté à construire une signature pertinente à partir des mesures de DP, puis à constituer une base de données, et enfin à implémenter un algorithme de reconnaissance automatique.Ces travaux ont montré que la méthode conventionnelle de mesure des DP présente certaines limites pour la détection des décharges partielles en DC, notamment pour les décharges couronne. Elle a tout de même permis de faire une bonne partie du travail de caractérisation. Les résultats obtenus avec les autres chaînes de mesure utilisées ont permis d’expliquer les lacunes de la méthode conventionnelle. Ils ont également permis un véritable apport pour la caractérisation des DP engendrées par des défauts de type pointe et particule. Enfin, une classification automatique efficace des défauts a été mise en place. Elle s’appuie sur le diagramme q(Δt) issu des données de la mesure conventionnelle des décharges partielles et sur un algorithme de réseau de neurones. / The framework of this thesis is the monitoring of High-Voltage, Direct Current (HVDC) Gas-Insulated Substations (GIS). The availability of these equipment is crucial for electrical networks operators. That is why they need a preventive diagnosis tool. The solution must be able to detect and identify the insulation defects, so that an appropriate maintenance can be planned. The last 40 years have seen Partial Discharges (PD) measurement become a classic monitoring tool for AC GIS. Unfortunately, there is a lack of scientific information about PD in HVDC GIS, and the known defect identification techniques are very specific to the AC environment. New techniques are thus needed in DC.This thesis aimed to characterize partial discharges in DC gas-insulated substations, and to develop an automatic defect identification tool. The first step of this work was the development of a partial discharge measuring bench. The complete study has been performed in a GIS section, so that the results can be directly applied to industrial equipment. Two kinds of defect have been investigated: protrusions on the high-voltage conductor, and free metallic particles. The influence of parameters such as gas nature and pressure, voltage level and polarity has been evaluated. First, PD have been measured in conformity with the IEC 60270 standard, and the relevance of this method in a DC environment has been evaluated. Then, other measuring chains have been used to improve the characterization of partial discharges: a steady-state current measurement, a high-frequency current measurement, a light measurement and a measurement of Ultra-High Frequency (UHF) waves. Finally, a relevant signature for defect identification has been designed and extracted from DP recordings. A database has been constituted, and an automated recognition algorithm has been implemented.The results show that the conventional PD measurement technique is not fully adapted to partial discharges detection in DC, corona discharges being the most problematic situation. Nevertheless, this method has brought enough information to start the characterization of PD. The limitations of the conventional method have been explained thanks to the results of the other measurements. These other experimental results have led to an actual improvement of the characterization of protrusion and particle-generated partial discharges. An effective automated defect classification solution has been implemented. The signature is derived from the q(Δt) diagram that has been extracted from the data obtained with the partial discharge conventional measurement. The identification algorithm has a neural network structure.
|
292 |
Characterization of deeply buried interfaces by Hard X-ray Photoelectron Spectroscopy / Caractérisation d’interfaces profondément enterrées par spectroscopie de photoélectrons à haute énergie (HAXPES)Zborowski, Charlotte 27 June 2018 (has links)
Cette thèse vise à améliorer la méthode d'analyse du fond continu inélastique afin de l'appliquer à des cas qui présentent un intérêt technologique. En effet, ces améliorations sont cruciales car elles portent sur des critères de précision et de gain de temps, plus particulièrement pour l’étude de dispositifs présentant plusieurs couches profondément enterrées de matériaux bien distincts. Ainsi, l'analyse du fond continu inélastique associée à la spectroscopie de photoélectrons à rayons X durs (HAXPES) présente un grand intérêt car l’HAXPES permet de sonder plus profondément dans un échantillon qu'avec la spectroscopie de photoélectrons à rayons X classique (XPS). Ce présent travail porte sur des échantillons technologiquement pertinents, principalement des transistors à haute mobilité d'électrons (HEMTs), à certaines étapes cruciales de leur processus de fabrication, tels que des recuits. Il est donc très important que ces analyses soient effectuées de manière non destructive afin de préserver les interfaces enterrées. Ce sont souvent l'emplacement de phénomènes complexes qui sont critiques pour les performances du dispositif et une meilleure compréhension est une condition préalable à l’amélioration des dispositifs. Dans ce travail, les phénomènes de diffusion en profondeur sont étudiés grâce à l’analyse du fond continu inélastique associée à l’HAXPES (en utilisant le logiciel QUASES) pour des profondeurs allant jusqu'à 60 nm. Les résultats de distribution en profondeur présentent des écarts par rapport aux mesures TEM inférieures à 5%. Le choix des paramètres d'entrée de la méthode est discuté pour une large gamme d'échantillons et des règles simples en sont issues qui rendent l'analyse réelle plus facile et plus rapide à effectuer. Enfin, il a été montré que la spectromicroscopie faite avec la technique HAXPEEM peut fournir des spectres à chaque pixel utilisables pour l’analyse du fond continu inélastique. Cela peut fournir une cartographie 3D de la distribution en profondeur des éléments de manière non-destructive. / This thesis aims at improving the inelastic background analysis method in order to apply it to technologically relevant samples. Actually, these improvements are utterly needed as they concern criteria of accuracy and time saving particularly for analysis of devices presenting deeply buried layers with different materials. For this purpose, the interest of the inelastic background analysis method is at its best when combined with hard X-ray photoelectron spectroscopy (HAXPES) because HAXPES allows to probe deeper in the sample than with conventional X-ray photoelectron spectroscopy (XPS). The present work deals with technologically relevant samples, mainly the high-electron mobility transistor (HEMT), at some crucial steps of their fabrication process as annealing. Actually, it is very important that these analyses shall be performed non-destructively in order to preserve the buried interfaces. These are often the location of complex phenomena that are critical for device performances and a better understanding is often a prerequisite for any improvement. In this thesis, the in-depth diffusion phenomena are studied with the inelastic background analysis technique (using the QUASES software) combined with HAXPES for depth up to 60 nm. The depth distribution results are determined with deviations from TEM measurements smaller than a typical value of 5%. The choice of the input parameters of the method is discussed over a large range of samples and simple rules are derived which make the actual analysis easier and faster to perform. Finally, it was shown that spectromicroscopy obtained with the HAXPEEM technique can provide spectra at each pixel usable for inelastic background analysis. This is a proof of principle that it can provide a 3D mapping of the elemental depth distribution with a nondestructive method. / Denne afhandling har til formål at forbedre den uelastiske baggrundsanalysemetode til anvendelser i den til teknologiske industri. Faktisk er disse forbedringer absolut nødvendige, for at opnå nøjagtighed og tidsbesparelse, især for analyse af prøver med dybt begravede lag af forskellige materialer. Til det formål er interessen for den uelastiske baggrundsanalysemetode bedst i kombination med hård røntgenfotoelektron-spektroskopi (HAXPES), fordi HAXPES gør det muligt at probe dybere i prøven end med konventionel røntgenfotoelektron-spektroskopi (XPS). Dette arbejde beskæftiger sig med teknologisk relevante prøver, hovedsagelig høj-elektron mobilitetstransistor (HEMT), på nogle afgørende trin i deres fremstillingsproces som fx annealing. Faktisk er det meget vigtigt, at disse analyser udføres på en ikke-destruktiv måde for at bevare de begravede grænseflader. Det er ofte her de komplekse fysiske fænomener opstår, som er kritiske for fuktionaliteten, og en bedre forståelse af grænsefladerne er ofte en forudsætning for at kunne forbedre denne. I denne afhandling studeres de dybdegående diffusionsfænomener med den uelastiske baggrundsanalyse teknik (ved hjælp af QUASES software) kombineret med HAXPES for dybder op til 60 nm. Dybdestributionsresultaterne har afvigelser fra TEM-målinger mindre end en typisk værdi på 5%. Valget af input parametre for metoden er diskuteret på bagground af et stort udvalg af prøver samt omfattende simuleringer og enkle regler er udledt, hvilket gør den praktiske analyse nemmere og hurtigere at udføre. Endelig blev det vist, at spektromikroskopi opnået med HAXPEEM-teknikken kan tilvejebringe spektre ved hver enkelt pixel som kan anvendes til uelastisk baggrundsanalyse. Dette viser at i princippet kan en 3D-billeddannelse af den elementære dybdefordeling bestemmes ikke destruktivt.
|
293 |
Réactions d’amination de liens C-H : synthèse d’amines propargyliques à partir de N-mésyloxycarbamates et études mécanistiquesBartholoméüs, Johan 07 1900 (has links)
Les composés aminés représentent une grande part des substances actives en chimie médicinale. Les travaux rapportés dans cette thèse décrivent les efforts consacrés au développement d’une nouvelle méthode d’amination de liens C-H propargyliques. Notre groupe de recherche a développé depuis quelques années un nouveau précurseur de nitrène métallique, les N-mésyloxycarbamates, permettant d’effectuer des réactions d’amination de liaisons C-H diversement activées. Au cours du développement de notre méthodologie, la synthèse du N-mésyloxycarbamate a fait l’objet de nombreuses optimisations, notamment en améliorant l’échelle globale de la synthèse ainsi que son efficacité. De même, des efforts ont été consacrés pour diminuer le nombre d’étapes nécessaires à la synthèse du réactif en développant la synthèse d’un des intermédiaires de manière énantiosélective. Enfin, la synthèse de ce réactif a également été envisagée à l’aide de la chimie en flux continu.
Au cours du développement de la méthode de synthèse d’amines propargyliques, nous avons constaté que l’acide acétique jouait un rôle déterminant dans la conservation de bonnes sélectivités et réactivités de la réaction. Ces différentes observations ont permis de mettre au point un procédé diastéréosélectif efficace permettant d’obtenir des amines propargyliques avec des rendements allant de moyens à bons et avec d’excellentes diastéréosélectivités.
A la suite de l’étude de l’étendue de notre procédé, nous avons tenté de déterminer les mécanismes réactionnels qui régissaient la réactivité et la sélectivité de celui-ci. Nous avons ainsi montré que l’espèce réactive du système catalytique était bel et bien un nitrène métallique, et que l’étape cinétiquement déterminante était celle d’insertion. Des expériences faites en oxydant l’espèce catalytique de rhodium ont suggéré que plusieurs états d’oxydation de cette espèce peuvent être présents et actifs dans le système catalytique. / The nitrogen containing compounds represent a large portion of the active substances in medicinal chemistry. The work reported in this manuscript describe the efforts devoted to the development of a new method of amination of propargylic C-H bonds. Our research group has developed recently a new metal nitrene precursor, N-mesyloxycarbamates, to perform amination reactions on various C-H bonds. During the development of our methodology, the synthesis of N-mesyloxycarbamate has undergone many improvements, including improved global scale synthesis and effectiveness. Similarly, efforts were devoted to reduce the number of steps required for the synthesis of the reagent by developing the synthesis of an intermediate enantioselectively. Finally, the synthesis of this reagent was also considered using continuous flow chemistry.
During development of the method of synthesis of propargylic amines, we have found that acetic acid plays a key role in the conservation of good selectivity and reactivity of the reaction. These observations allowed to develop an efficient diastereoselective process in order to obtain propargylic amines with moderate to good yields and with excellent diastereoselectivities.
Following the study of the scope of our process, we tried to determine the reaction mechanisms governing the reactivity and selectivity. We have shown that the reactive species of the catalyst system was indeed a metal nitrene, and that the rate-determining step was the insertion. Experiments made by oxidizing the rhodium catalytic species suggested that several oxidation states of this species may be present and active in the catalytic system.
|
294 |
Instabilités hydrodynamiques des liquides magnétiques miscibles et non miscibles dans une cellule de Hele-ShawIgonin, Maksim 29 November 2004 (has links) (PDF)
Ce manuscrit décrit analytiquement et numériquement les instabilités d'un fluide magnétique dans une cellule de Hele-Shaw. On considère l'interface entre un fluide magnétique et un autre fluide non magnétique, miscible ou non, soumise à un champ magnétique homogène normal à la cellule ou à l'interface. Le champ démagnétisant est inhomogène à cette interface et génère un mouvement convectif des fluides. Dans la première partie, nous avons utilisé une analyse linéaire de stabilité entre deux liquides miscibles pour une distribution donnée de concentration à l'interface. Les résultats s'appliquent aussi à la stabilité d'un réseau de concentration induit par une expérience de Rayleigh forcé. Nous avons démontré que l'équation de Brinkman décrit mieux la dissipation visqueuse dans une cellule de Hele-Shaw que celle de Darcy. Nous avons trouvé que la viscosité (et non la diffusion massique) donnait à l'écoulement une échelle de longueur de l'ordre de l'épaisseur de la cellule dans le cas des forçages élevés. Dans la seconde partie de notre étude, nous avons modélisé la dynamique non linéaire de l'interface avec une tension superficielle par la méthode des intégrales de frontière. Nous avons décrit la modification des doigts de Saffman–Taylor par les forces magnétostatiques. Nous avons obtenu des structures dendritiques proches de celles observées expérimentalement et analysé quelques aspects de la formation des motifs.
|
295 |
Semimartingales et Problématiques Récentes en Finance QuantitativeKchia, Younes 30 September 2011 (has links) (PDF)
Dans cette thèse, nous étudions différentes problématiques d'actualité en finance quantitative. Le premier chapitre est dédié à la stabilité de la propriété de semimartingale après grossissement de la filtration de base. Nous étudions d'abord le grossissement progressif d'une filtration avec des temps aléatoires et montrons comment la décomposition de la semimartingale dans la filtration grossie est obtenue en utilisant un lien naturel entre la filtration grossie initiallement et celle grossie progressivement. Intuitivement, ce lien se résume au fait que ces deux filtrations coincident après le temps aléatoire. Nous précisons cette idée et l'utilisons pour établir des résultats connus pour certains et nouveaux pour d'autres dans le cas d'un grossissement de filtrations avec un seul temps aléatoire. Les méthodes sont alors étendues au cas de plusieurs temps aléatoires, sans aucune restriction sur l'ordre de ces temps. Nous étudions ensuite ces filtrations grossies du point de vue des rétrécissements des filtrations. Nous nous intéressons enfin au grossissement progressif de filtrations avec des processus. En utilisant des résultats de la convergence faible de tribus, nous établissons d'abord un théorème de convergence de semimartingales, que l'on appliquera dans un contexte de grossissement de filtrations avec un processus pour obtenir des conditions suffisantes pour qu'une semimartingale de la filtration de base reste une semimartingale dans la filtration grossie. Nous obtenons des premiers résultats basés sur un critère de type Jacod pour les incréments du processus utilisé pour grossir la filtration. Nous nous proposons d'appliquer ces résultats au cas d'un grossissement d'une filtration Brownienne avec une diffusion retournée en temps et nous retrouvons et généralisons quelques examples disponibles dans la littérature. Enfin, nous concentrons nos efforts sur le grossissement de filtrations avec un processus continu et obtenons deux nouveaux résultats. Le premier est fondé sur un critère de Jacod pour les temps d'atteinte successifs de certains niveaux et le second est fondé sur l'hypothèse que ces temps sont honnêtes. Nous donnons des examples et montrons comment cela peut constituer un premier pas vers des modèles dynamiques de traders initiés donnant naissance à des opportunités d'arbitrage nocives. Dans la filtration grossie, le terme à variation finie du processus de prix peut devenir singulier et des opportunités d'arbitrage (au sens de FLVR) apparaissent clairement dans ces modèles. Dans le deuxième chapitre, nous réconcilions les modèles structuraux et les modèles à forme réduite en risque de crédit, du point de vue de la contagion de crédit induite par le niveau d'information disponible à l'investisseur. Autrement dit, étant données de multiples firmes, nous nous intéressons au comportement de l'intensité de défaut (par rapport à une filtration de base) d'une firme donnée aux temps de défaut des autres firmes. Nous étudions d'abord cet effet sous des spécifications différentes de modèles structuraux et sous différents niveaux d'information, et tirons, par l'exemple, des conclusions positives sur la présence d'une contagion de crédit. Néanmoins, comme plusieurs exemples pratiques ont un coup calculatoire élevé, nous travaillons ensuite avec l'hypothèse simplificatrice que les temps de défaut admettent une densité conditionnelle par rapport à la filtration de base. Nous étendons alors des résultats classiques de la théorie de grossissement de filtrations avec des temps aléatoires aux temps aléatoires non-ordonnés admettant une densité conditionnelle et pouvons ainsi étendre l'approche classique de la modélisation à forme réduite du risque de crédit à ce cas général. Les intensités de défaut sont calculées et les formules de pricing établies, dévoilant comment la contagion de crédit apparaît naturellement dans ces modèles. Nous analysons ensuite l'impact d'ordonner les temps de défaut avant de grossir la filtration de base. Si cela n'a aucune importance pour le calcul des prix, l'effet est significatif dans le contexte du management de risque et devient encore plus prononcé pour les défauts très corrélés et asymétriquement distribués. Nous proposons aussi un schéma général pour la construction et la simulation des temps de défaut, étant donné qu'un modèle pour les densités conditionnelles a été choisi. Finalement, nous étudions des modèles de densités conditionnelles particuliers et la contagion de crédit induite par le niveau d'information disponible au sein de ces modèles. Dans le troisième chapitre, nous proposons une méthodologie pour la détection en temps réel des bulles financières. Après la crise de crédit de 2007, les bulles financières ont à nouveau émergé comme un sujet d'intéret pour différents acteurs du marché et plus particulièrement pour les régulateurs. Un problème ouvert est celui de déterminer si un actif est en période de bulle. Grâce à des progrès récents dans la caractérisation des bulles d'actifs en utilisant la théorie de pricing sous probabilité risque-neutre qui caractérise les processus de prix d'actifs en bulles comme étant des martingales locales strictes, nous apportons une première réponse fondée sur la volatilité du processus de prix de l'actif. Nous nous limitons au cas particulier où l'actif risqué est modélisé par une équation différentielle stochastique gouvernée par un mouvement Brownien. Ces modèles sont omniprésents dans la littérature académique et en pratique. Nos méthodes utilisent des techniques d'estimation non paramétrique de la fonction de volatilité, combinées aux méthodes d'extrapolation issues de la théorie des reproducing kernel Hilbert spaces. Nous illustrons ces techniques en utilisant différents actifs de la bulle internet (dot-com bubble)de la période 1998 - 2001, où les bulles sont largement acceptées comme ayant eu lieu. Nos résultats confirment cette assertion. Durant le mois de Mai 2011, la presse financière a spéculé sur l'existence d'une bulle d'actif après l'OPA sur LinkedIn. Nous analysons les prix de cet actif en nous basant sur les données tick des prix et confirmons que LinkedIn a connu une bulle pendant cette période. Le dernier chapitre traite des variances swaps échantillonnés en temps discret. Ces produits financiers sont des produits dérivés de volatilité qui tradent activement dans les marchés OTC. Pour déterminer les prix de ces swaps, une approximation en temps continu est souvent utilisée pour simplifier les calculs. L'intérêt de ce chapitre est d'étudier les conditions garantissant que cette approximation soit valable. Les premiers théorèmes caractérisent les conditions sous lesquelles les valeurs des variances swaps échantillonnés en temps discret sont finies, étant donné que les valeurs de l'approximation en temps continu sont finies. De manière étonnante, les valeurs des variances swaps échantillonnés en temps discret peuvent etre infinies pour des modèles de prix raisonnables, ce qui rend la pratique de marché d'utiliser l'approximation en temps continu invalide. Des examples sont fournis. En supposant ensuite que le payoff en temps discret et son approximation en temps continu ont des prix finis, nous proposons des conditions suffisantes pour qu'il y ait convergence de la version discrète vers la version continue. Comme le modèle à volatilité stochastique 3/2 est de plus en plus populaire, nous lui appliquons nos résultats. Bien que nous pouvons démontrer que les deux valeurs des variances swaps sont finies, nous ne pouvons démontrer la convergence de l'approximation que pour certaines valeurs des paramètres du modèle.
|
296 |
Étude de l'apparition des contraintes résiduelles dans le procédé d'empilement par soudage et consolidation en continu de composites thermoplastiquesLemarchand, François 03 December 2008 (has links) (PDF)
Nos travaux se sont intéressés à la modélisation de l'apparition des contraintes résiduelles dans le procédé d'empilement par soudage et consolidation en continu développé dans l'industrie aéronautique. Dans les conditions standard d'élaboration, les pièces réalisées par ce type de procédé sont le siège d'importantes contraintes résiduelles. L'ignorance de leur origine et développement est un frein important à la validation industriel de ce procédé prometteur. Dans cette perspective, l'originalité de l'étude a été de développer une méthode de modélisation numérique multi-échelle et multi-physique permettant de réaliser une modélisation couplée aux échelles macroscopique et microscopique du phénomène de l'apparition des contraintes résiduelles, au cours du procédé. L'échelle microscopique, décrite à l'aide de la méthode des éléments naturels contraints (CNEM), apporte à l'échelle macroscopique les propriétés thermomécaniques homogénéisées du matériau à chaque pas de temps. L'échelle macroscopique apporte à l'échelle microscopique les conditions aux limites (températures, déplacements), qui permettent de déterminer les champs de température, de déformation et de contrainte microscopiques dans le matériau au cours du temps. Les résultats obtenus en terme de validation et d'application de la méthode au procédé d'empilement par chauffage et consolidation en continu sont satisfaisants et prometteurs. La méthode développée peut de plus être aisément appliquée à d'autres types de procédé de mise en forme des composites thermoplastiques.
|
297 |
Développement de nouvelles sources laser accordables dans l'infrarouge proche autour du cristal de lisaf dope avec l'ion cr#3#+Balembois, François 04 February 1994 (has links) (PDF)
Le sujet de ce mémoire concerne l'étude de systèmes laser utilisant un cristal de cr#3#+:lisaf comme milieu amplificateur. Ce cristal, découvert en 1989, possède une bande d'absorption, entre 600 et 700 nm, qui encadre la longueur d'onde d'émission des diodes laser rouges en gaalinp (670 nm) et une large bande d'émission dans l'infrarouge proche, entre 800 et 1000 nm. C'est l'un des meilleurs candidats a la realisation de lasers solides accordables pompes par diodes. En prevision de la commercialisation des premieres diodes laser rouges de puissance, nous avons tout d'abord utilise comme source de pompage un laser a krypton ionise emettant a 647 nm et 676 nm. Ce laser nous a permis de tester le cristal de cr#3#+:lisaf dans differentes configurations de fonctionnement. D'une part, en regime continu, nous avons obtenu des performances comparables a celles des lasers a saphir dope au titane; la seule grande difference se situant au niveau des problemes thermiques, beaucoup plus importants dans le cr#3#+:lisaf. D'autre part, en regime impulsionnel, nos systemes laser prouvent que le cr#3#+:lisaf est bien adapte a la production d'impulsions de quelques microjoules, accordables, a un taux de repetition eleve, sur une gamme temporelle s'etalant de la nanoseconde a la femtoseconde. Nous avons, ensuite, defini et realise un laser cr#3#+:lisaf pompe par une diode laser de 500 mw fonctionnant en regime quasi continu. Aujourd'hui (janvier 1994), ce laser est le plus puissant des lasers cr#3#+:lisaf pompes par diode laser rouge mentionnes dans la litterature. Nous avons repris, par la suite, les memes composants optiques pour realiser l'un des premiers lasers cr#3#+:lisaf a modes bloques, pompes par diode, delivrant des impulsions picosecondes accordables sur plus de 70 nm
|
298 |
Modelización constitutiva y computacional del daño y la fractura de materiales compuestosMaimí Vert, Pere 27 April 2007 (has links)
En el trabajo se definen modelos constitutivos que permiten reproducir el proceso de fallo de estructuras de materiales compuestos en distintas escalas bajo cargas estáticas. Se define un modelo constitutivo para determinar la respuesta de estructuras de materiales compuestos mediante la teoría de laminados. El modelo es validado mediante un programa de ensayos experimentales con probetas con un agujero central geométricamente similares. Se muestra la capacidad del modelo de detectar el efecto tamaño.Se define un modelo constitutivo para materiales transversalmente isótropos bajo estados tridimensionales de tensión. El modelo se valida analizando numéricamente el proceso de agrietamiento de la matriz. Finalmente se desarrolla un modelo analítico para determinar el agrietamiento de la matriz y la delaminación entre las capas. / In this contribution a set of constitutive models are defined to reproduce the damage processes that takes place in laminated composites until failure at different scales under static loads.A damage model is defined to determine the structural response of composite structures by means of laminated theory. The validation of this model is done by comparing the numerical results with an experimental program on open hole test specimens. The ability of the model to reproduce the size effect in laminated composite is demostrated.A damage model for a transversely isotropic material under tridimentional stress states is defined. It is numerically validated analysing the process of matrix cracking in multidirectional composites.Finally an analytical model is defined that describes the onset and evolution of matrix cracking and delamination .
|
299 |
Les chaînes arabes de télévision d'information en continu / Arabic rolling news TV channelsFerahtia, Nawel 18 September 2013 (has links)
L’essor des chaînes satellitaires arabes à l’échelle régionale et mondiale a métamorphosé l’espace médiatique arabe. Le début des années 1990 annonce la mondialisation, et l’acquisition de la technologie satellitaire dans les pays arabes semble être le début d’une nouvelle ère dans une région où se conjuguent la rentabilité financière et l’influence politique et idéologique des acteurs. Les chaînes de télévisions d’information en continu sont le modèle approprié qui traduit ce schéma dans une région politiquement, économiquement et culturellement complexe. C’est l’avènement d’Al Jazeera et sa couverture de la guerre en Afghanistan en 2001 et par la suite la guerre en Irak en 2003 qui a bien façonné une large proportion de l’opinion publique arabe. D’autres chaînes arabes du même genre en quête d’influence se sont multipliées en un temps record dans cet espace médiatique, telles qu’Al Arabiya, Al Manar, ONTV, Al Mayadeen et d’autres, le transformant ainsi de façon radicale. L’audience arabe est également convoitée par des chaînes occidentales arabophones financées par les gouvernements respectifs de leurs pays comme la chaîne américaine Al Hurra, française France 24, britannique la BBC Arabic ou allemande DW . L’étude porte sur le rôle de ces chaînes d’information dans les changements qu’a connus et connait à l’heure actuelle la région du Moyen Orient, et leur degré d’engagement pour la diffusion et l’ancrage des valeurs et pratiques démocratiques. Dans quelle mesure les métamorphoses propres de ces chaînes sont susceptibles de révéler les transformations les plus profondes des sociétés arabes? L’objet de cette recherche est de saisir les modalités de l’avènement des chaînes de télévisions d’information en continu, de définir les objectifs de leur création et d’identifier les acteurs de toute sorte afin d’en discerner les conséquences sur le plan médiatique et géopolitique. / The Arab TV satellite channels’ growth at the regional and global scale metamorphosed Arabic media space. The early 90s impulse globalization and satellite technologies’ acquisition by Arab countries seems to be the beginning of a new era in this region where combined financial profitability, political influence and ideological actors. TV Channels rolling news and continuously broadcast information are the appropriate model that reflects this scheme in a region politically, economically and culturally so complex and mostly complicated. It is the advent of the Arab TV channel Al Jazeera and its Afghanistan war coverage in 2001 and thereafter the Iraq war in 2003 that have shaped a huge proportion of Arab public opinion. Other TV channels of the same kind are multiplied and diversified in a record time, such as Al Arabiya, Al Manar, ONTV, Al Mayadeen, etc. Arabic audience is also coveted by Western Arabic TV channels financed by western countries and their governments, such as the U.S. channel Al Hurra, French once 24 French, British one BBC Arabic or the German one DW. The study focuses on the role of the TV channels specialized on news in r evolutions known and continuously know at present the Middle East region.What is the degree of their commitment to broadcasting and anchoring universal values and democratic practices? What is the degree of influence may reveal changes in the Arab societies? The purpose of this research is to understand how the advent of TV Channels rolling news, set goals, and identify actors in order to recognize the consequences over the media plans and geopolitical perspectives.
|
300 |
Contributions à la théorie des jeux : valeur asymptotique des jeux dépendant de la fréquence et décompositions des jeux finis / Contributions in game theory : asymptotic value in frequency dependant games and decompositions of finite gamesPnevmatikos, Nikolaos 01 July 2016 (has links)
Les problèmes abordés et les résultats obtenus dans cette thèse se divisent en deux parties. La première concerne l'étude de la valeur asymptotique de jeux dépendant de la fréquence (jeux-FD). Nous introduisons un jeu différentiel associé au jeu-FD dont la valeur se ramène à une équation de Hamilton-Jacobi-Bellman-lsaacs. En affrontant un problème d'irrégularité à l'origine, nous prouvons l’existence de la valeur du jeu différentiel sur [0.1 ] et ceci nous permet de prouver que la valeur du jeu FD converge vers la valeur du jeu continu qui débute à l'état initial 0. Dans la deuxième partie, l'objectif fondamental est la décomposition de l'espace des jeux finis en sous espaces des jeux adéquats et plus faciles à étudier vu que leurs équilibres sont distingués. Cette partie est divisée en deux chapitres. Dans le premier chapitre, nous établissons une décomposition canonique de tout jeu arbitraire fini en trois composantes et nous caractérisons les équilibres approximatifs d'un jeu donné par les équilibres uniformément mixtes et en stratégies dominantes lesquels apparaissent sur ses composantes. Dans le deuxième chapitre, nous introduisons sur l'espace des jeux finis une famille de produits scalaires et nous définissons la classe des jeux harmoniques relativement au produit scalaire choisi dans cette famille. Inspiré par la décomposition de Helmholtz-Hodge appliquée aux jeux par Candogan et al. (2011), nous établissons une décomposition orthogonale de l'espace des jeux finis, par rapport au produit scalaire choisi, en les sous espaces des jeux potentiels, des jeux harmoniques et des jeux nonstratégiques c nous généralisons les résultats de Candogan et al. (2011). / The problems addressed and results obtained in this thesis are divided in two parts. The first part concerns the study of the asymptotic value of frequency-dependent games (FD-games). We introduce a differential game associated to the FD-game whose value leads to a Hamilton-Jacob-Bellman-lsaacs equation. Although an irregularity occurs at the origin, we prove existence of the value in the differential game played over [0.1 ], which allows to prove that the value of the FD-game, as the number of stages tend to infinity, converges to the value of the continuous-time game with initial state 0. ln the second part, the objective is the decomposition of the space of finite games in subspaces of suitable games which admit disguised equilibria and more tractable analysis. This part is divided in two chapters. In the first chapter, we establish a canonical decomposition of an arbitrary game into three components and we characterize the approximate equilibria of a given game in terms of the uniform equilibrium and the equilibrium in dominant strategies that appear in its components. In the second part, we introduce a family of inner products in the space of finite games and we define the class of harmonic games relatively to the chosen inner product. Inspired of the Helmholtz-Hodge decomposition applied to games by Candogan et al (2011 ), we establish an orthogonal decomposition of the space of finite games with respect to the chosen inner product, in the subspaces of potential harmonic and non-strategic games and we further generalize several results of Candogan et al (2011).
|
Page generated in 0.0527 seconds