• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 406
  • 150
  • 76
  • 2
  • 1
  • 1
  • Tagged with
  • 632
  • 323
  • 177
  • 174
  • 90
  • 77
  • 76
  • 75
  • 73
  • 72
  • 65
  • 58
  • 53
  • 53
  • 52
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

La fiabilité narrative en question(s), parcours textuels et liberté du lecteur / Narrative reliability in question(s), textual courses and reader's freedom

Oléron, Anaïs 25 June 2019 (has links)
La formule «narrateur non crédible » apparaît sous la plume du théoricien américain Wayne C. Booth, au début des années Soixante. Par-là, il entend rendre compte de situations dans lesquelles le lecteur repère une distance entre le récit que rapporte le narrateur et ce que le texte donne à entendre par ailleurs. Cet effet de distance repose sur la détection, par le lecteur, d’indices textuels corroborant son sentiment. Le problème principal est alors celui de l’interaction entre l’« interface » que constituent le texte et le lecteur qui l’actualise. Au-delà du pacte de lecture noué entre l'œuvre et son lecteur, entrent également en ligne de compte certaines attentes correspondant à l’expérience commune ou façonnées par la culture littéraire. L’objectif de cette thèse est ainsi d’élaborer une synthèse des travaux passés et actuels sur la notion de narrateur non fiable. Un premier axe décline les différentes hypothèses et méthodes d’approche des textes permettant d’expliquer que certains narrateurs apparaissent moins fiables que d’autres. Un deuxième axe s'inscrit dans une perspective typologique et présente différentes formes de non fiabilité, invitant en outre à repérer les indices présents au sein des textes. Une troisième partie se concentre sur la question de l’interaction entre données textuelles et choix interprétatifs du lecteur. Elle propose pour cela l’étude de plusieurs œuvres contemporaines aux pactes de lecture ambigus ou indécidables. Un dernier temps du travail interroge les enjeux esthétiques et anthropologiques des narrations non fiables, le procédé étant symptomatique des tensions et des interrogations qui traversent notre société. / The term « unreliable narrator » has been coined by the American theorist Wayne C. Booth, in the early Sixties. By this word, he intends to account for situations when the reader finds discrepancies between the narrative reported by the narrator and what the text suggests elsewhere. This distance effect is based on the reader’s detection of textual indices corroborating his feeling. The main problem is that of the interaction between the « interface » that constitutes the text and the reader who gives it an existence. Beyond the reading pact knotted between the work and its reader, there are also some expectations corresponding to the common experience or shaped by the literary culture. The aim of this thesis is to develop a synthesis of the past and actual studies about unreliable narrator. A first axis outlines the different hypothesis and the methodes of textual approach making it possible that some narrators appear less reliable than others. A second time is part of a typological perspective and present different forms of unreliability, inviting in addition to identify the clues present in the texts. A third part focuses on the interaction between textual data and the reader interpretative choices. For this purpose, it proposes the study of several contemporary works with ambiguous and indecidable reading pacts. A final part of work examines the aesthetic and anthropological issues of unreliable narratives, the process being symptomatic of the tensions ans questions that cross our society.
2

Fiabilité et validité d'un questionnaire auto-administré sur l'efficacité populationnelle et les coûts assumés par les adultes vaccinés contre l'influenza

Hua, Buu Phuong January 2006 (has links)
Problématique : Une évaluation économique, commandée par le ministère de la Santé et des Services sociaux du Québec, vise à évaluer le rendement de deux programmes d'immunisation, soient la vaccination primaire et la vaccination antigrippale. Un des volets de cette étude économique nécessitera l'utilisation d'un questionnaire auto-administré auprès de personnes vaccinées contre l'influenza plusieurs semaines après leur vaccination. Objectif : Vérifier la fiabilité et la validité d'un questionnaire auto-administré sur l'efficacité populationnelle et les coûts assumés lors de la vaccination par les adultes vaccinés contre l'influenza. Cet outil sera utilisé pour une évaluation économique selon une perspective sociétale du programme d'immunisation contre l'influenza chez les adultes. Méthode : Un test-retest a été réalisé en soumettant le questionnaire à un échantillon de convenance de 499 personnes âgées de [supérieur ou égal à]50 ans de la Montérégie. Un premier questionnaire a été administré dans les CLSC en novembre 2004 (test) durant le temps d'attente après l'injection du vaccin. Le deuxième questionnaire a été envoyé 10 semaines plus tard par la poste aux participants en janvier 2005 (retest). Les variables testées sont de nature qualitative (variables sociodémographiques, statut vaccinal, lieu de vaccination, moyen de transport, absence du travail) ou quantitative (date et durée de la vaccination, distance parcourue, revenu annuel, coût du transport, autres coûts). La fiabilité a été évaluée par la comparaison des réponses déclarées entre les deux questionnaires alors que la validité de certaines variables a été évaluée par la comparaison entre les réponses fournies par les participants et des sources de référence. Les principaux tests statistiques utilisés sont: l'accord observé (P[indice inférieur omicron]), le kappa de Cohen ([kappa]) et le coefficient de corrélation intra-classe (CCI). Résultats : Le taux de participation a été de 95%. Les variables sociodémographiques obtiennent un P[indice inférieur omicron] entre les deux questionnaires variant de 82% à 98% et un [kappa] de 0,556 à 0,936. Les autres variables qualitatives affichent un P[indice inférieur omicron] de 89% à 100% mais un [kappa] variant de -0,007 à 0,862. Quant aux variables quantitatives transformées en catégorie, P[indice inférieur omicron] varie de 45% à 100% et [kappa] de 0,031 à 1,000. La divergence entre les indices de concordance [Kappa] et P[indice inférieur omicron] est attribuable aux paradoxes de kappa. Les variables de temps, soient la date de vaccination et la durée de vaccination, présentent une faible fiabilité avec respectivement un P[indice inférieur omicron] de 57% et 49% et un CCI de 0,305 et 0,690. Un grand nombre de réponses manquantes (38%) est constaté pour la variable date de vaccination. La validité des variables sélectionnées (statut vaccinal, lieu et date de vaccination, taille de la ville et moyen de transport) est jugée relativement bonne avec un P[indice inférieur omicron] variant de 58% à presque 100%. Conclusion : À l'exception des variables de temps, le questionnaire est assez fiable. La validité des variables évaluées est bonne. Le taux de participation et l'effectif élevés assurent une puissance statistique adéquate pour les analyses. La participation volontaire des sujets peut être une source de biais de sélection. La fiabilité et la validité étant étroitement liées, elles sont défavorablement influencées par le biais de mémoire. Celui-ci peut être engendré par le délai de réponses entre les deux questionnaires. Malgré tout, ce questionnaire pourra être utilisé dans l'étude économique après quelques modifications.
3

Fiabilité du signal des circuits logiques combinatoires sous fautes simultanées multiples

Teixeira Franco, Denis 19 November 2008 (has links) (PDF)
L'entrée de la technologie CMOS dans les dimensions nanométriques résulte de l'évolution prévue pour les circuits intégrés, déterminée par l'industrie des semi-conducteurs d'après les feuilles de route établies selon la loi de Moore. Pourtant, la production des circuits nanométriques présente des défis de plus en plus critiques, qui demandent des efforts considérables de la communauté scientifique. Ces défis sont liés à des limitations d'ordre physique, économique et technologique, et se traduisent en un changement du comportement des structures fortement intégrées et en une difficulté pour les fabriquer avec la précision nécessaire. La majorité des problèmes associés à la réduction des structures CMOS amène à une réduction du rendement de fabrication et de la fiabilité d'opération des circuits. Les technologies émergentes, conçues pour étendre, complémenter, voire substituer la technologie CMOS, seront très sensibles aux variations paramétriques des composants et aux défauts de fabrication. La fiabilité d'opération des circuits reste un problème critique, pour lequel les solutions proposées font appel aux techniques de tolérance aux pannes. Selon quelques études, la probabilité d'occurrence des fautes transitoires dans les systèmes nanométriques montera au fur et à mesure de l'augmentation de densité des composants intégrés, atteignant le même niveau observé dans les mémoires, où les fautes transitoires sont plus facilement traitées. Historiquement, les techniques de tolérance aux pannes étaient destinées aux circuits de mission critique, à cause des surcoûts matériels, de performance et de consommation d'énergie associés à son application. Son utilisation dans les circuits logiques non critiques dépendra directement de son rapport coût/bénéfice, ce qui n'est pas évident à déterminer, d'autant plus que l'occurrence de multiples fautes simultanées deviendra une réalité. L'estimation de la fiabilité des circuits logiques pendant les étapes initiales de projet est un pas fondamental pour la conception des circuits nanométriques. La réduction prévue pour la fiabilité des composants intégrés obligera les concepteurs à l'implémentation des méthodes de durcissement des circuits, mais avec un surcoût très limité. Pour permettre l'application de ces méthodes d'une façon adaptée aux contraintes de projet, l'estimation de la fiabilité doit être intégrée dans le flot de conception. Plusieurs méthodes ont été proposées dans la littérature pour l'estimation de la fiabilité, mais étant donnée la complexité de l'analyse, chaque méthode a des limitations d'application, comme la restriction à une seule faute, la restriction à une seule sortie, la restriction à un seul chemin logique ou la restriction à un sous-ensemble des entrées. Le présent travail a proposé deux méthodes d'estimation de la fiabilité "flexifles" dans le sens où elles permettent de jouer sur un compromis rapidité et précision. Cette flexibilité peut être utilisée de façon complémentaire tout au long de la conception. Ces méthodes prennent en compte l'occurrence de fautes multiples et sont alors adéquates pour l'étude des circuits nanométriques, plus susceptibles à ce type d'événement.
4

Advanced redundancy strategies for system reliability optimization

Peiravi, Abdossaber 10 July 2024 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2023 / Afin d'augmenter la fiabilité d'un système, la méthode de conception la plus populaire consiste à augmenter le nombre de composantes redondantes. En général, quatre stratégies de redondance ont été développées dans la littérature, à savoir les stratégies active, passive, mixte et K-mixte. Les stratégies de redondance peuvent être utilisées pour des systèmes binaires et pour des systèmes multi-états. La complexité de l'évaluation de la fiabilité dépend de la configuration du système et de ses propriétés. Dans la littérature actuelle, il existe certaines limitations importantes relatives aux stratégies de redondance qui n'ont pas été suffisamment étudiées, aussi bien pour les systèmes binaires que pour les systèmes multi-états. Cette thèse identifie et aborde quelques questions importantes et difficiles à travers les contributions suivantes. Premièrement, pour les systèmes binaires, les stratégies de redondance présentent un degré élevé de complexité de calcul dans les modèles de fiabilité qui fournissent dans certains cas des limites inférieures de la fiabilité du système. Afin de réduire cette complexité, nous proposons un modèle basé sur des chaines de Markov à temps continu pour le calcul de la fiabilité exacte de systèmes *k* parmi *n* assujettis à des redondances active, passive, mixte et K-mixte. De plus, un modèle de simulation séquentiel de Monte Carlo est développé et une analyse de fiabilité est menée pour valider le modèle proposé. Un algorithme génétique est finalement développé pour résoudre un problème d'optimisation résultant de l'application des stratégies existantes aux systèmes parallèles-séries dans le contexte du modèle proposé. La seconde contribution de cette thèse concerne les systèmes multi-états dont les composantes peuvent fonctionner avec des niveaux de performances différents. Une analyse de fiabilité est conduite pour un système multi-état qui se détériore avec l'âge et qui est régi par une stratégie de redondance passive basée sur la demande. La fiabilité est évaluée pour différentes gammes de fréquences d'inspection et de maintenance. Nous examinons également un cas industriel de génération de l'énergie électrique pour lequel des opérations de maintenance et de réhabilitation sont implémentées. Un algorithme génétique est développé pour déterminer la fréquence optimale d'inspection, de maintenance et de réhabilitation tout en considérant la fiabilité du système. C'est la première fois que ce type d'analyse et d'optimisation de la fiabilité est considéré dans la littérature. Les résultats numériques illustrent l'efficacité de l'approche proposée. La dernière contribution de la thèse consiste à proposer un nouveau concept appelé Stratégie de Redondance Universelle (SRU) pour les systèmes binaires et multi-états. La SRU inclut toutes les stratégies précédentes tout en offrant la possibilité d'explorer une variété d'autres options jamais explorées dans la littérature. Dans toutes les stratégies existantes, l'insertion de composantes redondantes est déclenchée par des défaillances spécifiques des composantes fonctionnelles, mais la stratégie nouvellement développée permet le changement des composantes redondantes en tout temps par des insertions ou des retraits séparés ou simultanés. Comme la SRU permet l'activation de n'importe quel nombre de composantes redondantes en tout temps, la redondance du système peut être configurée de façon optimale en changeant la configuration au temps optimal. Le concept de la SRU est illustré dans un contexte de maximisation de la fiabilité d'un système parallèle-série avec des composantes binaires. / Increasing the number of redundant components in a system is the most popular design method to increase reliability. In general, four strategies have been proposed in the literature: active, standby, mixed, and K-mixed. Redundancy strategies can be used in both binary and multi-state systems. The complexity of reliability calculation depends on the system configuration and properties. In the existing literature, there are some important limitations to redundancy strategies that have not been fully addressed in both binary and multi-state systems. The present thesis identifies and addresses some important and challenging issues through the following contributions. First, for binary systems, redundancy strategies present a high degree of computational complexity in reliability models, which in some cases provide lower bounds of the system reliability. To reduce this complexity, we propose a model based on Continuous Time Markov Chains (CTMC) for calculating the exact reliability of *k*-out-of-*n* systems under active, standby, mixed, and K-mixed redundancy strategies. Furthermore, a sequential Monte Carlo simulation model is developed, and a reliability analysis is conducted to validate the proposed model. A genetic algorithm is finally developed to solve an optimization problem resulting from the application of the existing strategies to series-parallel systems in the context of the proposed model. The second contribution of this thesis is related to multi-state systems, where components can have different performance levels. A reliability analysis is conducted for an aging multi-state system under a demand-based cold-standby redundancy strategy. Reliability is evaluated for different frequency ranges of inspection and maintenance. We also examine an aging power plant designed under a standby strategy, in which maintenance and rehabilitation operations are implemented. In order to determine the optimal frequency of inspection, maintenance and rehabilitation, while considering system reliability, a genetic algorithm is developed. This is the first time that this kind of reliability analysis and optimization is considered in the literature. The numerical results illustrate the effectiveness of the proposed approach. The last contribution of the thesis consists of proposing a new concept called Universal Redundancy Strategy (URS) for binary and multi-state systems. The URS includes all of the previous strategies while providing a variety of other options never explored in the literature. In all existing strategies, the insertion of redundant components has been triggered by specific failures of operating components, but the newly developed strategy allows for the change of redundant components at any time, by inserting or removing these components separately or simultaneously. As the URS allows any number of redundant components to be activated at any time, system redundancy can be configured optimally by changing the configuration at the optimal time. The URS concept is illustrated in the context of reliability maximization of a series-parallel system with binary components.
5

Modélisation markovienne en fiabilité. Réduction des grands systèmes

Tombuyses, Béatrice 09 December 1994 (has links)
Le sujet de cette thèse de doctorat est l'étude de divers aspects liés à l'approche markovienne dans le cadre des études de fiabilité. La première partie de cette thèse concerne Ia modélisation d'installations industrielles et la construction de la matrice de transition. Le but poursuivi est le développement d'un code markovien permettant une description réaliste et aisée du système. Le système est décrit en termes de composants multiétats :pompes, vannes . . . La définition d'une série de règles types permet l'introduction de dépendances entre composants. Grâce à la modélisation standardisée du système, un algorithme permettant la construction automatique de la matrice de transition est développé. L'introduction d'opérations de maintenance ou d'information est également présentée. La seconde partie s'intéresse aux techniques de réduction de la taille de la matrice, afin de rendre possible le traitement de grosses installations. En effet, le nombre d'états croit exponentiellement avec le nombre de composants, ce qui limite habituellement les installations analysables à une dizaine de composants. Les techniques classiques de réduction sont passées en revue : accessibilité des états, séparation des groupes de composants indépendants, symétrie et agrégation exacte des états (cfr Papazoglou). Il faut adapter la notion de symétrie des composants en tenant compte des dépendances pouvant exister entre composants. Une méthode d'agrégation approchée pour le calcul de la fiabilité et de la disponibilité de groupes de composants à deux états est développée. La troisième partie de la thèse contient une approche originale pour l'utilisation de la méthode markovienne. Il s'agit du développement d'une technique de réduction basée sur le graphe d'influence des composants. Un graphe d'influence des composants est construit à partir des dépendances existant entre composants. Sur base de ce graphe, un système markovien non homogène est construit, décrivant de manière approchée le comportement du système exact. Les résultats obtenus sur divers exemples sont très bons. Une quatrième partie de cette thèse s'intéresse aux problèmes numériques liés à l'intégration du système différentiel du problème markovien. Ces problèmes résultent principalement du caractère stiff du système. Différentes méthodes classiques sont implantées pour l'intégration du système différentiel. Elles sont testées sur un exemple type de problème de fiabilité. Pour finir, on trouve la présentation du code CAMERA dans lequel ont été implantées les différentes techniques présentées ci-dessus.
6

La logique déontique standard et ses fondements intuitifs

Bérubé, Micaël January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
7

Analysis of the physical mechanisms limiting performance and reliability of GaN based HEMTs / Analyse des mécanismes physiques qui limitent les performances et la fiabilité des HEMTs sur GaN

Faqir, Mustapha 13 February 2009 (has links)
Ce manuscrit présente les résultats d’une analyse exhaustive des mécanismes physiques qui limitent les performances et la fiabilité des transistors à haute mobilité d’électrons (HEMT) sur nitrure de gallium (GaN). En particulier : • Les phénomènes de dégradation à fort champ électrique des HEMT sur GaN sont analysés en comparant les données expérimentales avec les résultats de simulations physiques. Des stresses DC de 150 heures ont été effectués en conditions de canal ouvert et de pincement. Les effets des dégradations qui ont caractérisé ces deux types de stresses sont les suivants: une chute de courant DC de drain, une amplification des effets de gate-lag, et une diminution du courant inverse de grille. Les simulations physiques indiquent que la génération simultanée de piéges de surface (et/ou barrière) et de volume peut expliquer tous les modes de dégradation décrits plus haut. Les mesures expérimentales ont également montré que le stress en canal ouvert a causé une chute de la transconductance seulement pour de fortes valeurs de la tension VGS, alors que le stress au pincement a provoqué une chute de transconductance uniforme pour toutes les valeurs de VGS. Ce comportement peut être reproduit par la simulation physique pourvu que, dans le cas de stress a canal ouvert, on considère que les piéges s’accumulent au long d’une vaste région qui s’étend latéralement du bord de la grille vers le contact de drain, tandis que, dans le cas du stress au pincement, on considère que la génération des pièges ait lieu dans une portion plus petite de la zone d’accès à proximité de la grille et qu’elle soit accompagnée par une grande dégradation des paramètres de transport du canal. Enfin on propose que les électrons chauds et l’augmentation de la contrainte par le champ électrique soient à l’origine des dégradations observées après les stresses a canal ouvert et au pincement respectivement. • Les piéges dans les HEMT sur GaN ont été caractérisés en utilisant les techniques de DLTS et leur comportement associé de charge/décharge est interprété à l’aide des simulations physiques. Sous certaines conditions de polarisation, les piéges du buffer peuvent produire de faux signaux de piéges de surface, c'est-à-dire, le même type de signaux I-DLTS et ICTS attribués généralement aux piéges de surface. Clarifier cet aspect est très important à la fois pour les tests de fiabilité et pour l’optimisation des dispositifs, car il peut provoquer une identification erronée du mécanisme de dégradation, et par conséquent induire une mauvaise correction des procédés technologiques. • Les mécanismes physiques qui provoquent l’effondrement du courant RF dans les HEMT sur GaN sont analysés par le biais de mesures expérimentales et de simulations physiques. Ce travail propose les conditions suivantes : i) les piéges du buffer aussi bien que ceux de surface peuvent contribuer à l’effondrement du courant RF à travers un mécanisme identique qui impliquerait la capture et l’émission des électrons provenant de la grille; ii) la passivation de la surface diminue considérablement l’effondrement du courant RF par la réduction du champ électrique en surface et la diminution qui en découle de l’injection d’ électrons de la grille vers les pièges ; iii) pour des densités de piéges de surface inférieures à 9 × 1012 cm-2 , des barrières de potentiel superficiels dans l’ordre de 1-2 eV peuvent coexister avec des piéges de surface ayant des énergies plus faibles et qui causent l’effondrement du courant RF caractérisé par des constantes de temps relativement courtes. • Les effets de l’effondrement du courant dans les HEMT sur GaN sont étudiés en utilisant les résultats de mesures expérimentales et de simulations physiques. D’après les mesures pulsées, les dispositifs employés montrent un gate-lag considérable et un drain-lag négligeable qui peuvent être attribués à la présence de piéges de surface et de buffer respectivement. / This thesis reports the results of an extensive analysis of the physical mechanisms that limit the performance and reliability of gallium nitride (GaN) based High Electron Mobility Transistors (HEMT). In particular: • High electric field degradation phenomena are investigated in GaN-capped AlGaN/GaN HEMTs by comparing experimental data with numerical device simulations. Under power- and OFF-state conditions, 150-h DC stresses were carried out. Degradation effects characterizing both stress experiments were as follows: a drop in the dc drain current, the amplification of gate-lag effects, and a decrease in the reverse gate leakage current. Numerical simulations indicate that the simultaneous generation of surface (and/or barrier) and buffer traps can account for all of the aforementioned degradation modes. Experiments also showed that the power-state stress induced a drop in the transconductance at high gate–source voltages only, whereas the OFF-state stress led to a uniform transconductance drop over the entire gate-source-voltage range. This behavior can be reproduced by simulations provided that, under the power-state stress, traps are assumed to accumulate over a wide region extending laterally from the gate edge toward the drain contact, whereas, under the OFF-state stress, trap generation is supposed to take place in a narrower portion of the drain-access region close to the gate edge and to be accompanied by a significant degradation of the channel transport parameters. Channel hot electrons and electric-field-induced strain-enhancement are finally suggested to play major roles in power-state and off-state degradation, respectively. • Traps are characterized in AlGaN-GaN HEMTs by means of DLTS techniques and the associated charge/discharge behavior is interpreted with the aid of numerical device simulations. Under specific bias conditions, buffer traps can produce ‘‘false’’ surface-trap signals, i.e. the same type of current-mode DLTS (I DLTS) or gate-lag signals that are generally attributed to surface traps. Clarifying this aspect is important for both reliability testing and device optimization, as it can lead to erroneous identification of the degradation mechanism, thus resulting in wrong correction actions on the technological process. • The physical mechanisms underlying RF current collapse effects in AlGaN-GaN high electron mobility transistors are studied by means of measurements and numerical device simulations. This work suggests the following conclusions: i) both surface and buffer traps can contribute to RF current collapse through a similar physical mechanism involving capture and emission of electrons tunneling from the gate; ii) surface passivation strongly mitigates RF current collapse by reducing the surface electric field and inhibiting electron injection into traps; iii) for surface-trap densities lower than 9 × 1012 cm-2, surface-potential barriers in the 1–2 eV range can coexist with surface traps having much a shallower energy and, therefore, inducing RF current-collapse effects characterized by relatively short time constants. • Current collapse effects are investigated in AlGaN/GaN HEMTs by means of measurements and numerical device simulations. According to pulsed measurements, the adopted devices exhibit a significant gate-lag and a negligible drain-lag ascribed to the presence of surface and buffer traps, respectively. Furthermore, illumination of the devices with two specific wavelengths can result in either a recovering of current collapse or a decrease in the gate current. On the other hand, numerical device simulations suggest that the kink effect can be explained by electron trapping into barrier traps and the subsequent electron emission after a critical electric-field value is reached. / Questa tesi riporta i risultati ottenuti da un’ampia analisi dei meccanismi fisici che limitano le prestazioni e l’affidabilità dei transistor ad alta mobilità di elettroni (HEMT) al nitruro di gallio (GaN). In particolare: • I fenomeni di degradazione ad alto campo elettrico nei GaN/AlGaN/GaN HEMT sono analizzati confrontando i dati sperimentali con i risultati delle simulazioni numeriche. Sono stati effettuati stress DC di 150 ore in condizioni di canale aperto e chiuso. Gli effetti di degradazione che hanno caratterizzato entrambi i tipi di stress sono i seguenti: una caduta nella corrente DC di drain, un’amplificazione degli effetti di gate lag, e una diminuzione della corrente inversa di gate. Le simulazioni numeriche indicano che la generazione simultanea di trappole in superficie (e/o barriera) e buffer può spiegare tutti i suddetti modi di degradazione. Le misure sperimentali hanno mostrato inoltre che lo stress a canale aperto ha causato una caduta della tranconduttanza solo ad alte tensioni VGS, mentre lo stress a canale chiuso ha provocato una caduta della transconduttanza uniforme a tutte le tensioni VGS. Questo comportamento può essere riprodotto con le simulazioni se, nel caso di stress a canale aperto, si assume che le trappole si accumulano lungo un’ampia regione che si estende lateralmente dal bordo di gate verso il contatto di drain, mentre, nel caso di stress a canale chiuso, si suppone che la generazione delle trappole abbia luogo in una più stretta porzione della zona di accesso vicino al bordo di gate e che sia accompagnata da una degradazione significativa dei parametri di trasporto del canale. Infine si propone che gli elettroni caldi del canale e l’aumento di strain indotto dal campo elettrico siano alla base delle degradazioni osservate dopo gli stress a canale aperto e chiuso rispettivamente. • Le trappole in AlGaN-GaN HEMTs sono caratterizzate usando le tecniche di DLTS e il relativo comportamento di carica/scarica é interpretato con l’aiuto delle simulazioni numeriche. Sotto particolari condizioni di polarizzazione, le trappole di buffer possono produrre falsi segnali da trappole di superficie, ossia lo stesso tipo di segnali I-DLTS e forma d’onda di gate lag attribuiti generalmente alle trappole di superficie. Chiarire questo aspetto è molto importante sia per le prove di affidabilità che per l’ottimizzazione dei dispositivi, in quanto può provocare una errata identificazione del meccanismo di degradazione, portando ad azioni correttive sbagliate nell’ottimizzazione del processo tecnologico. • I meccanismi fisici che originano il collasso di corrente RF negli HEMT AlGaN-GaN sono analizzati usando misure sperimentali e simulazioni numeriche. Questo lavoro suggerisce le seguenti condizioni: i) sia le trappole di superficie che quelle di buffer possono contribuire al collasso di corrente RF tramite un simile meccanismo fisico che coinvolge la cattura e l’emissione di elettroni provenienti dal gate; ii) la passivazione della superficie diminuisce fortemente il collasso della corrente RF tramite la riduzione del campo elettrico in superficie e la conseguente diminuzione dell’iniezione di elettroni dal gate alle trappole; iii) per densità di trappole di superficie minori di 9 × 1012 cm-2 , barriere di potenziale superficiale di 1-2 eV possono coesistere con trappole di superficie aventi energie relativamente basse e che provocano effetti di collasso di corrente RF caratterizzati da costanti di tempo relativamente corte. • Gli effetti di collasso di corrente negli HEMT AlGaN-GaN sono studiati usando i risultati delle misure sperimentali e delle simulazioni numeriche. Basandosi sulle misure delle caratteristiche d’uscita impulsate, i dispositivi utilizzati mostrano un evidente gate-lag e un trascurabile drain-lag, attribuiti alla presenza di trappole di superficie e buffer rispettivamente.
8

Contribution à l'optimisation des plans d'exploitation et de maintenance, selon une approche basée sur le pronostic : application au domaine naval / Contribution to the optimization of operating plans and maintenance, using an approach based on prognosis : application to the naval domain

Schutz, Jérémie 03 December 2009 (has links)
Dans le domaine naval, lorsqu'un navire quitte le quai, il s'engage à réaliser un ensemble de missions durant un horizon de temps déterminé. L'ensemble des missions à accomplir ainsi que l'ordonnancement de celles-ci constitue le plan d'exploitation. Comme un navire peut réaliser différents types de missions (diplomatique, océanographique, etc.), la dégradation du système dépend des conditions opérationnelles et environnementales. L'objectif consiste donc à choisir parmi toutes les missions proposées, dont la durée cumulée dépasse l'horizon de temps alloué, celles à réaliser ainsi que l'ordonnancement. Aussi, afin de minimiser les coûts de maintenance, différentes stratégies de maintenance seront étudiées telles que les politiques systématique, sporadique périodique et séquentielle. De manière générale, les politiques de maintenance sont constituées d'actions correctives minimales et préventives imparfaites. Compte tenu des hypothèses de travail (horizon de temps fini, loi de défaillance dynamique) l'optimisation de ces politiques de maintenance sera réalisée à l'aide de procédures numériques ou de méta-heuristiques. L'optimisation des plans d'exploitation étant résolue à l'aide méta-heuristiques, l'optimisation conjointe des deux plans peut résulter de l'intégration de deux méta-heuristiques. Le travail de recherche a donc pour objectif le développement d'un outil d'aide à la décision basé sur le pronostic. Il doit permettre de générer les plans d'exploitation et de maintenance optimaux compte tenu de l'historique des missions réalisées, du retour d'expérience d'autres navires mais aussi des missions génériques possibles / The present research work aims to develop a decision-making tool based on prognosis. Indeed, in the naval domain, when a navy ship leaves the dock, it should experience a set of missions within a finite time horizon. The business plan consist to perform as well as to schedule the overall missions. As a navy ship can achieve different type of missions (diplomatic, oceanographic, etc.), the system degradations varie according to both operational and environmental conditions. Therefore, the business plan consist on choosing among all possible missions those whose the cumulative duration does not exceed the finite time horizon. Such missions should be then scheduled and performed. On the other hand, our work deals with different maintenance policies such as systematic, sporadic, periodic and sequential. Generally, the maintenance actions are of two types, namely minimal corrective and inperfect preventive. Based on some assumptions (finite time horizon, dynamic failure law), the optimization of maintenance policy will be carried out using exact numerical procedures or meta-heuristic. To solve the joint optimization of business and maintenance plans, we use the integration of two types of meta-heuristic. The obtained solution should define the optimal business and maintenance plans given the history of missions performed, the experiences of other navy ships but also of all possible generic missions
9

Approche dynamique de la fiabilité et de la résilience organisationnelles : entre organisation et situation : Étude in situ d'un service d'accueil des urgences vitales / Dynamic approach of organizational reliability and resilience : between organization and situation : In situ study of a Critical Care Unit

Leuridan, Geoffrey 09 November 2018 (has links)
Pour faire face aux défaillances et leurs conséquences, certaines organisations adoptent des modes de fonctionnement leur permettant d’assurer un haut degré de fiabilité et de résilience. Cette thèse s’attache à formaliser ces modes de fonctionnement au travers d’une approche processuelle de la fiabilité et de la résilience organisationnelles d’un service d’urgence médicale. Nous étudions d’une part comment les processus se déploient concrètement dans le contexte opérationnel face aux situations rencontrées et d’autre part quel est l’impact du contexte organisationnel sur le maintien de la fiabilité et de la résilience.Au travers d’une étude d’un service d’accueil des urgences vitales français, un premier niveau de résultats décrit les différents processus aux niveaux organisationnel et situationnel constitutifs du maintien de la fiabilité et de la résilience organisationnelles : culture, intégration des nouveaux membres, confiance, coordination, apprentissage et slack organisationnel.Un second niveau de résultats aborde les situations de prise en charge des patients sous forme de continuum et de points d’inflexion. Saturation de l’unité, gestion de l’imprévu et slack situationnel viennent répondre à la volatilité et à l'urgence vitale des situations qui imposent une action immédiate.Nous étudions également la question de l’articulation entre les niveaux organisationnel et situationnel en proposant une relecture du concept d’espace de discussion (Detchessahar, 2003).Enfin, nos résultats nous invitent à considérer la tension existant dans l’hôpital concernant les ressources nécessaires au maintien de la fiabilité et de la résilience organisationnelles. / In order to prevent faults to happen and their catastrophic consequences, some organizations adopt operational modes allowing them to ensure a high degree of reliability and resilience. This research focuses on formalizing these operational modes through a processual approach to organizational reliability and resilience of a critical-care unit. We aim to study, on the one hand, how the processes unfold in the operational context facing real-life situations and, on the other hand, the impact of the organizational context on reliability and resilience.Studying a French critical-care unit, first-order results describe the different processes – at both organizational and situational levels of analysis – contributing to the organizational reliability and resilience: culture, integration of new members, trust, coordination, learning and organizational slack.Second-order results address patient-care situations as a continuum and we highlight the inflection points of the different patient-care trajectories. Saturation of the unit, management of the unexpected and of the situational slack enable critical-care unit’s members to cope with the volatility and the life-threatening emergency of situations demanding immediate action.We also study the links between the organizational and the situational levels of analysis by proposing a reinterpretation of the concept of discussion space (Detchessahar, 2003).Finally, our findings invite us to consider the tension in hospitals regarding the resources needed to maintain organizational reliability and resilience.
10

Etude quantitative et expérimentale des mécanismes d’incitation aux investissements dans les marchés d’électricité : analyse à court terme et à long terme des stratégies des acteurs / Quantitative and experimental study of investment incentive mechanisms in electricity markets : a short run and long run analysis of actors’ strategies

Khalfallah, Mohamed Haikel 03 December 2009 (has links)
Dans cette thèse, nous traitons la question de la fiabilité du système électrique et notamment le problème d’adéquation des capacités de production d’électricité avec une demande future, qui évolue d’une façon hautement imprévisible. Cette question suscite actuellement des débats économiques et politiques au sein de la commission européenne de l’énergie. Elle s'inscrit dans le contexte de déréglementation et de réformes de libéralisation opérées aux seins de pays occidentaux. Les défaillances qui se sont accompagnées avec cette déréglementation et qui ont provoqué diverses crises ont pour origine l’aversion aux risques des investisseurs, l’incertitude sur la demande future et les prix du carburants et le pouvoir de marché exercé pour les producteurs existants particulièrement en période de tension. Ceci a provoqué d’une part, des prix d’électricité hautement aléatoires et élevés et d’autre part, un manque d’incitations aux nouveaux investissements. Pour y faire face, plusieurs mécanismes additionnels assurant une incitation adéquate aux investissements et une maîtrise des prix d’électricité ont été proposés. Dans ce travail, on compare l’efficacité relative des mécanismes marchands d’incitation aux investissements. L’adéquation des capacités de production dans le long terme constitue le principal critère d’évaluation de ces mécanismes. Par ailleurs l’efficacité en termes de coût et de réduction des manipulations des prix dans les marchés forment deux éléments importants à prendre en considération lors de leur évaluation. Dans la littérature, ces mécanismes ont été traités d’un point de vue purement qualitatif, ce qui limite les enseignements qu’on peut tirer sur l’efficacité de chacun. L'apport de ce travail est de proposer une analyse conduite dans le cadre d'un modèle dynamique numérique. La dimension concurrentielle est prise en compte en mobilisant la théorie des jeux. La résolution du modèle fait appel à la méthode de la programmation dynamique et aux méthodes de problème de complémentarité et de l’inégalité variationnelle. En complément à l'analyse théorique, une étude expérimentale est conduite afin d'intégrer une plus grande diversité de stratégie. Nous concluons de ces recherches que la mise en place d’un mécanisme marchand d’incitation aux investissements est prometteuse. Il permet d’assurer l‘adéquation future du système électrique à faible coût et de lutter efficacement contre le problème de pouvoir de marché. / In this thesis, we deal with the question of reliability of electricity system and particularly the problem of generation capacity adequacy in electricity markets, characterized by uncertain and volatile demand. This question is currently the object of many politics and economics debates in the European Commission of energy. It occurs within the context of deregulations and reforms of liberalization operated in western countries. This deregulation was caused many shortages and crisis in many electricity markets in the world. Failures are caused by several factors such as, the presence of uncertainties on future demand and fuel prices, the risk-averse behavior of investors and the market power exercised by existing generators. They had lead to high spot market prices and a fundamental imbalance between the steadily growing demand for power and the limited increases, due to the lack of investments, in generation capacities. Many mechanisms, additional to the energy market, that ensure an adequate incentive for investments and a stable and socially acceptable electricity prices have been proposed. In this work, we compare different investment incentive mechanisms, in terms of long-term capacity adequacy in an uncertain environment, cost effectiveness and the ability of reducing market power. In the literature, the problem of long-term system reliability has been largely studied in qualitative terms. A few works attempt to model the quantitative effects of those market designs. The contribution of this work is to propose a quantitative analysis based on dynamics models. Competition is considered by using the principles of game theory. Stochastic dynamic programming is used to deal with the stochastic environment of the market and mixed complementarity problem and variational inequality formulations are employed to find Nash equilibrium. In addition to the analytic analysis, an experimental study is carried out in order to include a larger diversity of strategy. The main finding of this thesis is that market-based mechanisms would be the most cost-efficient mechanisms for assuring long-term system adequacy, encouraging earlier and adequate new investments in the system and for reducing market power.

Page generated in 0.0521 seconds