111 |
Modélisation discrète et formelle des exigences temporelles pour la validation et l'évaluation de la sécurité ferroviaireDefossez, François 08 June 2010 (has links) (PDF)
Le but de ce rapport est de présenter une méthode globale de développement à partir de spécifications informelles, depuis la modélisation graphique des exigences temporelles d'un système ferroviaire critique jusqu'à une implantation systématique au moyen de méthodes formelles. Nous proposons d'utiliser ici les réseaux de Petri temporels pour décrire le comportement attendu du logiciel de contrôle-commande à construire.Tout d'abord nous construisons un modèle des exigences p-temporel prenant en compte toutes les contraintes que doit vérifier le système. Nous proposons des outils et des méthodes capables de valider et de vérifier ce modèle. Ensuite, il s'agit de construire un modèle de processus solution en réseau de Petri t-temporel. Ce modèle illustre des exigences techniques relatives à un choix technologique ou architectural. L'objectif est double : tout d'abord il est nécessaire de vérifier la traçabilité des exigences ; ensuite, il faut vérifier que l'ensemble des exigences sources sont bien implémentées dans la solution préconisée et dans sa mise en oeuvre. Enfin, nous proposons une approche visant à transformer de façon systématique le modèle de processus en machine abstraite $B$ afin de poursuivre une procédure formelle $B$ classique. Finalement, le cas d'étude du passage à niveau, composant critique dans le domaine de la sécurité ferroviaire est décrit
|
112 |
Impression par jet de matière de transistors organiques sur support soupleBarret, Mickaël 12 October 2007 (has links) (PDF)
Le potentiel de l'impression, en tant qu'alternative aux techniques classiques de la microélectronique, est indéniable pour la réalisation de dispositifs électroniques à bas coût sur de grandes surfaces et tous types de substrats. Dans cette optique, l'objectif était d'étudier et d'implémenter la technologie émergente qu'est l'électronique imprimée par jet de matière. Au niveau technologique, le premier challenge a consisté à développer une plateforme d'impression par jet de matière avec les spécifications requises pour la réalisation de transistors organiques. La technologie a été validée par la réalisation de transistors imprimés sur différents supports en partant d'un support rigide, wafer de silicium, pour aboutir à un transistor souple imprimé sur un substrat polymère. Une étude paramétrique complète relative à l'impression par jet a permis de définir les paramètres critiques pour parvenir à un procédé d'impression performant, fiable et reproductible pour l'écriture directe de transistors. Un développement technologique de cette nature, totalement innovante, méritait d'approfondir d'autres éléments essentiels tels que le choix, et la caractérisation physico-chimique des matériaux associés, ainsi que la caractérisation électrique et l'optimisation des performances des transistors. Un effort majeur a été dédié au développement d'encres à base de nouveaux matériaux (conducteurs et semi-conducteurs) avec des propriétés améliorées (résistivité, mobilité, stabilité,...). La démarche mise en œuvre a permis de progresser dans la définition, le développement et la validation de briques technologiques de base pour la réalisation de fonctions électroniques imprimées sur support souple. De fait, nous avons mis au point une technologie transistor simple, adaptée à la fabrication de masse, aux grandes surfaces et à tous types de substrat, y compris souples, pour la réalisation de transistors optimisés en termes de performances électriques. Ce travail montre, en particulier, que la réduction des résistances de contact est primordiale et qu'une attention toute particulière est requise pour le choix des électrodes source et drain. En effet, des électrodes très peu résistives (17μΩ.cm), imprimées à partir d'une encre à base de nanoparticules d'argent, ne confèrent pas inévitablement de bonnes performances aux transistors. A contrario, un polymère conducteur, le Pedot/Pss, mille fois plus résistif, conduit aux résistances de contact les plus faibles lors d'une prise de contact sur le PQT-12, polymère -conjugué le plus performant de l'étude, en raison de son travail de sortie plus élevé. De plus, les résultats obtenus montrent que les résistances de contact dépendent également de la nature de l'interface, et non pas seulement des niveaux d'énergie respectifs des matériaux avant contact, conformément au modèle de Mott-Schottky. De par le choix d'un substrat souple multicouche avec un oxyde de grille ultrafin (4nm), les transistors flexibles imprimés fonctionnent à basses tensions (|V| <3V), une condition nécessaire à leur intégration dans des dispositifs électroniques portables. Au final, nous disposons de l'élément de base à toute fonction électronique,
|
113 |
Modélisation et évaluation de la fiabilité des systèmes mécatroniques : application sur système embarquéMihalache, Alin Gabriel 17 December 2007 (has links) (PDF)
La mécatronique est définie par l'utilisation simultanée et en étroite symbiose de la mécanique, de l'électronique, de l'informatique,... pour concevoir et produire de produits toujours plus innovants. Cette approche doit s'accompagner aujourd'hui de la garantie de sûreté de fonctionnement (SdF) des systèmes conçus. Or, la fiabilité, élément déterminant de la SdF, est relativement peu maîtrisée dans le développement des systèmes mécatroniques. Nous avons développé une méthodologie globale permettant de modéliser et d'évaluer la fiabilité prévisionnelle, expérimentale et opérationnelle des systèmes mécatroniques. C'est un outil d'aide à la décision dans les différentes phases des cycles de développement et de vie du système mécatronique, en valorisant l'évaluation quantitative de la fiabilité. La fiabilité prévisionnelle est calculée à partir du modèle Réseaux de Petri Stochastiques Déterministes (RdPSD) du système mécatronique, qui prend en considération la modélisation fonctionnelle, la modélisation dysfonctionnelle (à l'aide d'une analyse AMDE, AD,...) et les recueils des données pour chaque composant. Les fiabilités expérimentale et opérationnelle sont déterminées à l'aide de la méthode d'estimation bayésienne BRM qui tient compte des données obtenues lors des essais et issues du REX. Un exemple d'application sur l'antiblocage des roues (ABS) illustre cette méthodologie globale d'estimation de la fiabilité.
|
114 |
Modélisation des stratégies de remplacement de composant et de systèmes soumis à obsolescence technologiqueClavareau, Julien 12 September 2008 (has links)
Ce travail s’inscrit dans le cadre d’étude de la sûreté de fonctionnement.
La sûreté de fonctionnement est progressivement devenue partie intégrante de l’évaluation des performances des systèmes industriels. En effet, les pannes d’équipements, les pertes de production consécutives, et la maintenance des installations ont un impact économique majeur dans les entreprises. Il est donc essentiel pour un manager de pouvoir estimer de manière cohérente et réaliste les coûts de fonctionnement de l’entreprise, en tenant notamment compte des caractéristiques fiabilistes des équipements utilisés, ainsi que des coûts induits entre autres par le non-fonctionnement du système et la restauration des performances de ses composants après défaillance.
Le travail que nous avons réalisé dans le cadre de ce doctorat se concentre sur un aspect particulier de la sûreté de fonctionnement, à savoir les politiques de remplacement d’équipements basées sur la fiabilité des systèmes qu’ils constituent. La recherche menée part de l’observation suivante : si la littérature consacrée aux politiques de remplacement est abondante, elle repose généralement sur l’hypothèse implicite que les nouveaux équipements envisagés présentent les mêmes caractéristiques et performances que celles que possédaient initialement les composants objets du remplacement.
La réalité technologique est souvent bien différente de cette approche, quelle que soit la discipline industrielle envisagée. En effet, de nouveaux équipements sont régulièrement disponibles sur le marché ; ils assurent les mêmes fonctions que des composants plus anciens utilisés par une entreprise, mais présentent de meilleures performances, par exemple en termes de taux de défaillance, consommation d’énergie, " intelligence " (aptitude à transmettre des informations sur leur état de détérioration)...
De plus, il peut devenir de plus en plus difficile de se procurer des composants de l’ancienne génération pour remplacer ceux qui ont été déclassés. Cette situation est généralement appelée obsolescence technologique.
Le but de ce travail est de prolonger et d’approfondir, dans le cadre de la sûreté de fonctionnement, les réflexions engagées par les différents articles présentés dans la section état de l’art afin de définir et de modéliser des stratégies de remplacements d’équipements soumis à obsolescence technologique. Il s’agira de proposer un modèle, faisant le lien entre les approches plus économiques et celles plus fiabilistes, permettant de définir et d’évaluer l’efficacité, au sens large, des différentes stratégies de remplacement des unités obsolètes. L’efficacité d’une stratégie peut se mesurer par rapport à plusieurs critères parfois contradictoires. Parmi ceux-ci citons, évidemment, le coût total moyen engendré par la stratégie de remplacement, seul critère considéré dans les articles cités au chapitre 2, mais aussi la façon dont ces coûts sont répartis au cours du temps tout au long de la stratégie, la variabilité de ces coûts autour de leur moyenne, le fait de remplir certaines conditions comme par exemple d’avoir remplacé toutes les unités d’une génération par des unités d’une autre génération avant une date donnée ou de respecter certaines contraintes sur les temps de remplacement.
Pour arriver à évaluer les différentes stratégies, la première étape sera de définir un modèle réaliste des performances des unités considérées, et en particulier de leur loi de probabilité de défaillance. Etant donné le lien direct entre la probabilité de défaillance d’un équipement et la politique de maintenance qui lui est appliquée, notamment la fréquence des maintenances préventives, leur effet, l’effet des réparations après défaillance ou les critères de remplacement de l’équipement, un modèle complet devra considérer la description mathématique des effets des interventions effectuées sur les équipements. On verra que la volonté de décrire correctement les effets des interventions nous a amené à proposer une extension des modèles d’âge effectif habituellement utilisés dans la littérature.
Une fois le modèle interne des unités défini, nous développerons le modèle de remplacement des équipements obsolètes proprement dit.
Nous appuyant sur la notion de stratégie K proposée dans de précédents travaux, nous verrons comment adapter cette stratégie K à un modèle pour lequel les temps d’intervention ne sont pas négligeables et le nombre d’équipes limité. Nous verrons aussi comment tenir compte dans le cadre de cette stratégie K d’une part des contraintes de gestion d’un budget demandant en général de répartir les coûts au cours du temps et d’autre part de la volonté de passer d’une génération d’unités à l’autre en un temps limité, ces deux conditions pouvant être contradictoires.
Un autre problème auquel on est confronté quand on parle de l’obsolescence technologique est le modèle d’obsolescence à adopter. La manière dont on va gérer le risque d’obsolescence dépendra fortement de la manière dont on pense que les technologies vont évoluer et en particulier du rythme de cette évolution. Selon que l’on considère que le temps probable d’apparition d’une nouvelle génération est inférieur au temps de vie des composants ou supérieur à son temps de vie les solutions envisagées vont être différentes. Lors de deux applications numériques spécifiques.
Nous verrons au chapitre 12 comment envisager le problème lorsque l’intervalle de temps entre les différentes générations successives est largement inférieur à la durée de vie des équipements et au chapitre 13 comment traiter le problème lorsque le délai entre deux générations est de l’ordre de grandeur de la durée de vie des équipements considérés.
Le texte est structuré de la manière suivante : Après une première partie permettant de situer le contexte dans lequel s’inscrit ce travail, la deuxième partie décrit le modèle interne des unités tel que nous l’avons utilisé dans les différentes applications. La troisième partie reprend la description des stratégies de remplacement et des différentes applications traitées. La dernière partie permet de conclure par quelques commentaires sur les résultats obtenus et de discuter des perspectives de recherche dans le domaine.
|
115 |
Analyse des mécanismes de défaillance dans les transistors de puissance radiofréquences HEMT AlGaN/GaNFonder, Jean baptiste 22 October 2012 (has links) (PDF)
Les HEMT AlGaN/GaN sont en passe de devenir incontournables dans le monde de l'amplification de puissance radiofréquence, grâce à leurs performances exceptionnelles. Cependant,en raison de la relative jeunesse de cette technologie, des études de fiabilité dans plusieurs modes de fonctionnement sont toujours nécessaires pour comprendre les mécanismes de défaillance propres à ces composants et responsables de leur vieillissement. Cette étude porte sur l'analyse des défaillances dans les transistors HEMT AlGaN/GaN de puissance,en régime de fonctionnement de type RADAR (pulsé et saturé). Elle s'appuie sur la conception d'amplificateurs de test, leur caractérisation et leur épreuve sur bancs de vieillissement. La mise en place d'une méthodologie visant à discriminer les mécanismes de dégradation prépondérants, conjointement à une analyse micro-structurale des composants vieillis, permet d'établir le lien entre l'évolution des performances électriques et l'origine physique de ces défauts.
|
116 |
Écologie trophique des poissons top-prédateurs - interactions entre espèces natives et introduites au sein d'écosystèmes dulçaquicolesMartino, Aurelia 13 June 2012 (has links) (PDF)
Les effets des introductions d'espèces non natives sur le milieu restent mal connus et les poissons top-prédateurs, au sommet du réseau trophique (intégrateurs), sont des modèles d'étude intéressants pour observer ces impacts. Des changements de fonctionnement de communautés animales, en liaison avec ces introductions, ont été mis en évidence par les analyses des isotopes stables au sein des réseaux trophiques lentiques et lotiques, grâce à l'évaluation des positions trophiques et des régimes alimentaires des top-prédateurs. De plus, la chimie des otolithes a permis de reconstituer l'histoire de vie de poissons introduits (translocation). Ainsi, de nouvelles informations sur l'écologie trophique des poissons top-prédateurs ont été acquises et permettront la mise en place de plans de gestion.
|
117 |
Les réseaux techniques comme vecteur de propagation des risques en milieu urbain - Une contribution théorique et pratique à l'analyse de la résilience urbaineLhomme, Serge 03 December 2012 (has links) (PDF)
Les réseaux techniques sont des infrastructures critiques qui peuvent être vulnérables aux inondations. Leur bon fonctionnement représente donc un enjeu majeur pour la gestion des risques et des territoires. Cette recherche postule que l'analyse de la résilience des réseaux techniques constitue un préalable nécessaire, mais non suffisant, à la mise en place de politiques d'amélioration de la résilience urbaine face aux inondations. Une méthodologie d'analyse de la résilience des réseaux techniques est proposée. Elle requiert l'analyse des capacités de résistance, d'absorption et de récupération de ces réseaux. Dans ce cadre, des développements ont été réalisés afin d'analyser les propriétés structurelles des réseaux techniques, les interdépendances entre les réseaux techniques et la remise en service de ces réseaux. Ces développements reposent principalement sur la théorie des graphes, les méthodes issues de la Sûreté de Fonctionnement, l'optimisation linéaire et l'analyse spatiale. Enfin, un prototype web-SIG a été développé puis appliqué à la ville de Dublin.
|
118 |
Méthodologie d'évaluation des performances environnementales de techniques en vue de les comparer puis de les valider "meilleures techniques disponiblesCikankowitz, Anne 10 December 2008 (has links) (PDF)
La directive européenne, dite IPPC (Integrated Pollution Prevention and Control) impose aux industries à fort potentiel de pollution d‟avoir recours aux meilleures techniques disponibles (MTD) afin d‟atteindre un meilleur niveau de protection de l‟environnement dans l‟Union Européenne. La transposition des contraintes de cette directive européenne en législation française oblige notamment les industriels à réaliser une étude comparative de leur procédés de production à des techniques dites MTD, via un bilan de fonctionnement décennal. Ces MTD de référence sont regroupées par secteurs d‟activité dans des guides techniques élaborés au niveau européen (BREF). L‟analyse du contexte européen et français s‟est basée sur des entretiens et une étude bibliographique. Elle a montré que les principales difficultés résident dans la compréhension du concept de MTD et des guides techniques (les BREFs), dans le peu de synergie existant entre les parties prenantes mais aussi dans le manque de méthodologies d‟évaluation reconnues au regard de la directive IPPC, malgré douze considérations affichées par la directive dans son annexe IV. L‟évaluation et l‟application sont d‟autant moins aisées qu‟une technique est MTD en fonction du contexte local. La connaissance de la sensibilité du milieu récepteur est donc primordiale. Cette thèse propose une méthodologie d‟évaluation des performances environnementales de techniques en vue de les comparer puis de les valider ou non "meilleures techniques disponibles", en mettant en évidence les atouts et les limites de cette méthode. Sur un plan méthodologique, nous avons décidé de renforcer la légitimité de notre méthode en créant un groupe de travail volontaire, participant à la construction de la méthodologie L-BAT. Une démarche en quatre étapes a été créée ((1) analyse du niveau de performance des technologies au cas par cas (2) analyse du niveau de performance du système de gestion de l‟environnement et des risques (3) analyse du niveau de performance globale de l‟installation (4) analyse du niveau de performance de l‟installation avec prise en compte de la sensibilité des milieux). Trois outils sont associés à ces étapes ((1) une grille de lecture simplifiée d‟un BREF (2) un formulaire d‟évaluation thématique (3) une grille d‟évaluation de la sensibilité des milieux). En outre, notre méthodologie propose une grille d‟évaluation globale multi-milieux de la sensibilité du milieu local. Par ailleurs, une réflexion théorique a permis de positionner notre méthodologie par rapport à d‟autres méthodologies d‟évaluation existantes telles que l‟analyse du cycle de vie (ACV) ou l‟évaluation des performances environnementales (EPE).
|
119 |
Fonctionnement hydrodynamique du bassin tertiaire du Bas-Dauphiné entre la Drôme et la Varèze (Drôme et Isère, Sud-Est de la France) : Etude géochimique et isotopiqueCave, Tiffanie 19 December 2011 (has links) (PDF)
L'aquifère molassique du Bas-Dauphiné est situé le long de la vallée du Rhône, dans le Sud-Est de la France. Cet aquifère d'une superficie proche de3000 km², et d'une épaisseur moyenne de 400m renferme une eau d'excellente qualité, utilisée par de nombreuses collectivités pour l'alimentation en eau potable. Cependant certains secteurs montrent une forte vulnérabilité de la nappe aux activités agricoles. L'utilisation d'outils géochimiques etisotopiques a permis de préciser le fonctionnement hydrodynamique de l'aquifère. Dans un premier temps, nous avons montré que la stratification des écoulements décrite par De La Vaissière (2006) sur la partie drômoise de l'aquifère s'étend au secteur isérois. Les eaux les plus profondes ont des vitesses de circulation de l'ordre du mètre par an alors que les flux superficiels ont des vitesses de circulations d'une centaine de mètres par an. D'autre part, le marquage des nappes superficielles et des rivières par des teneurs faibles en tritium (de 3 à 4 UT) et forte en magnésium (jusqu'à 18 mg/L)indique un apport d'eaux anciennes, issues de l'aquifère molassique vers ces eaux superficielles. La définition de deux pôles d'eaux et l'application d'une équation de mélange couplés à la réalisation de bilans hydrogéologique a permis d'appréhender les volumes échangés. Il apparaît finalement que les réservoirs d'eaux superficiels constituent l'exutoire principal de l'aquifère molassique. L'utilisation des éléments traces a mis en avant le rôleessentiel du temps de séjour des eaux dans l'aquifère ainsi que des conditions d'oxydo-réduction dans l'acquisition de la minéralisation. L'évaluation de la qualité naturelle des eaux de la nappe a montré l'impact des activités agricoles sur l'aquifère, avec prés de 80% des échantillons ayant une teneur en nitrates supérieure à la concentration naturelle supposée. L'étude des teneurs en pesticides conforte ce constat. De plus l'étude de l'évolution des concentrations en polluants montre une dégradation de la ressource.
|
120 |
Impact des modes budgétaires sur l'évolution des coûts hospitaliersSavaria, Gabriel 01 1900 (has links) (PDF)
La question du financement des systèmes de santé est devenue un enjeu de société majeur et constitue un grave problème dans tous les pays développés. En effet, on observe un peu partout une hausse non contrôlée des dépenses en santé, lesquelles atteignent des taux de croissance dépassant celui du PIB. Plus précisément, le secteur hospitalier, puisqu'il accapare la plus grande part des budgets dédiés à la santé, se situe au cœur de toute solution visant une meilleure maîtrise de l'évolution des coûts de la santé. Ce travail a pour but de déterminer s'il existe un mécanisme ou un mode d'allocation des budgets aux établissements de santé qui inciterait les hôpitaux à adopter un comportement favorisant un plus grand contrôle de leurs coûts et de leur taux de croissance. Ce document comporte sept chapitres. Dans le chapitre 1, nous décrivons le contexte institutionnel dans lequel se situent les hôpitaux en énonçant quelques statistiques et en faisant un survol des principales causes de l'explosion des coûts de la santé. Nous abordons aussi les concepts d'incitations, d'efficience et de rente informationnelle. Le chapitre 2, quant à lui, consiste en l'énumération des principaux outils liés au financement des hôpitaux, la budgétisation au premier rang, et dont l'objectif central consiste en l'atteinte d'un meilleur contrôle des dépenses. Le chapitre 3 fait état de l'évolution et des transformations qu'a connues la budgétisation des hôpitaux dans les pays de l'OCDE depuis 1960. Le chapitre 4 sera dédié à la question du contrôle de la qualité des soins qui sont prodigués dans les établissements. Ensuite, nous poursuivons dans le chapitre 5 avec une description générale des données retenues pour une évaluation de l'impact sur les coûts des modes de budgétisation alors que dans le chapitre 6, nous procédons à la présentation de la méthodologie qui sera adoptée pour répondre à la question posée. Le chapitre 7 fait état des résultats obtenus suite aux estimations économétriques et se livre à leur interprétation. Finalement, nous évoquons dans le chapitre 8 certains défis inhérents aux études empiriques en santé.
______________________________________________________________________________
MOTS-CLÉS DE L’AUTEUR : Frontières stochastiques, modes budgétaires, efficience.
|
Page generated in 0.0877 seconds