• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 406
  • 150
  • 76
  • 2
  • 1
  • 1
  • Tagged with
  • 632
  • 323
  • 177
  • 174
  • 90
  • 77
  • 76
  • 75
  • 73
  • 72
  • 65
  • 58
  • 53
  • 53
  • 52
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Extensions des automates d'arbres pour la vérification de systèmes à états infinis

Murat, Valérie 26 June 2014 (has links) (PDF)
Les systèmes informatiques jouent un rôle essentiel dans la vie actuelle, et leurs erreurs peuvent avoir des conséquences dramatiques. Il existe des méthodes formelles permettant d'assurer qu'un système informatique est fiable. La méthode formelle utilisée dans cette thèse est appelée complétion d'automates d'arbres et permet d'analyser les systèmes à nombre d'états infini. Dans cette représentation, les états du système sont représentés par des termes et les ensembles d'états par des automates d'arbres. L'ensemble des comportements possibles d'un système est calculé grâce à l'application successive d'un système de réécriture modélisant le comportement du système vérifié. On garantit la fiabilité d'un système en vérifiant qu'un comportement interdit n'est pas présent dans l'ensemble des états accessibles. Mais cet ensemble n'est pas toujours calculable, et nous devons alors calculer une sur-approximation calculable de cet ensemble. Mais cette approximation peut s'avérer trop grossière et reconnaître de faux contre-exemples. La première contribution de cette thèse consiste alors à caractériser, par des formules logiques et de manière automatique, ce qu'est une "bonne" sur-approximation : une approximation représentant un sur-ensemble des configurations accessibles, et qui soit suffisamment précise pour ne pas reconnaître de faux contre-exemples. Résoudre ces formules conduit alors automatiquement à une sur-approximation concluante si elle existe, sans avoir recours à aucun paramétrage manuel. Le second problème de la complétion d'automates d'arbres est le passage à l'échelle, autrement dit le temps de calcul parfois élevé du calcul de complétion quand on s'attaque à des problèmes de la vie courante. Dans la vérification de programmes Java utilisant la complétion d'automates d'arbres, cette explosion peut être due à l'utilisation d'entiers de Peano. L'idée de notre seconde contribution est alors d'évaluer directement le résultat d'une opération arithmétique. D'une façon plus générale, il s'agit d'intégrer les éléments d'un domaine infini dans un automate d'arbres. En s'inspirant de méthodes issues de l'interprétation abstraite, cette thèse intègre des treillis abstraits dans les automates d'arbres, constituant alors un nouveau type d'automates. Les opérations sur le domaine infini représenté sont calculées en une seule étape d'évaluation plutôt que d'appliquer de nombreuses règles de réécriture. Nous avons alors adapté la complétion d'automates d'arbres à ce nouveau type d'automate, et la généricité du nouvel algorithme permet de brancher de nombreux treillis abstraits. Cette technique a été implémentée dans un outil appelé TimbukLTA, et cette implémentation permet de démontrer l'efficacité de cette technique.
222

Aircraft operational reliability - A Model-based approach and case studies

Tiassou, Kossi 06 February 2013 (has links) (PDF)
Lors de la conception des avions, il est courant que les constructeurs évaluent la sûreté de fonctionnement en utilisant des modèles stochastiques, mais l'évaluation de la fiabilité opérationnelle à l'aide de modèles en ligne, pendant la réalisation des missions, reste rarement effectuée. Souvent, l'évaluation stochastique concerne la sécurité des avions. Cette thèse porte sur la modélisation de la fiabilité opérationnelle des avions, pour aider à la planification des activités de maintenance et des missions, ainsi qu'à la bonne réalisation de ces dernières. Nous avons développé une approche de modélisation, basée sur un méta-modèle qui sert de base i) de structuration des informations nécessaires à l'évaluation de la fiabilité opérationnelle d'un avion et ii) pour la construction de modèles stochastiques pouvant être mis à jour dynamiquement. La mise à jour concerne l'état courant des systèmes avion, un profil de mission et les moyens de maintenance disponibles dans les diverses escales incluses dans le profil de la mission. L'objectif est de permettre l'évaluation de la fiabilité opérationnelle en ligne. Deux cas d'études, basés sur des sous-systèmes avion, sont considérés à titre d'illustration. Nous présentons des exemples de résultats qui montrent le rôle important de l'évaluation de la fiabilité opérationnelle pendant une mission d'avion.
223

Analyse de la fiabilité des outils de simulation et des incertitudes de métrologie appliquée à l'efficacité énergétique des bâtiments

Spitz, Clara 09 March 2012 (has links) (PDF)
Le recours à la simulation est décisif dans le processus de conception d'un bâtiment neuf. Elle permet d'évaluer différentes alternatives au regard de la performance énergétique et du confort des occupants et constitue ainsi un outil d'aide à la décision incontournable. Aujourd'hui la question de la fiabilité des codes de simulation n'est pas à négliger. L'augmentation des performances énergétiques des bâtiments, pourrait mettre en défaut un certain nombre d'hypothèses de modélisation généralement admises pour les bâtiments standards du fait de la prépondérance nouvelle de phénomènes physiques jusqu'alors négligés ou mal pris en compte. Dans le même temps on s'intéresse de plus en plus à la garantie de performance qui consiste à vérifier que les performances énergétiques réelles sont bien en adéquation avec les objectifs fixés lors de la conception or il est souvent constaté des erreurs entre consommation mesurée et estimée compte tenu des incertitudes liées notamment à la mise œuvre, aux occupants et aux conditions météorologiques. L'augmentation des exigences de précision des calculs qui en résulte rend essentiel d'apprécier les incertitudes associées à ces prévisions afin d'améliorer le processus de construction et d'évaluation. Les travaux de cette thèse portent en particulier sur l'évaluation et la hiérarchisation des incertitudes sur les résultats des simulations en phase de conception. Une méthodologie a été développée basée en trois temps qui permet d'identifier les paramètres de conception les plus influents sur la performance énergétique d'un bâtiment et de rendre compte des effets de l'incertitude associée à ces paramètres sur cette même performance. La première étape consiste à identifier parmi l'ensemble des paramètres du modèle ceux qui ont une influence sur le résultat qui nous intéresse. Celle-ci est assurée au moyen d'une analyse de sensibilité locale du modèle. La deuxième étape consiste à évaluer les incertitudes associées à ces paramètres les plus influents afin de propager cette incertitude dans le code de calcul et évaluer l'incertitude sur le résultat. Cette étape est effectuée au moyen d'approches probabilistes de type Monte Carlo. Nous ajoutons une troisième étape de manière à évaluer la responsabilité de chacun des paramètres sur les incertitudes associées au résultat. Cette information est cruciale pour l'utilisateur. Cette dernière étape est traitée au moyen d'une analyse de sensibilité globale sur un jeu de paramètres réduit. Nous nous sommes appuyés sur la plateforme expérimentale INCAS située à l'INES au Bourget du Lac (73) pour identifier les incertitudes de mesure mais aussi les incertitudes dont les hypothèses de modélisation font l'objet. Cette méthodologie pourra être utilisée durant tout le processus de conception d'un bâtiment, des premières esquisses à son exploitation. En phase de conception, cette méthodologie permettra d'orienter les choix architecturaux en évitant des options dont la fiabilité des résultats est incertaine. En phase d'exploitation, elle permettra d'identifier les points de mesure les plus pertinents, afin de réduire l'incertitude des paramètres les plus influents pour effectuer un diagnostic énergétique plus fiable du bâtiment. Elle pourra aussi s'étendre aux incertitudes liées aux occupants et aux conditions météorologiques.
224

Analyse électrique de diélectriques SiOCH poreux pour évaluer la fiabilité des interconnexions avancées

Verriere, Virginie 18 February 2011 (has links) (PDF)
Avec la miniaturisation des circuits intégrés, le délai de transmission dû aux interconnexions a fortement augmenté. Pour limiter cet effet parasite, le SiO2 intégré en tant qu'isolant entre les lignes métalliques a été remplacé par des matériaux diélectriques à plus faible permittivité diélectrique dits Low-κ. La principale approche pour élaborer ces matériaux est de diminuer la densité en incorporant de la porosité dans des matériaux à base de SiOCH. L'introduction de ces matériaux peu denses a cependant diminué la fiabilité : sous tension, le diélectrique SiOCH poreux est traversé par des courants de fuite et peut claquer, générant des défaillances dans le circuit. La problématique pour l'industriel est de comprendre les mécanismes de dégradation du diélectrique Low-κ afin de déterminer sa durée de vie aux conditions de température et de tension de fonctionnement. Dans ce contexte, les travaux de cette thèse ont consisté à étudier les mécanismes de conduction liés aux courant de fuite afin d'extraire des paramètres quantitatifs représentatifs de l'intégrité électrique du matériau. Nous avons utilisé ces paramètres afin de suivre le vieillissement du matériau soumis à une contrainte électrique. Nous avons également introduit la spectroscopie d'impédance à basse fréquence comme moyen de caractérisation du diélectrique Low-κ. Cet outil nous a permis de caractériser le diélectrique intermétallique de façon non agressive et d'identifier des phénomènes de transport de charges et de diffusion métallique à très basses tensions qui offrent des perspectives pour l'étude de la fiabilité diélectrique des interconnexions.
225

Approche polymorphe de la modélisation électrothermique pour la fiabilisation des dispositifs microélectroniques de puissance

Azoui, Toufik 23 May 2013 (has links) (PDF)
Le fort développement actuel des systèmes électroniques embarqués nous conduit à relever le défi de leur fiabilisation, ceci d'autant plus que des organes de sécurité sont souvent concernés et que ces systèmes opèrent dans des conditions environnementales difficiles avec une exigence de réduction de coût drastique. Ce qui caractérise le mieux l'évolution récente de ces systèmes électroniques embarqués c'est une forte intégration qui conduit à réduire leur encombrement et leur poids tout en augmentant la puissance électrique convertie. Il en résulte automatiquement une augmentation de la densité de puissance dissipée et l'étude de leur comportement électrothermique prend, dans ces conditions, une importance fondamentale. Le présent travail concerne le développement d'outils précis de modélisation électrothermique qui permettent d'appréhender l'impact de la technologie choisie (conception, connectiques, matériaux ...) sur les phénomènes causés par les défauts qui apparaissent avec le vieillissement. Des règles de robustesse spécifiques à chaque technologie pourront être édictées à l'aide de simulations 3D distribuées présentées dans le mémoire. Dans un premier temps la modélisation électrothermique compacte a été abordée. Ensuite, en se limitant aux modules MOS de puissance, une première classe de problèmes caractérisée par l'absence de commutation peut être traitée en ayant recours à une modélisation électrothermique par éléments finis qui considère que le composant est constitué par un ensemble de zones de résistivités électriques et de conductivités thermiques différentes. Une tentative a été faite en vue d'étendre l'étude électrothermique aux classes de problèmes mettant en œuvre des MOS de puissance fonctionnant en régime de commutation. Le modèle électrique distribué doit alors être capable de calculer et de répartir les pertes totales (état passant, état bloqué et commutation) pour un régime de commutation rapide. Enfin, un soin particulier a été accordé à l'étude du fonctionnement en avalanche, une méthode basée sur l'expérimentation et l'utilisation d'un modèle électrothermique simple afin d'estimer la température de jonction d'un MOSFET de puissance lors de son fonctionnement en régime d'avalanche de courte durée a été développée. Pour conclure, on a démontré qu'il n'existe pas une réponse unique en termes de modélisation électrothermique et que chaque méthode vise à résoudre une classe spécifique de problèmes.
226

Caractérisation et modélisation de la fiabilité des transistors et circuits millimétriques conçus en technologies BiCMOS et CMOS

Ighilahriz, Salim 31 March 2014 (has links) (PDF)
De nos jours, l'industrie de la microélectronique développe des nouvelles technologies qui permettent l'obtention d'applications du quotidien alliant rapidité, basse consommation et hautes performances. Pour cela, le transistor, composant actif élémentaire et indispensable de l'électronique, voit ses dimensions miniaturisées à un rythme effréné suivant la loi de Moore de 1965. Cette réduction de dimensions permet l'implémentation de plusieurs milliards de transistors sur des surfaces de quelques millimètres carrés augmentant ainsi la densité d'intégration. Ceci conduit à une production à des coûts de fabrication constants et offre des possibilités d'achats de produits performants à un grand nombre de consommateurs. Le MOSFET (Metal Oxide Semiconductor Field Effect Transistor), transistor à effet de champ, aussi appelé MOS, représente le transistor le plus utilisé dans les différents circuits issus des industries de la microélectronique. Ce transistor possède des longueurs électriques de 14 nm pour les technologies industrialisables les plus avancées et permet une densité intégration maximale spécialement pour les circuits numériques tels que les microprocesseurs. Le transistor bipolaire, dédié aux applications analogiques, fut inventé avant le transistor MOS. Cependant, son développement correspond à des noeuds technologiques de génération inférieure par rapport à celle des transistors MOS. En effet, les dimensions caractéristiques des noeuds technologiques les plus avancés pour les technologies BiCMOS sont de 55 nm. Ce type de transistor permet la mise en oeuvre de circuits nécessitant de très hautes fréquences d'opération, principalement dans le secteur des télécommunications, tels que les radars anticollisions automobiles fonctionnant à 77 GHz. Chacun de ces types de transistors possède ses propres avantages et inconvénients. Les avantages du transistor MOS reposent principalement en deux points qui sont sa capacité d'intégration et sa faible consommation lorsqu'il est utilisé pour réaliser des circuits logiques. Sachant que ces deux types de transistors sont, de nos jours, comparables du point de vue miniaturisation, les avantages offerts par le transistor bipolaire diffèrent de ceux du transistor MOS. En effet, le transistor bipolaire supporte des niveaux de courants plus élevés que celui d'un transistor MOS ce qui lui confère une meilleure capacité d'amplification de puissance. De plus, le transistor bipolaire possède une meilleure tenue en tension et surtout possède des niveaux de bruit électronique beaucoup plus faibles que ceux des transistors MOS. Ces différences notables entre les deux types de transistors guideront le choix des concepteurs suivant les spécifications des clients. L'étude qui suit concerne la fiabilité de ces deux types de transistors ainsi que celle de circuits pour les applications radio fréquences (RF) et aux longueurs d'ondes millimétriques (mmW) pour lesquels ils sont destinés. Il existe dans la littérature de nombreuses études de la fiabilité des transistors MOS. Concernant les transistors bipolaires peu d'études ont été réalisées. De plus peu d'études ont été menées sur l'impact de la fiabilité des transistors sur les circuits. L'objectif de ce travail est d'étudier le comportement de ces deux types de transistors mais aussi de les replacer dans le contexte de l'utilisateur en étudiant la fiabilité de quelques circuits parmi les plus usités dans les domaines hyperfréquence et millimétrique. Nous avons aussi essayé de montrer qu'il était possible de faire évoluer les règles de conception actuellement utilisées par les concepteurs tout en maintenant la fiabilité attendue par les clients.
227

Conception d'un système de verrouillage sur de fonctionnement pour les collisionneurs linéaires

Nouvel, Patrice 18 December 2013 (has links) (PDF)
Pour les accélérateurs de particules à hautes énergies, le système de verrouillage est une partie clé de la protection de la machine. Le verrouillage de la machine est l'inhibition du faisceau dès lors qu'un équipement critique tombe en panne et/ou qu'un faisceau est de faible qualité. Pour un système de verrouillage, sa sûreté de fonctionnement est la caractéristique la plus importante. Cette thèse présente le développement d'un système de verrouillage pour les collisionneurs linéaires avec une application au projet CLIC (Compact Linear Collider). Son élaboration s'appuie sur la norme d'ingénierie IEEE 1220 et se décline en quatre parties. Tout d'abord, les spécifications sont établies. Une attention particulière est portée sur la sûreté de fonctionnement, plus précisément, la fiabilité et la disponibilité du système. La deuxième étape est la proposition d'un design. Celui-ci est basé sur une analyse fonctionnelle, les interfaces du système et l'architecture du CLIC. Troisièmement, une étude de faisabilité est effectuée en appliquant les concepts dans un environnement opérationnel. Finalement, la dernière étape est la vérification matérielle. Le but est de prouver que le design proposé est capable de remplir le cahier des charges établi.
228

Contribution à une gestion durable de structures en béton armé soumises à la pénétration des ions chlorure

Bastidas-Arteaga, Emilio 01 September 2010 (has links) (PDF)
A l'heure actuelle, des multiples contraintes économiques, sociales et environnementales transforment l'optimisation de la planification des travaux de maintenance en un défi majeur pour les concepteurs, les propriétaires et les utilisateurs des infrastructures. Cette étude se concentre sur la gestion des structures en béton armé placées dans des environnements marins. Dans ces conditions d'exposition, la pénétration des ions chlorure génère la corrosion des armatures en réduisant la durabilité du béton armé. Par conséquent, la modélisation des processus de dégradation ainsi que des actions de maintenance réalisées au cours de la durée de vie opérationnelle devient primordiale pour la formulation d'une stratégie de maintenance durable. L'objectif principal de cette thèse est de développer une nouvelle méthodologie pour l'optimisation de la performance des stratégies de maintenance des structures en béton armé sujettes à la corrosion. La gestion des infrastructures est principalement basée sur des contraintes économiques. Cette étude propose une extension à des critères environnementaux pour trouver des solutions inscrites dans le cadre du développement durable. Le modèle de gestion combine: un modèle étendu de pénétration des chlorures, des processus de Markov et la théorie de la décision. L'aléa lié aux propriétés des matériaux, au modèle et aux actions environnementales ainsi que les effets des inspections imparfaites sont également intégrés au modèle. Étant donné que la stratégie de maintenance durable doit minimiser les coûts et l'impact environnemental, une approche multicritère pour la prise de décision est également mise en œuvre. Plusieurs exemples numériques et des études de cas réels illustrent les points ci-dessus dans ce mémoire. Il est démontré que la méthode proposée peut être utile pour améliorer la performance environnementale et les coûts d'une stratégie de maintenance donnée en assurant des niveaux appropriés de service et de sûreté.
229

Contribution au développement et à l'étude de facteurs d'importance fiabilistes pour les systèmes markoviens

Do Van, Phuc 03 October 2008 (has links) (PDF)
Les facteurs d'importance fiabilistes permettant de fournir des informations sur l'importance des composants vis-à-vis des performances fiabilistes d'un système. Ces facteurs d'importance sont un outil efficace pour la prise de décision dans les études de fiabilité, d'analyse de risques, en maintenance, en exploitation ou en conception. Les facteurs d'importance fiabilistes ont été classiquement définis dans le cadre des modèles booléens de fiabilité et, sous leur forme classique (et avec les méthodes d'évaluation actuelles), ces facteurs ne sont souvent utilisables que sous l'hypothèse de composants binaires et indépendants, et pour une architecture de système " statique ". L'utilisation de ces facteurs d'importance pour l'aide à la décision sur des systèmes réels impose pourtant souvent la prise en compte d'hypothèses plus réalistes. Cette thèse propose un nouveau facteur d'importance fiabiliste, la " sensibilité multi-directionnelle ", qui permet d'évaluer l'importance fiabiliste d'un composant ou d'un groupe de composants d'un système markovien à composants dépendants et, plus généralement, l'importance fiabiliste d'un ensemble de caractéristiques du système. On développe également des méthodes efficaces d'évaluation de ce nouveau facteur d'importance par calcul analytique ou par estimation à partir d'une seule trajectoire observée en utilisant des techniques d'analyse par perturbation. L'extension aux ordres supérieurs et l'utilisation pour des systèmes markoviens d'un facteur importance introduit récemment (DIM) sont également abordés.
230

ETUDE DES MECANISMES MIS EN JEU DANS LA FIABILITE DES MICRO-COMMUTATEURS MEMS-RF

Mardivirin, David 26 November 2010 (has links) (PDF)
Les travaux présentés dans ce manuscrit sont axés sur la caractérisation et l'analyse des mécanismes de défaillances qui apparaissent dans une nouvelle famille de composants microondes : les MEMS-RF (Systèmes Micro-Electro-Mécanique RadioFréquence). Si ces composants ont rapidement suscité beaucoup d'espoirs pour résoudre un grand nombre de verrous concernant les nouvelles architectures de communication, il est apparu que la fiabilité de ces composants a énormément ralenti leur développement industriel. De plus, ces micro-commutateurs résultent d'un couplage multi-physique qui a ajouté une forte complexité et une difficulté de compréhension de leur fonctionnement et donc leur fiabilité. Actuellement, de nombreux et intenses efforts sont réalisés par la communauté scientifique (universitaire et industrielle), car ce sujet reste ouvert à de nombreuses questions et problèmes non résolues. Ce document se propose d'apporter une contribution sur ce sujet à la fois sur le plan expérimental, théorique et technologique.

Page generated in 0.0467 seconds