• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 163
  • 51
  • 45
  • 4
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 274
  • 119
  • 45
  • 42
  • 42
  • 35
  • 31
  • 27
  • 27
  • 26
  • 25
  • 23
  • 23
  • 22
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Les réseaux techniques comme vecteur de propagation des risques en milieu urbain - Une contribution théorique et pratique à l'analyse de la résilience urbaine

Lhomme, Serge 03 December 2012 (has links) (PDF)
Les réseaux techniques sont des infrastructures critiques qui peuvent être vulnérables aux inondations. Leur bon fonctionnement représente donc un enjeu majeur pour la gestion des risques et des territoires. Cette recherche postule que l'analyse de la résilience des réseaux techniques constitue un préalable nécessaire, mais non suffisant, à la mise en place de politiques d'amélioration de la résilience urbaine face aux inondations. Une méthodologie d'analyse de la résilience des réseaux techniques est proposée. Elle requiert l'analyse des capacités de résistance, d'absorption et de récupération de ces réseaux. Dans ce cadre, des développements ont été réalisés afin d'analyser les propriétés structurelles des réseaux techniques, les interdépendances entre les réseaux techniques et la remise en service de ces réseaux. Ces développements reposent principalement sur la théorie des graphes, les méthodes issues de la Sûreté de Fonctionnement, l'optimisation linéaire et l'analyse spatiale. Enfin, un prototype web-SIG a été développé puis appliqué à la ville de Dublin.
92

Décomposition avancée de modèles numériques CAO pour le procédé de Stratoconception. Développement des outils associés

Houtmann, Yves 16 December 2007 (has links) (PDF)
La Stratoconception est un procédé breveté de prototypage rapide permettant de fabriquer directement par couches une pièce créée par CAO, sans rupture de la chaîne conception / fabrication. Le procédé de Stratoconception est développé au CIRTES depuis 1990 et a fait l'objet de nombreuses communications ainsi que de dépôts de brevets et de marques.<br />La Stratoconception consiste à décomposer (trancher) une pièce, en un ensemble de couches élémentaires simples, appelées strates, dans lesquelles sont introduits des renforts et inscris. Les pièces élémentaires sont identifiées puis fabriquées directement par micro-fraisage rapide 2.5 axes, à partir de matériaux en plaques. Ces pièces élémentaires sont ensuite assemblées pour reconstituer le produit final. L'assemblage est pris en compte dès la décomposition.<br />Ce travail est une continuation des travaux de thèse CIFRE n°642/99 de Geoffroy LAUVAUX effectués au sein de l'IFTS de Reims et soutenus en 2005.<br />La notion de décomposition de modèle numérique en entités a connu, et connaît encore, de nombreux développements et travaux. A l'origine, les entités de décomposition correspondaient à des entités élémentaires d'usinage (plan, cylindre, balayage...). Aujourd'hui, les travaux portant sur la décomposition de modèles sont principalement appliqués dans les domaines de l'imagerie multimédia, de la reconnaissance de similarités de modèles et de la création de nouveaux modèles à partir de bases de données de modèles existants.<br />Lorsque l'on cherche à appliquer la notion de décomposition à la Stratoconception, il apparaît que celle-ci n'est pas unique et qu'il est possible de définir trois types de décompositions adaptées à des problématiques bien distinctes : la décomposition en strates, en morceaux et en entités. Chacune de ces décompositions résout des problèmes d'accessibilté, de réduction de dimensions de modèles et d'optimisation de vitesse de réalisation.<br />Nous avons plus particulièrement travaillé sur l'optimisation de la phase de tranchage par l'utilisation de points caractéristiques (dits critiques) et sur l'utilisation de la ligne de reflet pour la décomposition et la réalisation de formes tubulaires. Nous avons également étudié un algorithme de décomposition en entités convexes approchées en dimensions 2 et 3.
93

Infiltration et croissance des céramiques YBa2Cu3O7-d texturées à structure perforée: relations microstructures et propriétés supraconductrices

Meslin, Sophie 20 September 2006 (has links) (PDF)
L'oxyde supraconducteur YBa2Cu3O7Δ (Y123) qui possède une température critique de 92 K a éveillé à sa découverte un grand enthousiasme et est la source de nombreux travaux. Grâce à ses bonnes propriétés supraconductrices à la température de l'azote liquide (77 K) il semble être le plus prometteur pour les applications sous champ magnétique. Pour obtenir des densités de courant critique élevées, il est nécessaire de les densifier et d'induire une orientation cristallographique préférentielle.<br />Ce travail a consisté à élaborer des échantillons plus performants en terme de propriétés supraconductrices. Le procédé conventionnel de texturation induit des fissures et de la porosité dans les échantillons et nécessite l'ajout de dopants pour améliorer ses propriétés. Nous avons étudié un nouveau procédé « infiltration et croissance » ainsi que la mise en forme d'une géométrie originale « à parois minces ». Les caractérisations effectuées sur la microstructure, la texture et les propriétés supraconductrices sont rapportées.<br />L'optimisation du procédé a consisté à comprendre les mécanismes d'infiltration et de croissance, puis à rechercher la configuration et la composition donnant des échantillons les plus performants. Des densités de courants critiques de l'ordre de 68 kA/cm2 en champ propre ont été mesurées à 77 K. <br /> L'étude des échantillons perforés a montré que, grâces aux « trous » artificiels, les microstructures sont exempt de porosité, les échantillons se refroidissent plus rapidement et l'oxygénation est plus rapide et homogène comparé aux matériaux non perforés.
94

Le réseau Kondo à basse température: du liquide de Fermi au liquide de spin

Burdin, Sebastien 23 October 2001 (has links) (PDF)
Cette thèse est organisée autour d'une problématique centrale : l'étude théorique de l'effet Kondo dans les fermions lourds, lorsque les ions magnétiques sont en forte concentration.<br /><br />Dans une première partie, l'influence sur le réseau Kondo, d'une variation du nombre d'électrons de conduction est étudiée à basse température (problème de l'épuisement). Cet effet peut s'observer expérimentalement sur des composés de Cérium ou d'Uranium, dont la température de cohérence peut être bien plus petite que la température de Kondo à une impureté. Par des approches analytiques et numériques, le problème est résolu dans la limite ``grand-N'',<br />où N est le nombre de composantes du spin effectif. Alors que les modèles à une seule impureté sont caractérisés à basse température par une unique échelle d'énergie T_K, cette thèse confirme l'existence, pour le réseau Kondo, d'une deuxième échelle T*, caractéristique de l'apparition du comportement de liquide de Fermi, et définie à partir des propriétés physiques du système (thermodynamiques, magnétiques et de transport).<br /><br />Dans la deuxième partie, les effets du désordre et de la frustration magnétique du réseau Kondo sont étudiés analytiquement, dans le formalisme de la théorie du champ dynamique moyen, en considérant la limite ``grand-N''. Un point critique quantique (QCP) est obtenu, entre un régime de liquide de Fermi lourd et un régime de liquide de<br />spin. Les propriétés physiques du système sont calculées dans la phase Kondo, qui présente une très forte diminution de T* et de T_K à l'approche du QCP. Ce résultat est à corréler avec la forte masse effective observée expérimentalement pour le composé LiV$_{2}$O$_{4}$.<br /><br />Enfin, la troisième partie présente une étude préliminaire et les étapes principales du calcul permettant de déterminer numériquement le diagramme de phase magnétique du modèle d'Anderson périodique, par la méthode du champ dynamique moyen.
95

Contribution à la conception des machines électriques à rotor passif pour des applications critiques : modélisations électromagnétiques et thermiques sur cycle de fonctionnement, étude du fonctionnement en mode dégradé

Li, Guangjin 05 July 2011 (has links) (PDF)
Dans cette thèse, une comparaison entre différentes topologies des machines a été tout d'abord réalisée. Deux machines électriques: Machine à Réluctance Variable (MRV) et Machine à Commutation de Flux (MCF) sont ensuite choisies pour les études suivantes. Un modèle électromagnétique-thermiquement couplé est effectué pour ces deux structures. Ce modèle est basé sur une caractérisation préalable par la méthode des éléments finis (EF) 2D via le calcul du couple instantané, des deux composantes de l'induction magnétique (Br et B&#952-) de chaque élément du maillage du rotor ainsi que du stator pour différentes densités des courantes efficaces et différentes positions du rotor. Ces résultats sont ensuite utilisés dans les modèles analytiques de pertes Joule et de pertes fer permettant de calculer les pertes Joule et les pertes fer sur un cycle de fonctionnement. Des modèles thermiques transitoires tels que le réseau de résistances thermiques et l'EF 2D sont effectués, dans lesquels les pertes instantanées obtenues précédemment sont utilisées comme sources de chaleur pour le calcul des variations des températures dans différents composants d'une machine électrique sur cycle de fonctionnement. Un modèle défaut-thermique d'une MCF triphasée est aussi mis en ouvre. Les défauts étudiés dans cette thèse sont principalement dus au court-circuit: le court-circuit entre-spires d'une phase, le court-circuit entre-spires et entre-phase dans une MCF sans redondance, le court-circuit d'une phase ou de trois phases dans une MCF avec redondance. A l'aide de MATLAB/Simulink, les courants sains et les courants de court-circuit sont obtenus, et les pertes instantanées peuvent être calculées en utilisant la méthode mentionnée précédemment. Par conséquent, le comportement thermique en cas de défauts peut être prévu. Enfin, des études de défauts pour une MCF hexa-phasée sans redondance sont effectuées, et un convertisseur du type pont complet est utilisé pour alimenter la machine. Cela nous permet de contrôler indépendamment chaque phase en cas de défauts. Les défauts sont entre autres le circuit ouvert ou le court-circuit dans une ou plusieurs phases (jusqu'à trois). Certaines méthodes de correction telles que: l'augmentation de l'amplitude du courant dans les phases saines et / ou modifier leurs phases, sont proposées pour maintenir le couple électromagnétique tout en minimisant l'ondulation de couple. Les résultats analytiques et numériques ont montré la bonne efficacité des méthodes proposées tant en cas de l'ouverture des phases qu'en cas du court-circuit des phases.
96

Un calcul algébrique détaillé de la fonction de partition du modèle d'Ising bidimensionnel

Loranger, Francis January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
97

Architecture sécurisée pour les systèmes d'information des avions du futur

Lastera, Maxime 04 December 2012 (has links) (PDF)
Traditionnellement, dans le domaine avionique les logiciels utilisés à bord de l'avion sont totalement séparés des logiciels utilisés au dehors afin d'éviter toutes interaction qui pourrait corrompre les systèmes critiques à bord de l'avion. Cependant, les nouvelles générations d'avions exigent plus d'interactions avec le monde ouvert avec pour objectif de proposer des services étendu, générant ainsi un flux d'information potentiellement dan- gereux. Dans une précédente étude, nous avons proposé l'utilisation de la virtualisation pour assurer la sûreté de fonctionnement d'applications critiques assurant des communi- cations bidirectionnelles entre systèmes critiques et systèmes non sûr. Dans cette thèse nous proposons deux contributions. La première contribution propose une méthode de comparaison d'hyperviseur. Nous avons développé un banc de test permettant de mesurer les performances d'un système virtualisé. Dans cette étude, différentes configurations ont été expérimentées, d'un système sans OS à une architecture complète avec un hyperviseur et un OS s'exécutant dans une machine virtuelle. Plusieurs tests (processeur, mémoire et réseaux) ont été mesurés et collectés sur différents hyperviseurs. La seconde contribution met l'accent sur l'amélioration d'une architecture de sécurité existante. Un mécanisme de comparaison basé sur l'analyse des traces d'exécution est utilisé pour détecter les anomalies entre instances d'application exécutées sur diverse ma- chines virtuelles. Nous proposons de renforcer le mécanisme de comparaison à l'exécution par l'utilisation d'un modèle d'exécution issu d'une analyse statique du bytecode Java. Afin de valider notre approche, nous avons développé un prototype basé sur un cas d'étude identifié avec Airbus qui porte sur l'utilisation d'un ordinateur portable dédié à la maintenance.
98

Automatisation de la Certification Formelle de Systèmes Critiques par Instrumentation d'Interpréteurs Abstraits

Garnacho, Manuel 27 August 2010 (has links) (PDF)
Mes travaux de doctorat ont porté sur la certification de programmes impératifs utilisés dans des applications critiques. Les certificats établissent la validité des propriétés sémantiques des programmes et sont produits sous forme de preuves déductives vérifiables par machine. Le défi relevé dans cette thèse est d'automatiser la construction des preuves de correction de programmes. Nous avons suivie l'approche de Floyd-Hoare pour prouver que les propriétés sémantiques sont des invariants du programme et nous avons utilisé le le système Coq pour vérifier la validité des preuves. On considére ici le cas où les propriétés sémantiques sont calculées par des analyseurs statiques de programmes qui s'appuient sur la théorie de l'interprétation abstraite. Nous proposons une méthode d'instrumentation des analyseurs statiques de programmes afin de leur faire générer automatiquement un certificat pour chaque propriété sémantique calculée. L'instrumentation consiste à associer à certaines fonctions d'un analyseur statique des patrons de preuve qui à l'exécution généreront les certificats. De tels analyseurs instrumentés ne sont pas pour autant certifiés puisque leur correction pour toutes leurs entrées possibles n'est pas garantie, néanmoins ils sont capables de justifier par une preuve formelle la correction du résultat de chacun de leurs calculs. Bien sûr, si pour une entrée possible l'exécution de l'analyseur est boguée le résultat sera erroné et la justification produite ne sera pas une preuve valide; elle sera rejettée par le vérificateur de preuves. Cette approche permet de certifier avec un très haut-niveau de confiance (celui du vérificateur de preuves) les résultats d'outils existants, même à l'état de prototypes. Pour que l'instrumentation soit applicable en pratique, nous avons cherché à limiter le nombre de fonctions à instrumenter. Nous avons dégagé un ensemble restreint de fonctions, commun à tout analyseur, à instrumenter pour qu'un analyseur existant devienne un outil de certification automatique. Nous avons appliqué cette technique d'instrumentation à un analyseur de programmes manipulant des tableaux qui s'appuie sur des domaines abstraits non triviaux. Cet analyseur calcule des propriétés sur le contenu des tableaux manipulés par les programmes et, grâce à notre instrumentation, génère désormais des certificats vérifiables par Coq attestant de la validité des propriétés découvertes par l'analyse statique. Nous montrons enfin comment utiliser cet analyseur instrumenté pour certifier un protocole de communication pour systèmes multi-tâches destiné à l'avionique. La garantie de la correction des programmes est cruciale dans le domaine des systèmes embarqués. Face aux coûts et la durée d'une procédure de certification formelle, le développement d'outils automatiques de certification représente un enjeu économique majeur. La transformation, par instrumentation, d'outils d'analyses existants en outils de certification est une réponse possible qui évite la certification des outils d'analyse.
99

Détection d'erreur au plus tôt dans les systèmes temps réel : une approche basée sur la vérification en ligne

Robert, Thomas 24 June 2009 (has links) (PDF)
La vérification en ligne de spécifications formelles permet de créer des détecteurs d'erreur dont le pouvoir de détection dépend en grande partie du formalisme vérifié à l'exécution. Plus le formalisme est puissant plus la séparation entre les exécutions correctes et erronées peut être précise. Cependant, l'utilisation des vérifieurs en-ligne dans le but de détecter des erreurs est entravée par deux problèmes récurrents : le coût à l'exécution de ces vérifications, et le flou entourant les propriétés sémantiques exactes des signaux d'erreur ainsi générés. L'objectif de cette thèse est de clarifier les conditions d'utilisation de tels détecteurs dans le cadre d'applications " temps réel " critiques. Dans ce but, nous avons donné l'interprétation formelle de la notion d'erreur comportementale " temps réel". Nous définissions la propriété de détection " au plus tôt " qui permet de d'identifier la classe des détecteurs qui optimisent la latence de détection. Pour illustrer cette classe de détecteurs, nous proposons un prototype qui vérifie un comportement décrit par un automate temporisé. La propriété de détection au plus tôt est atteinte en raisonnant sur l'abstraction temporelle de l'automate et non sur l'automate lui-même. Nos contributions se déclinent dans trois domaines, la formalisation de la détection au plus tôt, sa traduction pour la synthèse de détecteurs d'erreur à partir d'automate temporisés, puis le déploiement concret de ces détecteurs sur une plate-forme de développement temps réel, Xenomai.
100

Détection de situations critiques et commande robuste tolérante aux défauts pour l'automobile

Varrier, Sébastien 18 September 2013 (has links) (PDF)
Les véhicules modernes sont de plus en plus équipés de nouveaux organes visant à améliorer la sécurité des occupants. Ces nouveaux systèmes sont souvent des organes actifs utilisant des données de capteurs sur le véhicule. Cependant, en cas de mauvais fonctionnement d'un capteur, les conséquences pour le véhicule peuvent être dramatiques. Afin de garantir la sécurité dans le véhicule, des nouvelles méthodologies de détections de défauts adaptées pour les véhicules sont proposées. Les méthodologies présentées sont étendues de la méthode de l'espace de parité pour les systèmes à paramètres variant (LPV). En outre, la transformation du problème de détection de défauts pour la détection de situations critiques est également proposée. Des résultats applicatifs réalisés sur un véhicule réel dans le cadre du projet INOVE illustrent les performances des détections de défauts et la détection de perte de stabilité du véhicule.

Page generated in 0.055 seconds