• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 406
  • 150
  • 76
  • 2
  • 1
  • 1
  • Tagged with
  • 632
  • 323
  • 177
  • 174
  • 90
  • 77
  • 76
  • 75
  • 73
  • 72
  • 65
  • 58
  • 53
  • 53
  • 52
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Analyse d'une architecture de puissance dédiée aux modes traction-recharge dans un véhicule électrique. Optimisation de la commande et fonctionnement en mode dégradé

Kolli, Abdelfatah 11 December 2013 (has links) (PDF)
La problématique de recherche abordée dans ce mémoire de thèse découle de l'étude approfondie d'une association convertisseur-machine dédiée aux modes traction et recharge d'un véhicule électrique. Il s'agit d'un onduleur triphasé constitué de trois onduleurs monophasés connectés à une machine triphasée à phases indépendantes.Dans le chapitre II, une étude comparative entre deux solutions industrielles montre que l'architecture étudiée offre des caractéristiques compétitives notamment en termes de rendement global du convertisseur, performances mécaniques, et surface de silicium nécessaire.Par ailleurs, outre la possibilité de mutualiser les trois fonctions du véhicule que sont la traction, la recharge (rapide ou lente) et l'assistance du réseau électrique, cette topologie offre plusieurs atouts : des possibilités variées d'alimentation et donc un potentiel intéressant de reconfiguration en marche dégradée. La thématique abordée dans les chapitres III et IV est donc centrée sur l'optimisation des stratégies de contrôle de cette structure vis-à-vis de deux types de défauts : les imperfections intrinsèques du système d'une part et les défaillances accidentelles d'autre part.Dans un premier temps, un travail approfondi sur les méthodes de modulation de largeur d'impulsion a permis de synthétiser une stratégie offrant une faible sensibilité vis-à-vis des imperfections de la commande et de la non-linéarité du convertisseur. Dans un second temps, il a été montré qu'en cas de défaillance d'un composant à semi-conducteur, il était obligatoire de recourir à la reconfiguration matérielle de la topologie. L'architecture permettant la continuité de service a été étudiée du point de vue de sa commande. Son analyse nous a amenés à proposer une structure de contrôle basée sur des solutions automatiques simples et efficaces. Finalement, le principe du fonctionnement en marche dégradée a été étendu au fonctionnement normal dans le but d'en améliorer le rendement sur cycle.
362

On the use of statistical analysis for tribological evaluation of a solid lubricant

Yang, Jiao 09 October 2013 (has links) (PDF)
La dégradation des contacts tribologiques sous une sollicitation de fretting est un phénomène complexe lié à l'interaction entre deux corps sous une faible amplitude de débattement, ce qui limite la durée de vie des pièces de manière significative. La lubrification solide est de plus en plus utilisée dans les applications tribologiques pour réduire les frottements et protéger la surface du substrat contre l'usure par fretting. La performance du revêtement dépend de nombreux facteurs tels que les conditions de sollicitation, les propriétés du substrat, du contre-corps et du revêtement et l'adhérence entre le revêtement et le substrat. Les objectifs de cette thèse sont de discuter le frottement et le comportement en usure du revêtement sous différentes conditions et d'analyser l'effet des paramètres d'essai sur le coefficient de frottement et la durée de vie du revêtement, ce qui peut être effectivement utile pour l'évaluation de la qualité des revêtements. Les tests de fretting sont menés pour comprendre les relations entre le comportement tribologique d'un vernis à base de MoS2 et les conditions d'essai. Le revêtement est étudié pour différentes valeurs de force de contact, amplitude de déplacement, configuration de contact, position du revêtement, nature du substrat et épaisseur. L'effet de chaque facteur est évalué par l'analyse de variance. L'analyse de régression est utilisée pour prévoir la performance du revêtement. L'observation de l'évolution de la trace d'usure est réalisée pour expliquer l'importance des facteurs et les coefficients dans les équations de prédiction. En outre, l'analyse de fiabilité est utilisée pour décrire et prévoir le taux de survie du revêtement sous certaines conditions d'essai. Enfin, un modèle linéaire de durée de vie est évalué afin de prendre en compte l'amplitude de déplacement variable.
363

Behavioral Application-dependent Superscalar Core Modeling

Velásquez Vélez, Ricardo Andrés 19 April 2013 (has links) (PDF)
Ces dernières années, l'effort de recherche est passé de la microarchitecture du cœur à la microarchitecture de la hiérarchie mémoire. Les modèles précis au cycle près pour processeurs multi-cœurs avec des centaines de cœurs ne sont pas pratiques pour simuler des charges multitâches réelles du fait de la lenteur de la simulation. Un grand pourcentage du temps de simulation est consacré à la simulation des différents cœurs, et ce pourcentage augmente linéairement avec chaque génération de processeur. Les modèles approximatifs sacrifient de la précision pour une vitesse de simulation accrue, et sont la seule option pour certains types de recherche. Les processeurs multi-cœurs exigent également des méthodes de simulation plus rigoureuses. Il existe plusieurs méthodes couramment utilisées pour simuler les architectures simple cœur. De telles méthodes doivent être adaptées ou même repensées pour la simulation des architectures multi-cœurs. Dans cette thèse, nous avons montré que les modèles comportementaux sont intéressants pour étudier la hiérarchie mémoire des processeurs multi-coeurs. Nous avons démontré que l'utilisation de modèles comportementaux permet d'accélérer les simulations d'un facteur entre un et deux ordres de grandeur avec des erreurs moyennes de moins de 5%. Nous avons démontré également que des modèles comportementaux peuvent aider dans le problème de la sélection des charges de travail multiprogrammées pour évaluer la performance des microarchitectures multi-cœurs.
364

Une architecture parallèle distribuée et tolérante aux pannes pour le protocole interdomaine BGP au cœur de l’Internet

Hamzeh, Wissam 12 1900 (has links)
L’augmentation du nombre d’usagers de l’Internet a entraîné une croissance exponentielle dans les tables de routage. Cette taille prévoit l’atteinte d’un million de préfixes dans les prochaines années. De même, les routeurs au cœur de l’Internet peuvent facilement atteindre plusieurs centaines de connexions BGP simultanées avec des routeurs voisins. Dans une architecture classique des routeurs, le protocole BGP s’exécute comme une entité unique au sein du routeur. Cette architecture comporte deux inconvénients majeurs : l’extensibilité (scalabilité) et la fiabilité. D’un côté, la scalabilité de BGP est mesurable en termes de nombre de connexions et aussi par la taille maximale de la table de routage que l’interface de contrôle puisse supporter. De l’autre côté, la fiabilité est un sujet critique dans les routeurs au cœur de l’Internet. Si l’instance BGP s’arrête, toutes les connexions seront perdues et le nouvel état de la table de routage sera propagé tout au long de l’Internet dans un délai de convergence non trivial. Malgré la haute fiabilité des routeurs au cœur de l’Internet, leur résilience aux pannes est augmentée considérablement et celle-ci est implantée dans la majorité des cas via une redondance passive qui peut limiter la scalabilité du routeur. Dans cette thèse, on traite les deux inconvénients en proposant une nouvelle approche distribuée de BGP pour augmenter sa scalabilité ainsi que sa fiabilité sans changer la sémantique du protocole. L’architecture distribuée de BGP proposée dans la première contribution est faite pour satisfaire les deux contraintes : scalabilité et fiabilité. Ceci est accompli en exploitant adéquatement le parallélisme et la distribution des modules de BGP sur plusieurs cartes de contrôle. Dans cette contribution, les fonctionnalités de BGP sont divisées selon le paradigme « maître-esclave » et le RIB (Routing Information Base) est dupliqué sur plusieurs cartes de contrôle. Dans la deuxième contribution, on traite la tolérance aux pannes dans l’architecture élaborée dans la première contribution en proposant un mécanisme qui augmente la fiabilité. De plus, nous prouvons analytiquement dans cette contribution qu’en adoptant une telle architecture distribuée, la disponibilité de BGP sera augmentée considérablement versus une architecture monolithique. Dans la troisième contribution, on propose une méthode de partitionnement de la table de routage que nous avons appelé DRTP pour diviser la table de BGP sur plusieurs cartes de contrôle. Cette contribution vise à augmenter la scalabilité de la table de routage et la parallélisation de l’algorithme de recherche (Best Match Prefix) en partitionnant la table de routage sur plusieurs nœuds physiquement distribués. / The increasing number of end users has led to an exponential growth in the Internet routing table. The routing table is expected to reach a size of one million prefixes within the coming few years. Besides, current core routers may easily attain hundreds of connected BGP peers simultaneously. In classical monolithic architecture, the BGP protocol runs as a single entity inside the router. This architecture suffers from two drawbacks: scalability and reliability. BGP scalability can be measured in terms of the number of connected peers that can be handled and the size of the routing table. On the other hand, the reliability is a critical issue in core routers. If the BGP instance inside the router fails, all peers’ connections will shutdown and the new reachability state will be propagated across the Internet in a non trivial convergence delay. Although, in current core routers, the resiliency is increased considerably, it’s mainly implemented via a primary-backup redundancy scheme which limits the BGP scalability. In this thesis we address the two mentioned BGP drawbacks by proposing a novel distributed approach to increase both scalability and reliability of BGP without changing the semantic of the protocol. The BGP distributed architecture in the first paper is built to satisfy both requirements: scalability and reliability by adequately exploiting parallelism and module separation. In our model, BGP functionalities are split in a master-slave manner and the RIB (Routing Information Base) is replicated to multiple controller cards, to form a cluster of parallel computing entities. In the second paper, we address the fault tolerance of BGP within the distributed architecture presented in the first paper. We prove analytically that, by adopting the distributed architecture of BGP the availability of BGP will be increased considerably versus a monolithic architecture. In the third paper we propose a distributed parallel scheme called DRTP to partition the BGP routing table on multiple controller cards. DRTP aims at increasing the BGP scalability and the parallelization of the Best Match Prefix algorithm.
365

Heuristiques efficaces pour l'optimisation de la performance des systèmes séries-parallèles

Ouzineb, Mohamed January 2009 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
366

Propriétés et méthodes de calcul de la fiabilité diamètre-bornée des réseaux

Sartor, Pablo 18 December 2013 (has links) (PDF)
Soit un réseau comprenant des lignes de communication qui échouent indépendamment, dans lequel tous ou certains sites, appelés terminaux, doivent être capables de communiquer entre eux. Dans le modèle stochastique statique classique le réseau est représenté par un graphe probabiliste dont les arêtes sont présentes selon des probabilités connues. La mesure de fiabilité classique (CLR) est la probabilité que les terminaux appartiennent à la même composante connexe. Dans plusieurs contextes il est utile d'imposer la condition plus forte que la distance entre deux terminaux quelconques soit bornée supérieurement par un paramètre d. La probabilité que ça se produise est connue comme la fiabilité diamètre-bornée (DCR). Il s'agit d'une extension de la CLR. Les deux problèmes appartiennent à la clase NP-difficile de complexité ; le calcul exact n'est possible que pour les instances de taille limitée ou topologies spécifiques. Dans cette thèse, nous contribuons des résultats concernant le problème du calcul et l'estimation de la DCR. Nous étudions la complexité de calcul de cas particuliers, paramétré par le nombre de terminaux, noeuds et le paramètre d. Nous passons en revue des méthodes pour le calcul exact et étudions des topologies particulières pour lesquelles le calcul de la DCR a une complexité polynomiale. Nous présentons des résultats de base sur le comportement asymptotique de la DCR lorsque le réseau se développe comme un graphe aléatoire. Nous discutons sur l'impact de la contrainte de diamètre dans l'utilisation des techniques de Monte Carlo, et adaptons et testons une famille de méthodes basées sur le conditionnement de l'espace d'échantillonnage en utilisant des structures nommées d-pathsets et d-cutsets. Nous définissons une famille de mesures de performabilité qui généralise la DCR, développons une méthode de Monte Carlo pour l'estimer, et présentons des résultats expérimentaux sur la performance de ces techniques Monte Carlo par rapport à l'approche naïve. Finalement, nous proposons une nouvelle technique qui combine la simulation Monte Carlo et l'interpolation polynomiale pour les mesures de fiabilité.
367

Fiabilité des diélectriques low-k SiOCH poreux dans les interconnexions CMOS avancées

Chery, Emmanuel 17 February 2014 (has links) (PDF)
Avec la miniaturisation continue des circuits intégrés et le remplacement de l'oxyde de silicium par des diélectriques low-k poreux à base de SiOCH, la fiabilité des circuits microélectroniques a été fortement compromise. Il est aujourd'hui extrêmement important de mieux appréhender les mécanismes de dégradation au sein de ces matériaux afin de réaliser une estimation précise de leur durée de vie. Dans ce contexte, ces travaux de thèse ont consisté à étudier les mécanismes de dégradation au sein du diélectrique afin de proposer un modèle de durée de vie plus pertinent. Par une étude statistique du temps à la défaillance sous différents types de stress électrique, un mécanisme de génération des défauts par impact est mis en évidence. En l'associant au mécanisme de conduction au sein du diélectrique, il a été possible de développer un modèle de durée de vie cohérent pour les interconnexions permettant une estimation de la durée de vie plus fiable que les modèles de la littérature. L'impact du piégeage de charges dans le diélectrique a ensuite été analysé grâce à ce modèle.
368

Improvisation vs (meta)règles : effets sur la fiabilité d'une organisation hautement fiable : le cas d'une équipe passerelle dans la Marine nationale

Le Bris, Sophie 26 May 2014 (has links) (PDF)
Quels sont les modes de réponses les plus adaptés au traitement de l'inattendu et sous contrainte de temps pour maintenir ou renforcer la fiabilité organisationnelle ? Les travaux du courant HRO (High Reliability Organization) et du courant actionniste convergent sur le fait que l'individu constitue une source de fiabilité. Ils divergent néanmoins sur l'importance donnée au respect des règles face aux évènements imprévus. Afin d'analyser les comportements d'adaptation d'individus au sein d'un groupe restreint face à des situations à risques et inattendues sous contrainte de temps, l'attention est portée sur l'étude de situations nautiques vécues par des bâtiments de surface de la Marine nationale. Une première approche qualitative menée auprès d'experts du terrain étudié complétée par une approche quantitative réalisée à partir de 237 situations nautiques font ressortir les configurations à risques à l'origine d'accidents nautiques. Ces informations nous permettent de soumettre des équipes de quart passerelle à des situations à risques, dans le cadre d'une expérimentation, au moyen du simulateur de navigation de l'Ecole navale, école de formation des officiers de la Marine nationale. Les comportements de 96 équipes de quart passerelle, en formation initiale, sur le simulateur de navigation permettent de tester, selon les différentes situations, les réponses associées : improvisation de procédure, recours aux règles avec ou non l'usage de méta règles. Les résultats de l'expérimentation soulignent l'intérêt des méta règles dans le traitement des situations à haut niveau de complexité et nécessitant d'agir rapidement mais aussi les risques d'une improvisation non cadrée.
369

Approche probabiliste de la propagation des incertitudes dans le modèle mécano-numérique du système couplé "fémur-prothèse non cimentée"

Hu, Xiaosu, Hu, Xiaosu 15 November 2010 (has links) (PDF)
L' arthroplastie de la hanche par prothèse non cimentée est une solution couramment employée pour les patients rencontrant des problèmes du système locomoteur. Une telle solution présente toutefois un inconvénient majeur, souligné par tous les utilisateurs : le manque de stabilité primaire de la prothèse. Or, cette faiblesse peut provoquer des complications graves, voire l'échec de l'opération chirurgicale. Par conséquent, parvenir à une bonne fixation primaire est un point crucial de ce type d'opération chirurgicale pour assurer cliniquement une satisfaction à court et long terme.Dans le but de mieux appréhender cette problématique centrale, une piste préopératoire a été adoptée. Un modèle éléments finis permettant de décrire le comportement mécanique du système couplé " os-prothèse non cimentée : DePuy Corail® " a été développé et validé par des expérimentations in vitro. Puis, pour tenir compte de la forte variabilité des paramètres du modèle, inhérente à la nature même du problème, une modélisation stochastique de ces derniers a été introduite et une stratégie mécano-probabiliste proposée, destinée d'une part à quantifier en termes probabilistes l'effet sur la réponse des incertitudes affectant les paramètres du modèle, et d'autre part à évaluer la stabilité primaire du système os-prothèse en contexte fiabiliste. La mise en oeuvre pratique de cette approche a été réalisée à l'aide d'outils numériques basés sur la méthode de Monte-Carlo standard et une procédure de collocation stochastique.L'originalité du travail présenté réside avant tout dans la proposition d'une méthodologie probabiliste capable de prendre en compte les incertitudes dans la problématique de la stabilité primaire des prothèses de hanche non cimentées. Elle tient également dans la potentialité de cette méthodologie à être facilement transplantable en contexte industriel.
370

Analyse et modélisation de l'impact des décharges électrostatiques et des agressions électromagnétiques sur les microcommutateurs

Ruan, Jinyu Jason 02 July 2010 (has links) (PDF)
Les futures architectures des systèmes de communication présenteront une forte complexité due à des besoins de reconfiguration à la fois en termes de fréquence, de puissance émise et/ou reçue, de puissance consommée et de fiabilité. Une solution consiste à utiliser les MEMS RF pour obtenir ces fonctionnalités augmentées. Ces composants seront soumis à des agressions à la fois électrostatiques et/ou électromagnétiques dont il est important d'analyser et de comprendre leur impact. D'autre part la tenue en puissance de ces composants est un paramètre qualitatif de leur robustesse. Étant donné qu'ils présentent également des intérêts pour les applications spatiales, il est important de comprendre leur sensibilité face au rayonnement. Le sujet de thèse vise à analyser l'impact de ces agressions sur les paramètres fonctionnels (tensions d'actionnements, vitesse de fonctionnement, pertes d'insertion et isolation) à partir du développement d'une plateforme appropriée ainsi qu'une analyse fine des mécanismes de dégradation apparaissant suite aux stress appliqués ; tension continu, décharges électrostatiques (de type HBM ou TLP), puissance RF et rayonnement. Ces stress seront appliqués sur des composants aux architectures différentes (types de diélectrique différentes, épaisseur membrane, géométrie des dispositifs, topologie des zones d'actionnement) afin de déterminer si certaines architectures et ou filières technologiques sont plus résistantes que d'autres. Enfin, afin de valider ces travaux, il sera conçu un design plus complexe présentant des résistances aux ESD/EMI améliorées et un circuit de vieillissement de ces composants sera également proposé. Ce projet de thèse rentre dans le cadre d'un réseau d'excellence AMICOM sur les microsystèmes RF où la fiabilité a été identifiée comme étant un des enjeux majeurs pour leur intégration et commercialisation.

Page generated in 0.1355 seconds