• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 380
  • 153
  • 53
  • Tagged with
  • 574
  • 273
  • 136
  • 126
  • 123
  • 96
  • 94
  • 88
  • 74
  • 49
  • 45
  • 44
  • 43
  • 42
  • 38
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Influence de l'orientation des hydrures sur les modes de déformation, d'endommagement et de rupture du Zircaloy-4 hydruré.

Racine, Aude 23 September 2005 (has links) (PDF)
Le Zircaloy-4 est un alliage de zirconium utilisé dans la fabrication des tubes de gainage de combustible nucléaire. Durant la période de fonctionnement, l'oxydation des tubes par l'eau du circuit primaire engendre une diffusion d'hydrogène dans le Zircaloy qui peut ensuite précipiter sous forme d'hydrures de zirconium selon la limite de solubilité de l'hydrogène dans le zirconium à la température considérée. La fragilisation induite par la précipitation d'hydrures dépend de nombreux paramètres, notamment de la teneur en hydrogène et de l'orientation des hydrures par rapport à la sollicitation. Ce travail de thèse a consisté à étudier l'influence de la présence d'hydrures radiaux pour deux teneurs en hydrogène (200 et 500 ppm) à température ambiante, sur les modes de déformation, d'endommagement et de rupture du matériau dans sa finition industrielle, le Zircaloy-4 détendu. Pour cela, des essais de traction sur anneau ont été réalisés, au cours desquels la technique de corrélation d'images numériques a été utilisée pour accéder aux champs de déformation, à l'échelle globale (essais macroscopiques) ou à l'échelle locale (essais in-situ sous MEB). L'étude des champs de déformation macroscopique et des faciès de rupture nous permet de distinguer trois classes parmi les différentes configurations étudiées : d'abord, les échantillons dont la rupture est ductile, ceux pour lesquels elle est fragile et enfin ceux dont la rupture est fragile après déformation ductile. Les champs de déformation locaux en revanche ne sont pas notablement modifiés par la présence d'hydrures. Certaines informations issues des champs de déformation macroscopique ainsi que des données quantitatives sur la distribution d'orientation des hydrures obtenues par analyse d'images, ont permis de formuler un critère de rupture pour le matériau hydruré à 200 ppm. Ce critère basé sur la mécanique de l'endommagement non-couplé permet de reproduire les courbes de comportement obtenues expérimentalement pour les trois distributions d'orientation des hydrures étudiées.
82

Méthodologie de conception de composants intégrés protégés contre les attaques par corrélation

Laabidi, Selma 19 January 2010 (has links) (PDF)
Les circuits cryptographiques, parce qu'ils contiennent des informations confidentielles, font l'objet de manipulations frauduleuses, appelées communément attaques, de la part de personnes mal intentionnées. Plusieurs attaques ont été répertoriées et analysées. Parmi elles, les attaques DPA (Differential Power Analysis), DEMA (Differential Electromagnetic Analysis), DBA (Differential Behavior Analysis) et les attaques en probing forment la classe des attaques par corrélation et sont considérés comme les plus redoutables car elles permettent de retrouver, à moindre coût, les clefs de chiffrement des algorithmes cryptographiques. Les concepteurs de circuits sécurisés ont été donc amené à ajouter des parades, appelées contre-mesures, afin de protéger les circuits de ces attaques. Ces contremesures doivent impacter au minimum les performances et le coût du circuit. Dans cette thèse, nous nous intéressons dans un premier temps aux attaques par corrélation, le principe de ces attaques est décrit ainsi que les principales contre-mesures pour y parer. Un formalisme décrivant de manière unique ces attaques est aussi proposé. Dans un deuxième temps, nous étudions les outils d'évaluation sécuritaires qui permettent d'estimer la résistance des circuits intégrés face aux attaques par corrélation. Après un état de l'art sur les outils existants, nous décrivons notre outil basé sur une recherche de corrélations entre le modèle du concepteur et le modèle qui peut être prédit par un attaquant. L'analyse de corrélations permet de déterminer les bits les plus sensibles pour mener à bien une attaque. Cet outil est intégré dans le flot de conception permettant ainsi d'évaluer la résistance des algorithmes cryptographiques au niveau RTL (Register Transfer Level) et portes.
83

SSTA Basée sur la Propagation des Moments

Wu, Zeqin 11 December 2009 (has links) (PDF)
L'analyse temporelle basée sur corners (CTA) devient de plus en plus pessimiste ainsi avec la diminution de la taille des transistors, ce qui explique la nécessité de se tourner vers l'analyse temporelle statique statistique (SSTA). Cependant, cette nouvelle génération d'analyse temporelle n'a pas été largement adoptée dans l'industrie en raison de diverses faiblesses. La méthode SSTA basée sur les chemins de données, proposée dans cette thèse, calcule les distributions des délais de chemins en propageant itérativement la moyenne et la variance des délais des cellules avec l'aide des moments conditionnels. Ces moments, conditionnés sur la pente d'entrée et la charge de sortie, sont stockés dans une librairie temporelle statistique. Cette procédure est aussi rapide que les méthodes paramétriques, tout en ne perdant pas trop de précision par rapport aux simulations de Monte Carlo, ce qui répond à l'objectif de notre recherche. L'autre contribution de cette thèse est l'amélioration des techniques de caractérisation temporelle. Pour cela, nous utilisons des signaux d'entrée basés sur des distributions log-logistique et des inverseurs comme charge de sortie pour capturer les variations de pente et de charge. De plus, le temps CPU pour la caractérisation temporelle pourrait être amélioré par la technique de réduction des dimensions, qui devrait être validée dans un avenir proche. En ce qui concerne les applications, notre procédure SSTA, donne des gains en délais important par rapport à la méthode CTA. La différence d'ordres sur les chemins critiques obtenus respectivement par les méthodes SSTA et CTA est aussi expliquée dans cette partie. Pour terminer, une étude sur les corrélations entre cellules est exposée.
84

L'informatique au service de la mécanique des solides

Morestin, Fabrice 01 February 2010 (has links) (PDF)
Ce dossier est constitué en vue de l'obtention d'une habilitation à diriger des recherches. Après la présentation de mon curriculum vitæ qui permettra au lecteur de manière factuelle et temporelle de retracer mon parcours professionnel, ce document se compose d'une synthèse de mon activité d'enseignant-chercheur elle-même divisée en quatre parties : activités d'enseignement, activités de gestion, activités de valorisation et activités de recherche. Une petite explication s'impose concernant le titre de cette habilitation car c'est une clef importante pour comprendre le fil conducteur de mon parcours en tant qu'enseignant chercheur. « L'informatique au service de la mécanique des solides » peut paraître un titre un peu étrange pour l'habilitation à diriger des recherches d'un mécanicien mais il reflète fidèlement ma passion pour « l'informatique », néologisme inventé en 1962 par un journaliste nommé Philippe Dreyfus, qui est la contraction des mots « traitement de l'informa...tion auto...matique ». Ce mot d'origine typiquement française qui se traduirait plutôt par « computer science » en anglais a été adopté en 1967, (année de ma naissance !) par l'Académie Française pour désigner la « science du traitement de l'information ». Ce n'est que beaucoup plus tard que je découvris l'origine profonde de cette science qui vit le jour dans les années 40 au tournant de la guerre, dans les esprits de grands hommes comme Alan Turing créateur de la "machine universelle" (General Problem Solver), Claude Shannon fondateur de la théorie de la communication, Norbert Wiener un des pères de la Cybernétique, John Von Neumann dont les théories fonctionnelles se trouvent toujours dans nos ordinateurs actuels, pour ne citer que ceux qui m'ont le plus marqué. L'ensemble de mes activités d'enseignement et de recherche au cours de ces 14 années sont sous tendues par ma passion pour l'informatique, et c'est sous cet angle de vue qu'est rédigé ce mémoire.
85

Transformation du glycérol par catalyse hétérogène : aspects théoriques et expérimentaux

Auneau, Florian 17 October 2011 (has links) (PDF)
Cette thèse s'intéresse à la conversion du glycérol en acide lactique (AL) et 1,2-propanediol (1,2-PDO) par catalyse hétérogène. Le mécanisme de la réaction fait débat, particulièrement au sujet de la première étape, qui peut être une déshydratation ou une déshydrogénation. Il est attendu que ces étapes élémentaires soient influencées par le pH et la nature de l'atmosphère. Ces paramètres ont donc été étudiés expérimentalement, en présence d'un catalyseur au rhodium supporté sur charbon. D'autre part, il y avait un manque de connaissances sur le comportement du glycérol à la surface métallique du catalyseur. Une approche théorique sur une surface modèle a donc été mise en oeuvre dans le champ de la théorie de la fonctionnelle de la densité (DFT), pour examiner les étapes élémentaires et calculer les états de transition correspondants. La combinaison de ces études a montré que la déshydrogénation du glycérol en glycéraldéhyde est la première étape de la réaction sur le catalyseur Rh/C en milieu basique sous atmosphère d'hélium et d'hydrogène. Cette étude a ensuite été étendue à un catalyseur iridium supporté sur charbon, qui a mené à de meilleurs rendements en 1,2-PDO et AL. L'utilisation de ce métal supporté sur carbonate de calcium a permis d'améliorer le rendement en AL, mais l'activité est plus faible. Cependant, ce catalyseur s'est révélé relativement actif dans l'eau à pH neutre, ce qui pourrait conduire à une synthèse plus verte de l'AL. Enfin, les aspects prédictifs de la chimie théorique ont été examinés, pour voir si la réactivité de ce polyol complexe (du point de vue de la chimie théorique) pouvait être modélisée par celle d'un monoalcool sur la surface.
86

Quelques propriétés de la corrélation entre les actifs financiers à haute fréquence

Huth, Nicolas 14 December 2012 (has links) (PDF)
Le but de cette thèse est d'approfondir les connaissances académiques sur les variations jointes des actifs financiers à haute fréquence en les analysant sous un point de vue novateur. Nous tirons profit d'une base de données de prix tick-by-tick pour mettre en lumière de nouveaux faits stylises sur la corrélation haute fréquence, et également pour tester la validité empirique de modèles multivariés. Dans le chapitre 1, nous discutons des raisons pour lesquelles la corrélation haute fréquence est d'une importance capitale pour le trading. Par ailleurs, nous passons en revue la littérature empirique et théorique sur la corrélation à de petites échelles de temps. Puis nous décrivons les principales caractéristiques du jeu de données que nous utilisons. Enfin, nous énonçons les résultats obtenus dans cette thèse. Dans le chapitre 2, nous proposons une extension du modèle de subordination au cas multivarié. Elle repose sur la définition d'un temps événementiel global qui agrège l'activité financière de tous les actifs considérés. Nous testons la capacité de notre modèle à capturer les propriétés notables de la distribution multivariée empirique des rendements et observons de convaincantes similarités. Dans le chapitre 3, nous étudions les relations lead/lag à haute fréquence en utilisant un estimateur de fonction de corrélation adapte aux données tick-by-tick. Nous illustrons sa supériorité par rapport à l'estimateur standard de corrélation pour détecter le phénomène de lead/lag. Nous établissons un parallèle entre le lead/lag et des mesures classiques de liquidité et révélons un arbitrage pour déterminer les paires optimales pour le trading de lead/lag. Enfin, nous évaluons la performance d'un indicateur basé sur le lead/lag pour prévoir l'évolution des prix à court terme. Dans le chapitre 4, nous nous intéressons au profil saisonnier de la corrélation intra-journalière. Nous estimons ce profil sur quatre univers d'actions et observons des ressemblances frappantes. Nous tentons d'incorporer ce fait stylise dans un modèle de prix tick-by-tick base sur des processus de Hawkes. Le modèle ainsi construit capture le profil de corrélation empirique assez finement, malgré sa difficulté à atteindre le niveau de corrélation absolu.
87

Analyse comparative des tests de permutations en régression multiple et application à l'analyse de tableaux de distances.

Shadrokh, Ali 20 July 2007 (has links) (PDF)
Lorsque le processus de génération des données ne respecte pas certains des postulats fondant l'analyse statistique du modèle classique de régression linéaire, les tests de permutations offrent une alternative non paramétrique fiable de construction de tests d'hypothèse libres. La première application de cette méthode d'inférence statistique au modèle de régression linéaire simple renvoie à Fisher (1935) et Pitman (1937a,b,1938). Cette méthode de ré-échantillonnage est fondée sur des postulats moins forts que la méthode paramétrique classique et facilement vérifiables en pratique : l'échangeabilité des observations sous l'hypothèse nulle. Si l'utilisation des tests de permutation fait consensus en régression linéaire simple et pour tester l'adéquation d'un modèle en régression multiple, le problème se complique lorsqu'on souhaite mettre à l'épreuve une hypothèse de nullité d'un coefficient de régression partielle. L'étude des conditions d'échangeabilité n'est plus simple dans ce cas. Il n'est alors plus possible de construire des tests exacts plusieurs propositions de tests sont en concurrence. <br />L'objectif principal de notre travail est la comparaison des tests de permutation adaptés aux hypothèses de nullité d'un coefficient de régression partielle dans un modèle linéaire à p variables explicatives, conditionnellement à l'observation d'un échantillon. Quatre méthodes sont comparées, d'une part en recourant à des simulations effectuées dans le cas d'une régression double, puis théoriquement, afin de déterminer les propriétés de biais, de couverture et de puissance de ces tests. Les résultats obtenus sont ensuite étendus au cas de la régression linéaire multiple.<br />Un dernier chapitre complète cette étude en traitant le problème de test de la dépendance partielle entre tableaux de distances interpoints. Nous avons comparé les adaptations des quatre méthodes de test de permutation à ce contexte marqué par la dépendance existant entre éléments d'une matrice de distance et nous avons obtenu dans ce cas des résultats tout à fait différents de ceux qui caractérisent.
88

Interaction entre conductances synaptiques et<br />l'initiation du potentiel d'action dans les neurones<br />corticaux: modèles computationnels et analyse<br />d'enregistrements intracellulaires

Pospischil, Martin 10 September 2007 (has links) (PDF)
Pendant les états naturels d'activité in vivo, les neurones neocorticaux sont sujets à une conductance membranaire forte et fluctuante. Cependant, les propriétés intégratives des neurones ne sont pas connues pendant ces états de “haute conductance” (HC). Nous avons (1) caractérisé le lien entre la dynamique des conductances et l'initiation du potentiel d'action (PA) dans les neurones corticaux dans les états HC; (2) comparé différents modèles de réponse de PA (PSTH) pendant ces états. Nous distinguons deux modes de décharge, selon que le PA est évoqué par une augmentation d'excitation ou par une diminution d'inhibition. Nous avons proposé une nouvelle méthode pour calculer les “spike-triggered average” (STA) des conductances à partir du Vm, testé cette méthode numériquement et in vitro, ainsi que appliqué cette méthode aux enregistrements in vivo. Nous démontrons que les PAs inhibiteurs sont majoritaires chez le chat éveillé, ce qui révèle un rôle majeur de l'inhibition.
89

Fonctions de corrélation des chaînes de spin. Approche de l'ansatz de Bethe algébrique

Kitanine, N. 19 September 2007 (has links) (PDF)
Dans ce mémoire d'habilitation je présente mes travaux recents sur les chaînes de spin quantiques. Les chaînes de spin constituent l'exemple le plus fondamental de modèles intégrables quantiques. Ces modèles ont plusieurs applications directes en théorie de la matière condensée, en physique statistique, en optique quantique, en théorie des champs et même en théorie des cordes mais ils sont aussi très importants car ils donnent une possibilité unique de traiter de manière exacte des phénomènes non perturbatifs inaccessibles par les autres moyens. Dans ce cadre le problème central de la théorie moderne des systèmes intégrables concerne le calcul explicite des fonctions de corrélation et des facteurs de forme et leur analyse asymptotique.<br /><br />La méthode présentée dans ce mémoire est basée sur l'ansatz de Bethe algébrique. Je montre comment cette méthode peut être utilisée pour le calcul des fonctions de corrélation à température nulle de la chaîne de spin 1/2 de Heisenberg. Le point principal de cette approche est la solution du problème inverse quantique obtenue pour la chaîne de spin 1/2 XXZ. Cette solution ainsi qu'une formule simple pour les produits scalaires des états de Bethe nous a permit d'obtenir les fonctions de corrélation les plus fondamentales ("les blocs élémentaires") sous forme d'intégrales multiples. <br /><br />Ces représentations sous forme d'intégrales multiples permettent de faire un analyse asymptotique pour quelques quantités physiques (probabilité de formation du vide) et même, dans certains cas particuliers, de les calculer d'une manière exacte.<br /><br />Il est possible d'obtenir à partir de ces représentations des résultats pour les fonctions à deux points, c'est à dire les fonctions de corrélation les plus importantes pour les applications. Un lien est établi entre ces intégrales multiples et les sommes de facteurs de forme. Ce résultat est généralisé aux fonctions de corrélation dynamiques.<br /> <br />Je présente aussi dans ce mémoire les généralisations de<br />cette méthode aux chaînes de spin supérieur à 1/2 et aux chaînes de spin à bords ouverts.
90

Identification de champs de propriétés élastiques fondée sur la mesure de champs : application sur un composite tissé 3D

Gras, Renaud 18 December 2012 (has links) (PDF)
Depuis ces dernières décennies, les matériaux composites sont de plus en plus utilisés dans l'aéronautique. Notamment, les composites tissés 3D présentent des caractéristiques matériau hors-plan intéressantes par rapport aux stratifiés. Cette technologie est développée pour les aubes FAN des moteurs d'avion. La difficulté réside dans l'identification et la validation du modèle orthotrope élastique macroscopique du pied d'aube. En effet, l'hypothèse de séparation des échelles pour l'obtention des paramètres matériau macroscopique par homogénéisation n'est pas clairement vérifiée au sein du pied d'aube comportant plusieurs zones matériau. Le composite tissé 3D formant le pied d'aube est un matériau multi-échelle complexe. Les travaux de thèse ont donc été menés afin de proposer une identification des paramètres du modèle basée sur la mesure de champs de déplacements par Corrélation d'Images Numériques (CIN) et sur la méthode d'identification de recalage de modèles éléments finis (FEMU). Cette identification a pris en compte l'influence du bruit du capteur CCD présent sur les images servant à la CIN sur l'identification des paramètres matériau. Du fait du grand nombre de paramètres matériau à identifier et des éventuels couplages entre ceux-ci, il apparaît que quelques uns ne peuvent pas être identifier à travers l'essai de traction étudié. Par conséquent, une régularisation de la FEMU a été proposée basée sur la connaissance a priori des valeurs nominales et de leur incertitude. Celle-ci consiste en une pondération intelligente vis-à-vis des données issues de l'essai afin de faire tendre les paramètres non identifiables vers leur valeur nominale. Finalement, la qualité de l'identification a été quantifiée grâce aux incertitudes sur les paramètres matériau identifiés et grâce aux cartes de résidus d'identification basées sur les images. Ces cartes traduisent la capacité du champ de déplacement calculé par le modèle éléments finis identifié à corriger l'image déformée pour la recaler sur l'image de référence, images sur lesquelles la mesure par CIN est effectuée. Ces cartes de résidus et les incertitudes obtenues permettent ainsi de valider le modèle éléments finis proposé et le cas échéant de mettre en lumière ses insuffisances. Remettre en cause les valeurs nominales ou la modélisation (par exemple le zonage matériau) pour aboutir à une description compatible avec l'expérience reste du ressort de l'ingénieur. Le travail présenté ici lui permet d'éclairer au mieux ses choix.

Page generated in 0.1056 seconds