81 |
SSTA Basée sur la Propagation des MomentsWu, Zeqin 11 December 2009 (has links) (PDF)
L'analyse temporelle basée sur corners (CTA) devient de plus en plus pessimiste ainsi avec la diminution de la taille des transistors, ce qui explique la nécessité de se tourner vers l'analyse temporelle statique statistique (SSTA). Cependant, cette nouvelle génération d'analyse temporelle n'a pas été largement adoptée dans l'industrie en raison de diverses faiblesses. La méthode SSTA basée sur les chemins de données, proposée dans cette thèse, calcule les distributions des délais de chemins en propageant itérativement la moyenne et la variance des délais des cellules avec l'aide des moments conditionnels. Ces moments, conditionnés sur la pente d'entrée et la charge de sortie, sont stockés dans une librairie temporelle statistique. Cette procédure est aussi rapide que les méthodes paramétriques, tout en ne perdant pas trop de précision par rapport aux simulations de Monte Carlo, ce qui répond à l'objectif de notre recherche. L'autre contribution de cette thèse est l'amélioration des techniques de caractérisation temporelle. Pour cela, nous utilisons des signaux d'entrée basés sur des distributions log-logistique et des inverseurs comme charge de sortie pour capturer les variations de pente et de charge. De plus, le temps CPU pour la caractérisation temporelle pourrait être amélioré par la technique de réduction des dimensions, qui devrait être validée dans un avenir proche. En ce qui concerne les applications, notre procédure SSTA, donne des gains en délais important par rapport à la méthode CTA. La différence d'ordres sur les chemins critiques obtenus respectivement par les méthodes SSTA et CTA est aussi expliquée dans cette partie. Pour terminer, une étude sur les corrélations entre cellules est exposée.
|
82 |
L'informatique au service de la mécanique des solidesMorestin, Fabrice 01 February 2010 (has links) (PDF)
Ce dossier est constitué en vue de l'obtention d'une habilitation à diriger des recherches. Après la présentation de mon curriculum vitæ qui permettra au lecteur de manière factuelle et temporelle de retracer mon parcours professionnel, ce document se compose d'une synthèse de mon activité d'enseignant-chercheur elle-même divisée en quatre parties : activités d'enseignement, activités de gestion, activités de valorisation et activités de recherche. Une petite explication s'impose concernant le titre de cette habilitation car c'est une clef importante pour comprendre le fil conducteur de mon parcours en tant qu'enseignant chercheur. « L'informatique au service de la mécanique des solides » peut paraître un titre un peu étrange pour l'habilitation à diriger des recherches d'un mécanicien mais il reflète fidèlement ma passion pour « l'informatique », néologisme inventé en 1962 par un journaliste nommé Philippe Dreyfus, qui est la contraction des mots « traitement de l'informa...tion auto...matique ». Ce mot d'origine typiquement française qui se traduirait plutôt par « computer science » en anglais a été adopté en 1967, (année de ma naissance !) par l'Académie Française pour désigner la « science du traitement de l'information ». Ce n'est que beaucoup plus tard que je découvris l'origine profonde de cette science qui vit le jour dans les années 40 au tournant de la guerre, dans les esprits de grands hommes comme Alan Turing créateur de la "machine universelle" (General Problem Solver), Claude Shannon fondateur de la théorie de la communication, Norbert Wiener un des pères de la Cybernétique, John Von Neumann dont les théories fonctionnelles se trouvent toujours dans nos ordinateurs actuels, pour ne citer que ceux qui m'ont le plus marqué. L'ensemble de mes activités d'enseignement et de recherche au cours de ces 14 années sont sous tendues par ma passion pour l'informatique, et c'est sous cet angle de vue qu'est rédigé ce mémoire.
|
83 |
Transformation du glycérol par catalyse hétérogène : aspects théoriques et expérimentauxAuneau, Florian 17 October 2011 (has links) (PDF)
Cette thèse s'intéresse à la conversion du glycérol en acide lactique (AL) et 1,2-propanediol (1,2-PDO) par catalyse hétérogène. Le mécanisme de la réaction fait débat, particulièrement au sujet de la première étape, qui peut être une déshydratation ou une déshydrogénation. Il est attendu que ces étapes élémentaires soient influencées par le pH et la nature de l'atmosphère. Ces paramètres ont donc été étudiés expérimentalement, en présence d'un catalyseur au rhodium supporté sur charbon. D'autre part, il y avait un manque de connaissances sur le comportement du glycérol à la surface métallique du catalyseur. Une approche théorique sur une surface modèle a donc été mise en oeuvre dans le champ de la théorie de la fonctionnelle de la densité (DFT), pour examiner les étapes élémentaires et calculer les états de transition correspondants. La combinaison de ces études a montré que la déshydrogénation du glycérol en glycéraldéhyde est la première étape de la réaction sur le catalyseur Rh/C en milieu basique sous atmosphère d'hélium et d'hydrogène. Cette étude a ensuite été étendue à un catalyseur iridium supporté sur charbon, qui a mené à de meilleurs rendements en 1,2-PDO et AL. L'utilisation de ce métal supporté sur carbonate de calcium a permis d'améliorer le rendement en AL, mais l'activité est plus faible. Cependant, ce catalyseur s'est révélé relativement actif dans l'eau à pH neutre, ce qui pourrait conduire à une synthèse plus verte de l'AL. Enfin, les aspects prédictifs de la chimie théorique ont été examinés, pour voir si la réactivité de ce polyol complexe (du point de vue de la chimie théorique) pouvait être modélisée par celle d'un monoalcool sur la surface.
|
84 |
Quelques propriétés de la corrélation entre les actifs financiers à haute fréquenceHuth, Nicolas 14 December 2012 (has links) (PDF)
Le but de cette thèse est d'approfondir les connaissances académiques sur les variations jointes des actifs financiers à haute fréquence en les analysant sous un point de vue novateur. Nous tirons profit d'une base de données de prix tick-by-tick pour mettre en lumière de nouveaux faits stylises sur la corrélation haute fréquence, et également pour tester la validité empirique de modèles multivariés. Dans le chapitre 1, nous discutons des raisons pour lesquelles la corrélation haute fréquence est d'une importance capitale pour le trading. Par ailleurs, nous passons en revue la littérature empirique et théorique sur la corrélation à de petites échelles de temps. Puis nous décrivons les principales caractéristiques du jeu de données que nous utilisons. Enfin, nous énonçons les résultats obtenus dans cette thèse. Dans le chapitre 2, nous proposons une extension du modèle de subordination au cas multivarié. Elle repose sur la définition d'un temps événementiel global qui agrège l'activité financière de tous les actifs considérés. Nous testons la capacité de notre modèle à capturer les propriétés notables de la distribution multivariée empirique des rendements et observons de convaincantes similarités. Dans le chapitre 3, nous étudions les relations lead/lag à haute fréquence en utilisant un estimateur de fonction de corrélation adapte aux données tick-by-tick. Nous illustrons sa supériorité par rapport à l'estimateur standard de corrélation pour détecter le phénomène de lead/lag. Nous établissons un parallèle entre le lead/lag et des mesures classiques de liquidité et révélons un arbitrage pour déterminer les paires optimales pour le trading de lead/lag. Enfin, nous évaluons la performance d'un indicateur basé sur le lead/lag pour prévoir l'évolution des prix à court terme. Dans le chapitre 4, nous nous intéressons au profil saisonnier de la corrélation intra-journalière. Nous estimons ce profil sur quatre univers d'actions et observons des ressemblances frappantes. Nous tentons d'incorporer ce fait stylise dans un modèle de prix tick-by-tick base sur des processus de Hawkes. Le modèle ainsi construit capture le profil de corrélation empirique assez finement, malgré sa difficulté à atteindre le niveau de corrélation absolu.
|
85 |
Analyse comparative des tests de permutations en régression multiple et application à l'analyse de tableaux de distances.Shadrokh, Ali 20 July 2007 (has links) (PDF)
Lorsque le processus de génération des données ne respecte pas certains des postulats fondant l'analyse statistique du modèle classique de régression linéaire, les tests de permutations offrent une alternative non paramétrique fiable de construction de tests d'hypothèse libres. La première application de cette méthode d'inférence statistique au modèle de régression linéaire simple renvoie à Fisher (1935) et Pitman (1937a,b,1938). Cette méthode de ré-échantillonnage est fondée sur des postulats moins forts que la méthode paramétrique classique et facilement vérifiables en pratique : l'échangeabilité des observations sous l'hypothèse nulle. Si l'utilisation des tests de permutation fait consensus en régression linéaire simple et pour tester l'adéquation d'un modèle en régression multiple, le problème se complique lorsqu'on souhaite mettre à l'épreuve une hypothèse de nullité d'un coefficient de régression partielle. L'étude des conditions d'échangeabilité n'est plus simple dans ce cas. Il n'est alors plus possible de construire des tests exacts plusieurs propositions de tests sont en concurrence. <br />L'objectif principal de notre travail est la comparaison des tests de permutation adaptés aux hypothèses de nullité d'un coefficient de régression partielle dans un modèle linéaire à p variables explicatives, conditionnellement à l'observation d'un échantillon. Quatre méthodes sont comparées, d'une part en recourant à des simulations effectuées dans le cas d'une régression double, puis théoriquement, afin de déterminer les propriétés de biais, de couverture et de puissance de ces tests. Les résultats obtenus sont ensuite étendus au cas de la régression linéaire multiple.<br />Un dernier chapitre complète cette étude en traitant le problème de test de la dépendance partielle entre tableaux de distances interpoints. Nous avons comparé les adaptations des quatre méthodes de test de permutation à ce contexte marqué par la dépendance existant entre éléments d'une matrice de distance et nous avons obtenu dans ce cas des résultats tout à fait différents de ceux qui caractérisent.
|
86 |
Interaction entre conductances synaptiques et<br />l'initiation du potentiel d'action dans les neurones<br />corticaux: modèles computationnels et analyse<br />d'enregistrements intracellulairesPospischil, Martin 10 September 2007 (has links) (PDF)
Pendant les états naturels d'activité in vivo, les neurones neocorticaux sont sujets à une conductance membranaire forte et fluctuante. Cependant, les propriétés intégratives des neurones ne sont pas connues pendant ces états de “haute conductance” (HC). Nous avons (1) caractérisé le lien entre la dynamique des conductances et l'initiation du potentiel d'action (PA) dans les neurones corticaux dans les états HC; (2) comparé différents modèles de réponse de PA (PSTH) pendant ces états. Nous distinguons deux modes de décharge, selon que le PA est évoqué par une augmentation d'excitation ou par une diminution d'inhibition. Nous avons proposé une nouvelle méthode pour calculer les “spike-triggered average” (STA) des conductances à partir du Vm, testé cette méthode numériquement et in vitro, ainsi que appliqué cette méthode aux enregistrements in vivo. Nous démontrons que les PAs inhibiteurs sont majoritaires chez le chat éveillé, ce qui révèle un rôle majeur de l'inhibition.
|
87 |
Fonctions de corrélation des chaînes de spin. Approche de l'ansatz de Bethe algébriqueKitanine, N. 19 September 2007 (has links) (PDF)
Dans ce mémoire d'habilitation je présente mes travaux recents sur les chaînes de spin quantiques. Les chaînes de spin constituent l'exemple le plus fondamental de modèles intégrables quantiques. Ces modèles ont plusieurs applications directes en théorie de la matière condensée, en physique statistique, en optique quantique, en théorie des champs et même en théorie des cordes mais ils sont aussi très importants car ils donnent une possibilité unique de traiter de manière exacte des phénomènes non perturbatifs inaccessibles par les autres moyens. Dans ce cadre le problème central de la théorie moderne des systèmes intégrables concerne le calcul explicite des fonctions de corrélation et des facteurs de forme et leur analyse asymptotique.<br /><br />La méthode présentée dans ce mémoire est basée sur l'ansatz de Bethe algébrique. Je montre comment cette méthode peut être utilisée pour le calcul des fonctions de corrélation à température nulle de la chaîne de spin 1/2 de Heisenberg. Le point principal de cette approche est la solution du problème inverse quantique obtenue pour la chaîne de spin 1/2 XXZ. Cette solution ainsi qu'une formule simple pour les produits scalaires des états de Bethe nous a permit d'obtenir les fonctions de corrélation les plus fondamentales ("les blocs élémentaires") sous forme d'intégrales multiples. <br /><br />Ces représentations sous forme d'intégrales multiples permettent de faire un analyse asymptotique pour quelques quantités physiques (probabilité de formation du vide) et même, dans certains cas particuliers, de les calculer d'une manière exacte.<br /><br />Il est possible d'obtenir à partir de ces représentations des résultats pour les fonctions à deux points, c'est à dire les fonctions de corrélation les plus importantes pour les applications. Un lien est établi entre ces intégrales multiples et les sommes de facteurs de forme. Ce résultat est généralisé aux fonctions de corrélation dynamiques.<br /> <br />Je présente aussi dans ce mémoire les généralisations de<br />cette méthode aux chaînes de spin supérieur à 1/2 et aux chaînes de spin à bords ouverts.
|
88 |
Identification de champs de propriétés élastiques fondée sur la mesure de champs : application sur un composite tissé 3DGras, Renaud 18 December 2012 (has links) (PDF)
Depuis ces dernières décennies, les matériaux composites sont de plus en plus utilisés dans l'aéronautique. Notamment, les composites tissés 3D présentent des caractéristiques matériau hors-plan intéressantes par rapport aux stratifiés. Cette technologie est développée pour les aubes FAN des moteurs d'avion. La difficulté réside dans l'identification et la validation du modèle orthotrope élastique macroscopique du pied d'aube. En effet, l'hypothèse de séparation des échelles pour l'obtention des paramètres matériau macroscopique par homogénéisation n'est pas clairement vérifiée au sein du pied d'aube comportant plusieurs zones matériau. Le composite tissé 3D formant le pied d'aube est un matériau multi-échelle complexe. Les travaux de thèse ont donc été menés afin de proposer une identification des paramètres du modèle basée sur la mesure de champs de déplacements par Corrélation d'Images Numériques (CIN) et sur la méthode d'identification de recalage de modèles éléments finis (FEMU). Cette identification a pris en compte l'influence du bruit du capteur CCD présent sur les images servant à la CIN sur l'identification des paramètres matériau. Du fait du grand nombre de paramètres matériau à identifier et des éventuels couplages entre ceux-ci, il apparaît que quelques uns ne peuvent pas être identifier à travers l'essai de traction étudié. Par conséquent, une régularisation de la FEMU a été proposée basée sur la connaissance a priori des valeurs nominales et de leur incertitude. Celle-ci consiste en une pondération intelligente vis-à-vis des données issues de l'essai afin de faire tendre les paramètres non identifiables vers leur valeur nominale. Finalement, la qualité de l'identification a été quantifiée grâce aux incertitudes sur les paramètres matériau identifiés et grâce aux cartes de résidus d'identification basées sur les images. Ces cartes traduisent la capacité du champ de déplacement calculé par le modèle éléments finis identifié à corriger l'image déformée pour la recaler sur l'image de référence, images sur lesquelles la mesure par CIN est effectuée. Ces cartes de résidus et les incertitudes obtenues permettent ainsi de valider le modèle éléments finis proposé et le cas échéant de mettre en lumière ses insuffisances. Remettre en cause les valeurs nominales ou la modélisation (par exemple le zonage matériau) pour aboutir à une description compatible avec l'expérience reste du ressort de l'ingénieur. Le travail présenté ici lui permet d'éclairer au mieux ses choix.
|
89 |
Analyse de la tenue mécanique d'un liner en titane : apport des mesures de champs cinématiquesMathieu, Florent 20 February 2013 (has links) (PDF)
Les techniques de mesure de champs, et en particulier celles basées sur la Corrélation d'Images Numériques (CIN), sont matures et reconnues pour la détermination de déplacements d'objets quelconques, en deux ou trois dimensions. Ces travaux ont pour objet le développement d'essais et de techniques d'identification associées, en s'appuyant sur les méthodes de mesure par CIN, pour permettre l'évaluation des caractéristiques mécaniques d'un liner en titane T35, développé pour des applications spatiales. Des essais de traction uniaxiale sont tout d'abord utilisés pour déterminer le comportement élastoplastique du T35. Plusieurs méthodes d'identification sont comparées. En particulier, il est proposé d'étendre la corrélation d'image dite "intégrée" aux cas élastoplatiques. Cette méthode permet d'évaluer à la fois les déplacements du solide observé et les paramètres mécaniques des matériaux le constituant. Elle est comparée à une méthode de recalage de référence. L'étude se porte ensuite sur l'analyse de l'amorçage des fissures dans le liner. Les chargements cycliques du réservoir imposent à la tôle une déformation biaxiale cyclique en traction-compression de quelques pourcents, qui a été reproduite expérimentalement dans une machine multiaxiale. Cette partie a notamment nécessité le développement d'un essai triaxial à rapport de charge négatif sur tôle mince. Une estimation de la limite d'amorçage a été obtenue pour les niveaux de déformation visés. Enfin, la fissuration du liner a été étudiée par des techniques d'analyse dédiées. Certaines de ces techniques sont comparées quantitativement, afin d'étudier leurs capacités et limitations respectives. Des lois de propagation de type Paris ont été identifiées directement à partir d'images du voisinage de la fissure.
|
90 |
Fissuration en mode mixte I+II non proportionnel : approche expérimentale et modélisation de la plasticitéDecreuse, Pierre-Yves 01 October 2010 (has links) (PDF)
L'enjeu de cette thèse était de proposer un modèle de prévision de la fissuration (trajet et vitesse) par fatigue sous chargement complexe, afin de définir les pas d'inspection de structures industrielles. Dans le cas des métaux, il est reconnu que la plasticité au voisinage de l'extrémité de la fissure a des effets majeurs sur la vitesse et la direction de fissuration. La simulation par éléments finis non-linéaire permet de comprendre et de modéliser ces effets, mais le traitement de problèmes industriels par cette méthode (fissures tridimensionnelles se propageant pendant plusieurs millions de cycles en non-linéaire) reste toujours hors de portée. Pour réduire les temps de calcul, une démarche de changement d'échelle a été mise en place, afin d'identifier un modèle de comportement élasto-plastique en mode mixte non-proportionnel, non pas local, mais relatif à la région en pointe de fissure. Ce modèle, qui condense tous les effets liés à la plasticité confinée en pointe de fissure, peut alors être utilisé dans un calcul de structure linéaire pour simuler la fissuration par fatigue en mode mixte, à amplitude variable, sous des millions de cycles en quelques minutes. La méthode et les hypothèses de changement d'échelle, d'abord appliquées à des simulations numériques, ont ensuite été validées expérimentalement sur des éprouvettes cruciformes fissurées en s'appuyant sur la mesure optique du champ de déplacement à l'extrémité de la fissure. Enfin, une campagne d'essais, visant à caractériser le comportement en fissuration de l'acier S355NL en fatigue, a été réalisée. Les résultats expérimentaux et de simulation sont en bon accord en mode I et en mode mixte.
|
Page generated in 0.1014 seconds