151 |
Modélisation du comportement thermomécanique d'alliages à mémoire de forme. Application au dimensionnement de microsystèmes et extension en non localDuval, Arnaud 08 December 2009 (has links) (PDF)
Un modèle de comportement thermomécanique pour les alliages à mémoire de forme est présenté. Il prend en compte la transformation de phase martensitique, l'orientation des variantes de martensite ainsi que l'accommodation inélastique des macles au sein de la martensite formée sous une structure auto-accommodée. Un potentiel thermodynamique pour un volume élémentaire représentatif est proposé. Il est décrit à l'aide de trois variables internes définies à l'échelle macroscopique. Des forces thermodynamiques sont dérivées de ce potentiel et équilibrées en faisant intervenir des phénomènes dissipatifs. Le modèle est ensuite implanté dans un code de calcul par élément finis afin de dimensionner des structures en deux et trois dimensions. Ce modèle a servi par la suite de base à une description non locale du comportement superélastique permettant de prendre en compte les phénomènes de localisation observés dans les fils et les films minces d'AMF. Des éléments finis spécifiques sont développés afin de pouvoir prendre en compte ce type d'approche dans le cadre d'un calcul de structures.
|
152 |
INFLUENCE DES ORIENTATIONS CRISTALLINES SUR LA LOCALISATION EN BANDE DE CISAILLEMENT DANS DES ALLIAGES Al-Mg SOUMIS A COMPRESSION PLANEChapelle, David 18 December 2002 (has links) (PDF)
L'objet de l'étude est d'appréhender le rôle des orientations cristallines sur l'apparition de la localisation en bandes de cisaillement lorsqu'elle se forme au sein du grain puis lorsqu'elle franchit le joint de grains. La démarche expérimentale s'appuie sur l'exploitation de techniques aujourd'hui classiques –toutefois le couplage l'est moins-, simulation du laminage par channel-die, acquisition d'orientations cristallines par EBSD et mesure de la déformation locale par corrélation d'images sur microgrilles (Bornert [1996]). Sur le plan théorique, la localisation est introduite sous forme de bifurcation, perte d'unicité de la solution, (Hill [1962], Rice [1976]) dans un cristal c.f.c. rigide plastique, se déformant par glissement simple sur les plans de haute densité atomique suivant la loi de Schmid, et dans le cadre de l'hypothèse de Taylor. La cinématique du monocristal est écrite avec le formalisme des grandes transformations (Sidoroff [1982]) sous forme d'une loi constitutive incrémentale linéaire par morceaux. Le bon accord entre observation et modélisation est nettement marqué et deux modes de localisation en bande de cisaillement prédominent : l'un par combinaison de deux systèmes coplanaires, l'autre par combinaison de deux systèmes codirectionnels. Par ailleurs, des phénomènes de germination ont été mis en évidence dans les bandes, signe d'un échauffement dû à de grandes vitesses de glissement.
|
153 |
La réinjection optique dans un laser VCSEL en tant que la détection et l'asservissement de distance en microscopie à sonde localeBarret, Romain 31 March 2008 (has links) (PDF)
Cette thèse se situe dans le contexte d'un projet d'intégration sur puce de microscopes à sonde locale : systèmes parallèles de nano-lecture-écriture optique comprenant des micro-leviers équipés de diodes laser, et montés sur des systèmes MEMS assurant les fonctions de balayage spatial. On utilisera des diodes laser à cavité verticale émettant par la surface (VCSEL). En quelques mots, un VCSEL est un laser à semi-conducteur, pompé électriquement, formé de miroirs de Bragg délimitant une cavité optique dans laquelle se trouvent des puits quantiques. Les VCSEL ont l'avantage d'avoir un faible courant seuil, une faible divergence et une grande capacité d'intégration surfacique. On exploitera la sensibilité des VCSEL à la réinjection optique. Le travail de thèse proprement dit porte sur l'étude de la réinjection optique dans un VCSEL sur le plan expérimental et théorique. La réinjection optique dans un VCSEL correspond à réintroduire une partie ou la totalité de la lumière émise par le VCSEL à l'intérieur de la cavité du VCSEL. Pour ce faire, on ajoute un miroir externe de façon à rétroréfléchir l'émission vers la face émettrice. On forme, entre la face émettrice du laser et le miroir externe, une cavité externe. La réinjection optique a été étudiée pour la première fois par R. Lang et K. Kobayashi dans des lasers à émission par la tranche en 1980. Depuis plusieurs travaux portant sur des VCSEL ont montré que la réinjection optique perturbe plusieurs caractéristiques de ces lasers : caractéristiques spectrales, courant seuil, efficacité quantique différentielle, puissance optique, tension, polarisation. Les effets de la réinjection optique sont influencés par la longueur (distance entre la face émettrice et le miroir externe) de la cavité externe d'une manière périodique, la période est la demi-longueur de l'onde laser du VCSEL. Ces effets sont également modifiés par la réflectivité du miroir externe. Ce travail de thèse se situe dans le prolongement d'une première thèse faite par D. Heinis et soutenue en octobre 2005. Il a notamment réalisé un microscope SNOM semi-massif fibré utilisant un asservissement à force de cisaillement, la sonde est une fibre optique étirée. L'information optique est obtenue à partir de la variation de la puissance optique induite par la réinjection optique dans un VCSEL émettant dans le proche IR. A partir de ce microscope SNOM, un montage de microscope à sonde optique et à asservissement optique est proposé. On utilise l'effet de la réinjection optique sur la puissance optique et la dépendance de cet effet avec la longueur de la cavité externe.
|
154 |
Microscopies de proximité :<br />Des spectroscopies aux processus physiquesDumas, Philippe 11 January 2001 (has links) (PDF)
On l'a peut être oublié mais c'est la quête d'une sonde spectroscopique locale, qui a conduit H.Rohrer et G.Binnig à l'invention de la microscopie par effet tunnel. C'est en s'appuyant sur la physique des surfaces (domaine qui ne leur était pas familier) que les inventeurs ont favorisé la diffusion de la microscopie tunnel à l'extérieur des laboratoires d'IBM Zürich. De cette opération, initialement parallèle à leur programme de recherche officiel, devait naître toute une famille de sondes locales dérivées à commencer par la microscopie à force atomique. Le jury Nobel a, dès 1986, reconnu la portée de leurs travaux en leur accordant le prix de Physique.<br />Les développements de cette famille de techniques ont été très rapides et ont entraîné la naissance d'une communauté toujours plus large. Quinze ans après, on pourrait croire que les développements sont achevés, il n'en est rien. Des pans entiers de la recherche n'ont pas encore tiré profit de ces techniques légères de laboratoire. Parallèlement, continuent d'apparaître de nouvelles microscopies en champ proche qui soulignent d'autres propriétés physico-chimiques.<br />Il y a ainsi, disponible, une palette variée d'outils, qui permet dans de nombreuses disciplines, de visualiser des surfaces, des objets, de les sonder, de les manipuler même... Sans exclusive, ces outils, particulièrement bien adaptés, ont largement contribué au développement de la nanophysique.<br /><br /> Cette rédaction est pour moi une occasion de revenir sur une dizaine d'années de recherches et sur la physique que m'a permis d'aborder l'utilisation des Microscopies en Champ Proche. Mon propos n'est pas de rédiger une nouvelle thèse mais plutôt de montrer une démarche à moyen terme.<br />Cette démarche ne peut totalement apparaître dans les seuls articles. Il y manque en effet : la multitude d'expériences toutes individuellement insignes mais qui, touche après touche, permettent d'accéder à une vision cohérente. De même, les rencontres avec d'autres chercheurs n'y sont pas toujours mentionnées. C'est important car, au hasard de ces contacts, des affinités intellectuelles se créent et ont une influence déterminante sur la recherche.<br /><br />Lorsque je débute ma thèse en 1986, sous la direction de Frank Salvan, je suis instantanément immergé dans cette communauté tunnel naissante. L'enthousiasme partagé, les errements communs, l'apprentissage collectif ont été une véritable chance. Je garde de ces premières années un souvenir -non pas nostalgique- mais -au contraire- très vivant. Je me rappelle notamment comment la communauté a surmonté les limitations de la technique en introduisant de nouvelles sondes.<br /><br /> Force est de constater le formidable pouvoir évocateur des images fournies par les microscopies en champ proche. Cette caractéristique, très médiatique, explique indubitablement le succès de ces techniques mais est aussi parfois la raison de leur discrédit. Avec de tels supports : les images, la tentation de vulgarisation exagérée est forte. A cela s'ajoute la facilité d'accès à cette production d'image grâce aux appareils commerciaux existants. L'ensemble concourt malheureusement à la floraison, dans la littérature, d'exemples de sur-interprétation plus ou moins volontaire des données.<br /><br />On l'a dit, la physique des surfaces, a offert au STM l'occasion de se révéler à la communauté scientifique au travers de superbes images à l'échelle atomique de structures périodiques de surface. Nous sommes nombreux à avoir abordé les microscopies en champ proche en traquant la 7x7 du Si(111). Quelques années après, malgré les progrès de l'instrumentation qui rendent l'obtention de la résolution atomique plus routinière, "voir les atomes" dégage toujours pour moi une émotion (sans doute liée à la lenteur de prise d'une image). Toutefois, si le STM a permis d'avoir une meilleure connaissance de "l'intérieur" de la maille cristalline, je considère que son apport est plus dans la mise en évidence l'importance des défauts.<br />Ainsi, je ne m'étendrais pas sur les applications de la microscopie par effet tunnel à l'étude de l'ordre cristallin en surface ou des premiers stades de la croissance. J'ai en effet rapidement délaissé ce domaine en tant que tel. Je me contenterai d'écrire deux choses :<br />La première est que, même si l'apport du STM n'avait été que de nous apprendre à (mieux) préparer les surfaces, son invention aurait déjà été très appréciable. C'est un crible qui évite beaucoup d'erreurs et qui contribue alors à mieux tirer profit des autres techniques.<br />La seconde est que, en champ proche, la réussite des expériences passe de toutes manières par la maîtrise des substrats. Cette "culture" des surfaces est donc une base indispensable. Nous aurons l'occasion d'en donner des exemples.<br /><br />Le premier volet de ce manuscrit concernera les expériences récentes qui nous préoccupent actuellement dans le domaine de l'électronique moléculaire. Alors que les tailles de dispositifs diminuent, il a été maintes fois proposé d'approcher le problème par l'autre extrémité3 et d'utiliser les briques élémentaires parfaites que sont les molécules pour réaliser un édifice réalisant une fonction complexe.<br />Plus fondamentalement, que cette possibilité devienne un jour réalité ou non, il s'avère que l'on ne connaît qu'extrêmement peu de choses du transport électronique dans une molécule unique et guère plus du transport dans une assemblée de molécules comme en témoigne, par exemple, la mise en évidence récente de la supraconductivité dans des cristaux organiques.iii Une des raisons en est que prendre (ne serait-ce que) deux contacts sur une molécule unique est une tâche ardue. Comme toujours, l'émergence de ce thème de recherche résulte de la conjonction de plusieurs facteurs.<br />D'une part, un rapprochement avec des chercheurs d'un laboratoire de chimie du campus (Corinne Moustrou, André Samat et Robert Guglielmetti du GCOPL) capables de synthétiser des molécules photo-commutables transitant entre des formes dites « isolantes » et « conductrices ». <br />D'autre part, une expertise acquise, au cours de la thèse de Hubert Klein, dans la préparation de couches organiques autoassemblées qui, nous le verrons, sont une composante essentielle de ce projet.<br />Enfin, notre connaissance des sondes couplant microscopie tunnel et rayonnement électromagnétique que nous retrouverons à la fin de cette étude.<br />L'ensemble concourait à élaborer un projet de recherche commun qui était rendu encore plus cohérent en suscitant l'intérêt de théoriciens (Thierry Martin du CPT et Andres Saul du CRMC2). Nous ne sommes qu'au tout début de ce travail de longue haleine. Il y a de nombreuses voies à explorer, d'obstacles à contourner, d'instrumentation à développer mais les résultats déjà acquis sont de bon augure.<br /><br /> Le deuxième thème que j'aborderai est celui de la nanorugosité des surfaces. Il est utile de replacer les choses dans leur contexte de l'époque. A la fin des années 80, la plupart des chercheurs impliqués dans la microscopie par effet tunnel aspiraient à obtenir la résolution atomique et l'effet médiatique consécutif au prix Nobel et aux « images » (cf. plus haut) drainait vers les laboratoires possesseurs de STM quantité de projets et d'échantillons plus ou moins adaptés. En fait, avec l'avènement du STM, on avait sauté une étape qui allait bientôt être comblée par la disponibilité commerciale du premier microscope à force atomique. On disposait alors d'une visualisation du relief à l'échelle atomique mais on savait en fait très peu de la topographie des surfaces à (un peu) plus grande échelle. De plus, s'il est relativement facile de reconnaître une structure périodique à la surface d'un cristal soigneusement préparé en ultra-vide, comment différencier une surface rugueuse d'une autre, comment les comparer, les classer, comment en tirer les paramètres caractéristiques, comment en comprendre l'évolution ?<br />C'est une collaboration industrielle qui m'a donné l'occasion de me pencher sur ces problèmes et, par la suite, de développer les outils d'analyse statistique de rugosité. <br />Parmi les sollicitations extérieures, certaines émanaient d'industriels de la microélectronique (production) soucieux de « voir » pourquoi, lors des procédés en ligne, tel dépôt donnait de meilleurs résultats que tel autre. Eux se satisfaisaient tout à fait de ces fameuses images qui révélaient de nettes différences topologiques. Mais ce type d'analyse nous aurait limité à des cas très caricaturaux. Nous avons alors développé des programmes informatiques qui, à partir de la nappe 2D de la surface, en calculaient la densité spectrale de rugosité4. Les résultats furent en accord avec nos attentes. A partir d'échantillons identiques, les images conduisaient aux mêmes spectres. Des images visiblement différentes menaient à des spectres significativement distincts. Enfin, des images qui se ressemblaient permettaient de mettre en évidence des différences plus subtiles.<br />Nous en savions assez pour y consacrer plus de temps.<br />Tout c'est alors enchaîné assez vite car le hasard a voulu que des opportunités se présentent à ce moment là. Un stagiaire dynamique passait par là alors que le CNET-Meylan voulait aborder la microscopie en champ proche de manière « encadrée ». Une thèse débutait. Dans la lignée des premières expériences, nous avons entrepris des études STM de diverses surfaces de Si. Ce travail a achevé de nous convaincre de la validité de l'approche. Le CNET s'équipait d'un AFM et les expériences prenaient un tour nouveau. On pouvait maintenant balayer des surfaces de plusieurs dizaines de microns de côté alors que le champ de notre STM dédié à la résolution atomique n'était de que de 1 micron. De plus le fait de travailler à la pression atmosphèrique décuplait le flux de données et permettait de systématiser les choses. Les mesures étaient reproductibles mais il fallait aller plus loin. En effet, des erreurs systématiques peuvent canuler les mesures. Un contact s'est alors établi avec E.Pelletier et Cl.Amra (ENSPM, Marseille). Spécialistes de diffusion lumineuse, il maîtrisaient bien la mesure quantitative de la rugosité. En deux mots leur technique est la suivante : un pinceau lumineux monochromatique est envoyé sur une surface. Si celle-ci n'est pas parfaitement lisse (tout est réfléchi dans le spéculaire) ni périodique (phénomène de diffraction), de la lumière est diffusée dans toutes les directions de l'espace. Sa mesure, et des modèles classiques permettent de remonter au spectre de rugosité des surfaces dans une gamme de longueur d'onde typiquement comprise entre lambda et 20 fois lambda.<br />Nous avons défini un protocole de caractérisations croisées qui a permis de prouver que nos mesures de rugosité en AFM étaient parfaitement quantitatives.<br />La thèse d'Olivier Vatel allait permettre d'appliquer notre travail à un grand nombre de surfaces produites en milieu semi-industriel. Aux delà des spectres de DSP, nous en tirions des paramètres caractéristiques (e.g. longueurs de corrélation verticales et horizontales) et leur évolution temporelle. Sur le plan international, à cette période, on ne dénombrait que peu de publications tirant profit des mêmes outils d'analyseiv. Les résultats obtenus nous donnaient l'occasion d'aborder des domaines nouveaux. Nous lisions en particulier beaucoup dans le domaine des lois d'échellev. Ces lectures m'amenèrent à profiter d'un de mes voyages régulier à Grenoble pour y rencontrer un théoricien dont un article m'avait plu. Je ne le connaissais pas. C'était Jacques Villain. A la sortie de cette discussion, non seulement j'étais conforté dans mes recherches en cours mais de nouvelles perspectives s'offraient. En effet, certains modèles continus de croissance ou d'érosion permettaient en effet le calcul analytique complet de la densité spectrale de puissance que nous mesurions par ailleursvi. La thèse de Michel Ramonda qui débutait allait notamment s'attacher à comparer les résultats issus des mesures, des calculs théoriques à l'échelle mésoscopique ou des simulations numériques atomistiques.<br /><br /> Enfin, je décrirai quelques une des expériences d'émission de lumière stimulée par STM. Une fois les techniques (approche, usage des céramiques piézo-électriques, asservissement...) héritées du STM et de l'AFM maîtrisées, nombreuses ont été les microscopies à balayage inventées. Parmi ces développements l'observation de l'émission de lumière émise à la jonction pointe/surface d'un STM est reportée. Cette idée était dans l'air mais c'est James Gimzewski qui la réalise en premier, accédant ainsi à la vieille requête d'un de ses collègues d'IBM Zurich : Bruno Reihl, expert en photoémission inverse. Dans cette première expérience, l'énergie des photons détectés était d'une dizaine de Volts et le STM était plutôt utilisé en régime d'émission de champ. Nonobstant, la voie était ouverte. La perspective de pouvoir mesurer, à l'échelle nanométrique, des propriétés optiques effaçait à nos yeux les difficultés techniques et la maigreur du signal. C'est ainsi, qu'au travers d'une collaboration avec Gimzewski, nous nous sommes lancés dans le sujet. Quelques groupes ont suivi en Europe. De timides tentatives ont été reportées aux USAvii puis, plus tard, au Japon.<br />En ce qui nous concerne, menant ce thème de recherche simultanément à d'autres, nous avons débuté par une période d'apprentissage pendant laquelle nous avons obtenu, par cette technique, un certain nombre de résultatsviii sur des métaux ou des cristaux de semiconducteurs à gap direct. Ces résultats, avec ceux de la littérature, nous ont montré que les processus d'émission lumineuse à partir de métaux ou de semiconducteurs étaient radicalement différents:<br />Pour les métaux, l'émission est reliée à une résonance plasmon localisée entre la pointe et la surface. Cette émission dépend alors non seulement des deux matériaux mais également de la géométrie de la jonction tunnel (notamment de la forme de la pointe). En fait, la pointe tunnel exalte localement le champ électromagnétique. Les calculs développés dans ce cadreix montrent que l'extension latérale de ces modes peut, selon la pointe utilisée, descendre au nanomètre. C'est la limite de résolution que je pronostiquerai pour toutes ces sondes-outils à balayage tirant profit du champ électromagnétique à l'extrémité d'une pointe. Parmi elles, j'englobe aussi bien les techniques de lithographie en champ proche (STM et AFM) que les microscopes en champ proche optique sans ouverture utilisant des pointes tunnel. Pour clore cette parenthèse, ajoutons que ces phénomènes physiques sont les mêmes que ceux qui régissent la propagation des ondes électromagnétiques dans les matériaux nanostructurés et qui sont à l'origine par exemple des composants à bande interdite photonique.<br />Pour les semiconducteurs, la recombinaison radiative électron/trou est le processus majoritaire impliqué dans l'émission de lumière induite par STM. Le lien avec la structure électronique du matériau est donc plus direct puisque l ‘énergie des photons émis est celle de la bande interdite.<br />Ces expériences nous encourageaient à dédier un système expérimental complet à cette technique. Son installation a coïncidé avec la découverte de la luminescence du silicium poreux.xiii Le silicium poreux, matériau nanostructuré présentant de surprenantes propriétés optiques, semblait parfaitement adapté à notre technique. De fait, nous en avons étudié plusieurs aspects (morphologie, lithographie, propriétés optiques et électronique) et avons pu constater en émission de lumière stimulée par STM des rendements (nombre de photons/électrons) très importants.<br />Pour pouvoir corréler directement la morphologie mesurée par STM à l'émission de lumière, il nous fallait des échantillons bien caractérisés. Nous nous sommes alors intéressés à des nanocristallites métalliques individuelles puis de nouveau aux semiconducteurs avec, notamment, l'étude de l'émission de lumière d'un puits quantique unique d'arséniure de gallium.<br /> Ce dernier thème qui traite de la spectroscopie de nanostructures est à rapprocher de celui ayant trait à l'électronique moléculaire que nous développons actuellement. Nous retrouverons notamment dans les deux la notion, extrêmement importante, du couplage contrôlé entre le nanoobjets et les électrodes.
|
155 |
Encadrement a posteriori de quantités locales dans les problèmes de viscoélaticité linéaire résolus par la méthode des éléments finisChamoin, Ludovic 29 May 2007 (has links) (PDF)
Dans ce travail, nous mettons en place une méthode fournissant des bornes à la fois garanties et précises de l'erreur de discrétisation commise sur des quantités locales lors de simulations numériques menées par la Méthode des Éléments Finis. On se focalise sur les problèmes de viscoélasticité linéaire décrits par variables internes. A partir d'une méthode générale développée au LMT Cachan, plusieurs optimisations sont abordées parmi lesquelles la prise en compte des effets d'histoire, le caractère non intrusif de la méthode ou l'estimation de l'erreur de modèle. La pertinence de la méthode est démontrée sur diverses applications numériques en 1D, 2D et 3D.
|
156 |
Analyse, modélisation et simulation de la marche pathologiqueFusco, Nicolas 20 June 2008 (has links) (PDF)
La marche est pour l'homme son mode de locomotion le plus usuel. Pour un sujet sain, il s'agit d'une action simple qu'il exécute sans être obligé d'y penser. Cependant, la survenue d'une pathologie peut venir la perturber et augmenter son coût énergétique. L'autonomie diminue, ce qui risque de rendre dépendant l'individu dans ses activités quotidiennes. Afin de lutter contre, la rééducation de la marche doit prendre en compte les causes de ses perturbations. Or, il est difficile d'isoler le rôle de chacun des paramètres interdépendants qui composent la marche. L'objectif de ces travaux est donc de proposer une boucle complète allant de l'analyse à la simulation de la marche pathologique en passant par sa modélisation. L'intérêt est de disposer d'un outil capable de déterminer les facteurs discriminants de l'altération de la marche. Premièrement, le développement de nouveaux outils génériques d'analyse nous aide à mieux comprendre le mouvement étudié et ceci uniquement à partir de données cinématiques, en particulier acquises lors d'une marche sur tapis roulant. La deuxième étape se focalise sur la modélisation d'une marche particulière, celle des sujets hémiplégiques. La cinématique inverse permet de définir une tâche principale liée au mouvement ainsi qu'une tâche secondaire capable de tenir compte de la pathologie du sujet. Finalement, la marche hémiplégique est reproduite grâce à la méthode de simulation choisie. L'approche se base sur des entrées simples à acquérir et permet de tester des hypothèses de rééducation à travers le travail mécanique. La finalité de ce travail est donc de fournir aux thérapeutes un outil simple d'évaluation des hypothèses de rééducation de la marche à partir de son coût énergétique
|
157 |
L'uniformisation locale des surfaces d'Artin-Schreier en caracteristique positiveASTIER, Raphael 05 November 2002 (has links) (PDF)
Cette thèse traite de l'uniformisation, en caractéristique p>0, d'une valuation rationnelle, dans les cas particuliers où cette valuation est centrée en une singularité définie localement par des hypersurfaces d'équations :<br /><br />- soit z^p+f(x,y)=0, avec f non puissance p-ième et ord f>p,<br /><br />- soit z^p+e(x,y)z+f(x,y)=0, avec ord(ez+f)>p (cas d'Artin-Schreier).<br /><br />Historiquement c'est dans ces cas particuliers que s'est trouvé concentrée la difficulté de résoudre les surfaces en caractéristique positive.<br /><br />Les nouveautés ici consistent en une majoration du nombre minimum<br />d'éclatements de points fermés nécessaires pour uniformiser, et en une<br />description ``d'en bas'' de l'évolution du polygone de Newton ainsi que des<br />paramètres choisis pour les éclatés successifs le long de la valuation. <br /><br />Dans la première partie de la thèse, on revient sur l'obtention de la forme<br />normale de Giraud pour f dans l'anneau O_X(X), où X schéma régulier de<br />dimension deux et de caractéristique p. Le point de départ est une<br />décomposition polynomiale de f en les curvettes associées à la valuation. On<br />prévoit ensuite via une puissance p-ième d'en bas, le comportement du<br />polygone de Newton de f moins cette puissance p-ième, et on majore le nombre<br />minimum d'équerres du graphe dual de la valuation nécessaires à ce qu'il devienne droit de hauteur au plus 1, et minimal, cas correspondant à la forme normale.<br /><br /><br />Dans la deuxième partie de la thèse on utilise cette étude pour les cas particuliers ci-dessus mentionnés, on donne un algorithme permettant de prévoir les translations à faire à la sortie des équerres pour avoir un polygone de Newton minimal. On quantifie combien d'équerres sont suffisantes pour obtenir une singularité quasi-ordinaire.
|
158 |
Analyse de régularité locale, quelques applications à l'analyse multifractaleSeuret, Stéphane 05 November 2003 (has links) (PDF)
Il est fondamental, dans beaucoup de domaines (étude de la<br />turbulence , traitement du signal), mais également d'un point de vue théorique, de pouvoir détecter et caractériser les singularités d'une fonction ou d'une distribution. Pour mesurer la régularité autour d'un point $x_0$ d'une fonction $f$, on utilise souvent l'exposant ponctuel de \ho de $f$ en $x_0$, noté $\alp(x_0)$. Mais cet exposant n'est pas suffisant pour décrire entièrement les comportements locaux.<br /><br />L'exposant de \ho local, noté $\all(x_0)$, permet de compléter les<br />informations procurées par $\alp(x_0)$. Les relations entre les<br />fonctions $x\ra \all(x)$ et $x\ra\alp(x)$ sont complètement mises a<br />jour.<br /><br />Les espaces 2-microlocaux, notés $\css'$, permettent de généraliser la notion d'exposant de régularité. Une caractérisation temporelle des espaces $\css'$ pour les fonctions $C^\ep$ ($\ep>0$) est démontrée. Cela s'avère utile en traitement du signal, car accessible numériquement (FRACLAB).<br /><br />Les espaces $\css'$ permettent d'associer à un point non plus un ou<br />plusieurs exposants, mais une courbe dans $\R^2$ appelée frontière<br />2-microlocale. Cette dernière englobe les exposants cités plus<br />haut, et donne une description géométrique de la régularité<br />locale. On montre que la frontière 2-microlocale d'une distribution $f$ en $x_0$ est la transformée de Legendre d'une fonction $\chi_(x_0)$ appelée (\em spectre 2-microlocal): on parle du formalisme 2-microlocal. $\chi_(x_0)$ est lié au comportement des coefficients d'ondelettes de $f$ autour de $x_0$. L'étude de<br />$\chi_(x_0)$ et du formalisme 2-microlocal s'avère fructueuse: les<br />liens avec les exposants sont explicités, des propriétés<br />nouvelles de la régularité sont mises en évidence. Le calcul de<br />$\chi_(x_0)$ est effectué pour plusieurs fonctions classiques ou<br />originales.<br /><br />Deux applications du spectre 2-microlocal à l'analyse multifractale<br />sont présentées. Nous proposons la construction de fonctions et<br />processus multifractals. étant donnée une mesure de Borel positive<br />$\mu$ et deux réels positifs $s_0$ et $p_0$ vérifiant<br />$s_0-1/p_0>0$, on étudiera la fonction $F_\mu$ <br />$$F_\mu(x)=\sum_(j\geq 0) \sum_(k\in \mathbb(Z)) \pm<br />2^(-j(s_0-\frac(1)(p_0))) |\mu\big ([k2^(-j),(k+1)2^(-j))\big<br />)|^(\frac(1)(p_0)) \psijk(x).$$ Si $\mu$ satisfait un certain<br />formalisme multifractal (proche du formalisme usuel) pour les mesures, alors la fonction $F_\mu$ satisfait au formalisme multifractal pour les fonctions. Ce résultat s'applique aux grandes classes de mesures multifractales: quasi-Bernoulli, cascades de Mandelbrot, ... En particulier, on résout ainsi la conjecture de Arnéodo, Bacry, Muzy sur la valeur du spectre de leurs cascades aléatoires d'ondelettes, qui servaient de modèle à un fluide turbulent.<br /><br />Enfin la relation entre présence d'oscillations et validité du<br />formalisme multifractal est étudiée. Ce travail a une conséquence<br />inattendue: on montre qu'un seuillage effectué sur les coefficients<br />d'ondelettes peut créer des singularités oscillantes et faire<br />échouer le formalisme.
|
159 |
Champs de Lévy multifractionnairesLacaux, Céline 24 May 2004 (has links) (PDF)
Dans un premier temps, nous introduisons une classe de champs réels appelés champs de Lévy multifractionnaires au moyen d'une représentation harmonisable. Cette classe contient à la fois celle des champs de Lévy fractionnaires et le mouvement brownien multifractionnaire (MBM en abrégé). Elle fournit notamment des exemples de champs non gaussiens du second ordre ayant des propriétés semblables à celles du MBM. En particulier, les champs de Lévy multifractionnaires sont localement autosimilaires et leur exposant de Hölder ponctuel peut varier le long d'une trajectoire. Par ailleurs, leurs propriétés sont gouvernées par leur fonction multifractionnaire. Par suite, d'un point de vue statistique, un problème naturel est l'identification de cette fonction. Comme dans le cas du MBM, elle peut être identifiée au moyen des variations quadratiques localisées et généralisées. Dans la deuxième partie, nous nous sommes intéressés à la simulation de la partie non gaussienne d'un champ de Lévy multifractionnaire. La méthode proposée est basée sur une représentation en série de bruits généralisés. Cependant, dans certains cas, on approche aussi une partie du champ de Lévy multifractionnaire par un MBM. Enfin, la dernière partie introduit un champ $X_(H,\be)$ localement autosimilaire avec un comportement atypique en $0$. En effet, alors qu'en tout point $x\ne0$, le champ tangent à $X_(H,\be)$ est un mouvement brownien fractionnaire, en général en $x=0$ le champ tangent à $X_(H,\be)$ est de nature bien différente. De plus, le champ $X_(H,\be)$ satisfait une propriété d'autosimilarité à grandes échelles et son étude est ensuite complétée par celle de la régularité des trajectoires et de la dimension de Hausdorff de ses graphes.
|
160 |
RS2.7 : un Canevas Adaptable de Services de DuplicationDrapeau, Stéphane 24 June 2003 (has links) (PDF)
Notre objectif dans cette thèse est de donner la propriété d'adaptabilité à l'aspect duplication. La séparation des préoccupations et l'approche par services permettent au développeur d'applications de s'abstraire de l'aspect duplication lors de ses développements. Cependant, ces approches souffrent d'une limitation majeure : il semble très difficile, voir impossible, de fournir un service/aspect générique de duplication pouvant être paramétré afin d'être utilisé dans différents contextes d'exécution et couvrant l'ensemble des protocoles existants. Ces constatations nous ont conduit à la définition d'un canevas de services de duplication, nommé RS2.7. RS2.7 est le squelette d'un service de duplication définissant sa structure. Il permet d'obtenir des services de duplication indépendants de tout code propre à l'application, pouvant être utilisés dans différents contextes non fonctionnels (transactionnel, mémoires partagées, etc.) et prenant en compte les contraintes et les protocoles spécifiques à chaque domaine. Nos contributions portent sur trois axes : (1) la modélisation des services de duplication pouvant être obtenus à partir de RS2.7, (2) l'adaptabilité du canevas par rapport au contexte non fonctionnel et (3) l'adaptabilité dans tout ou partie des protocoles de duplication. RS2.7 a été mis en \oe uvre et notre validation porte sur la démonstration des caractéristiques d'adaptabilité offertes. Nous cherchons à montrer que notre canevas permet d'obtenir des services très variés et convenant pour divers contextes non fonctionnels.
|
Page generated in 0.0425 seconds