Spelling suggestions: "subject:"contrainte"" "subject:"ontrainte""
581 |
Synthèse et caractérisation physico-chimique de matériaux géopolymères. Application : cinétique de minéralisation de géopolymères et du biomatériau CaCO3 synthétiqueDERRIEN, Anne-Cécile 08 October 2004 (has links) (PDF)
Dans le domaine de la chirurgie orthopédique ou maxillo-faciale, les praticiens sont confrontés à des pertes de substance osseuse qui nécessitent l'utilisation de matériaux de comblement (ou de substitution). L'utilisation de biomatériaux synthétiques (dont la disponibilité est très importante) permet de limiter les réponses immunitaires. Dans ce travail nous nous intéressons à deux matériaux : les géopolymères et le carbonate de calcium synthétique sous forme d'aragonite pure. Dans le domaine des biomatériaux de comblement, l'optimisation du compromis entre le pourcentage de porosité et les propriétés mécaniques (voisines de celles de l'os spongieux) favorise l'ostéointégration et la tenue des implants. Cette observation nous a conduit à étudier des aluminosilicates de la famille des géopolymères définis par un rapport molaire Si/ Al = 21. Les aluminosilicates synthétisés ont été associés à des phosphates de calcium : hydroxyapatite (HA), phosphate tri-calcique (TCP) et biphasique. Après traitement thermique à 500°C, les géopolymères présentent des valeurs de pH voisines de 7 ainsi qu'un bon compromis porosité/ contrainte à la rupture (en compression). Pour le CaCO3, notre laboratoire de recherches a mis au point la synthèse du carbonate de calcium sous forme d'aragonite pure. Ces matériaux ont fait l'objet d'études in vitro et in vivo afin d'évaluer leur potentiel pour une utilisation comme biomatériaux. Les cinétiques de minéralisation des implants géopolymères et du biomatériau CaCO3 ont été étudiées par PIXE (Proton Induced X-Ray Emission) et par NAA (Neutron Activation Analysis). Les résultats obtenus pour le CaCO3 par ces deux méthodes montrent un comportement in vivo similaire à celui d'un TCP utilisé comme référence (travail réalisé avec l'aide de l'ANVAR Bretagne). Les premières études in vivo réalisées sur les géopolymères ont montré que ces derniers sont ostéointégrés. Dès le délai de 1 mois, les porosités externes des implants sont colonisées par de l'os néoformé. La cicatrisation en surface des matériaux est totale à 3 mois. Les analyses par PIXE des implants confirment la consolidation de l'interface dès le délai de 1 mois.
|
582 |
Approximation dans des classes de fonctions analytiques généralisées et résolution de problèmes inverses pour les tokamaksFischer, Yannick 03 November 2011 (has links) (PDF)
Cette thèse traite de la résolution théorique et constructive de problèmes inverses pour des équations de diffusion isotropes dans des domaines plan simplement et doublement connexes. A partir de données de Cauchy (potentiel, flux) disponibles sur une partie de la frontière du domaine, il s'agit de retrouver ces quantités sur la partie du bord où l'on ne dispose pas d'information, ainsi qu'à l'intérieur du domaine. L'approche mise au point consiste à considérer les solutions de l'équation de diffusion comme les parties réelles des solutions complexes d'une équation de Beltrami conjuguée. Ces fonctions analytiques généralisées d'un type particulier permettent de définir des classes de Hardy, dans lesquelles le problème inverse est régularisé en étant reformulé comme un problème de meilleure approximation sous contrainte (ou encore problème extrémal borné, d'adéquation aux données). Le caractère bien posé de celui-ci est assuré par des résultats d'existence et de régularité auxquels s'ajoutent des propriétés de densité à la frontière. Une application au calcul de la frontière libre d'un plasma sous confinement magnétique dans le tokamak Tore Supra (CEA-IRFM Cadarache) est proposée. La résolution du problème extrémal à partir d'une base de fonctions adaptées (harmoniques toroïdales) fournit un critère permettant de qualifier les estimations de la frontière plasma. Un algorithme de descente permet de le faire décroître, en améliorant l'estimation de la frontière. Cette méthode, qui ne requiert pas d'intégration de l'équation dans le domaine, fournit de très bons résultats et semble appelée à connaître des extensions pour d'autres tokamaks tels que JET et ITER.
|
583 |
Modélisation des comportements mécaniques et hydrauliques de massifs rocheux simulés par des assemblages de blocs rigides. Introduction d'un couplage hydro-mécaniqueBargui, Henda 18 June 1997 (has links) (PDF)
L'objectif de ce travail est de modéliser le comportement hydro-mécanique de massifs rocheux fissurés. Ceci concerne précisément l'amélioration et l'extension d'un modèle par éléments discrets appelé BRIG3D. Ce modèle assimile un massif rocheux fissuré à un assemblage de blocs rigides qui interagissent au niveau de leurs interfaces. La déformation de ces interfaces est reliée aux déplacements relatifs des blocs. Sous l'effet des sollicitations du massif, chaque bloc, en interaction avec d'autres, se déplace vers une position d'équilibre. Les améliorations concernent la reformulation mécanique de BRIG3D. De nouvelles descriptions concernant le mouvement d'un corps rigide, la position des interfaces et le champ des contraintes sont introduites. Ce travail de recherche concerne également l'introduction d'un modèle par éléments frontières décrivant un écoulement laminaire, permanent et plan aux interfaces des blocs. Le couplage de ces deux modèles à permis d'analyser le comportement hydro-mécanique de massifs rocheux fissurés soumis à diverses sollicitations. Une étude particulière a été consacrée à l'analyse du comportement d'une fondation de barrage.
|
584 |
Comportement fragile des roches : dégradation des propriétés élastiques et anisotropie induite par les contraintesPellegrino, Antonio 10 February 1995 (has links) (PDF)
Le sujet de la thèse est l'étude de la dégradation des caractéristiques élastiques d'une roche fragile induite par le chargement. En particulier on s'intéresse à l'anisotropie induite et à son influence sur le caractère fragile de la rupture. L'étude présente le développement d'un modèle de comportement approprié à ce phénomène, une étude expérimentale pour l'étalonnage et la validation du modèle et enfin une application à un problème aux limites particulier représentant l'étude de la rupture d'un cylindre creux et d'une excavation souterraine profonde. Le cadre théorique utilisé est celui de la mécanique de l'endommagement continu. Le modèle développé est caractérisé par un tenseur de vitesse d'endommagement anisotrope d'ordre deux. Les lois d'évolution des trois composantes du tenseur d'endommagement sont obtenues expérimentalement à partir d'essais de compression triaxiale. Les essais ont été réalisés sur deux roches d'origine sédimentaire : une calcarénite italienne, la pietra leccese, et un grès français, le grès de Rothbach. L'influence des conditions de réalisation des essais (élancement des échantillons, frettage ou lubrification des bases des échantillons) a été étudiée. Nous avons simulé le comportement d'un cylindre creux et d'une cavité cylindrique soumise à un état de contraintes isotrope à l'infini. Les résultats de cette simulation numérique ont montré que plus l'anisotropie induite est forte, plus le comportement de la roche est fragile et plus élevé est le nombre de stabilité.
|
585 |
Outliers detection in mixtures of dissymmetric distributions for data sets with spatial constraints / Détection de valeurs aberrantes dans des mélanges de distributions dissymétriques pour des ensembles de données avec contraintes spatialesPlanchon, Viviane 29 May 2007 (has links)
In the case of soil chemical analyses, frequency distributions for some elements show a dissymmetrical aspect, with a very marked spread to the right or to the left. A high frequency of extreme values is also observed and a possible mixture of several distributions, due to the presence of various soil types within a single geographical unit, is encountered. Then, for the outliers detection and the establishment of detection limits, an original outliers detection procedure has been developed; it allows estimating extreme quantiles above and under which observations are considered as outliers. The estimation of these detection limits is based on the right and the left of the distribution tails. A first estimation is realised for each elementary geographical unit to determine an appropriate truncation level. Then, a spatial classification allows creating adjoining homogeneous groups of geographical units to estimate robust limit values based on an optimal number of observations. / Dans le cas des analyses chimiques de sols, les distributions de fréquences des résultats présentent, pour certains éléments étudiés, un caractère très dissymétrique avec un étalement très marqué à droite ou à gauche. Une fréquence importante de valeurs extrêmes est également observée et un mélange éventuel de plusieurs distributions au sein dune même entité géographique, lié à la présence de divers types de sols, peut être rencontré. Dès lors, pour la détection des valeurs aberrantes et la fixation des limites de détection, une méthode originale, permettant destimer des quantiles extrêmes au-dessus et en dessous desquelles les observations sont considérées comme aberrantes, a été élaborée. Lestimation des limites de détection est établie de manière distincte à partir des queues des distributions droite et gauche. Une première estimation par entité géographique élémentaire est réalisée afin de déterminer un niveau de troncature adéquat. Une classification spatiale permet ensuite de créer des groupes dentités homogènes contiguës, de manière à estimer des valeurs limites robustes basées sur un nombre dobservations optimal.
|
586 |
IRM de diffusion du Q-space : Acquisition et pré-traitementsCaruyer, Emmanuel 18 July 2012 (has links) (PDF)
Le but général de cette thèse est de proposer de nouvelles méthodes d'acquisition et de traitement du signal en imagerie par résonance magnétique (IRM) de diffusion, dans le but d'ouvrir de nouvelles perspectives dans la reconstruction de la structure de la matière blanche \emph{in vivo}. L'IRM de diffusion est une technique d'imagerie non invasive qui mesure localement, en chaque voxel, la diffusion des molécules d'eau. Le déplacement de ces dernières étant contraint par la présence de tissus, le fait de pouvoir caractériser la diffusion des molécules d'eau apporte des informations sur la nature, l'orientation, la microstructure des tissus biologiques sous-jacents. La forte anisotropie observée dans la matière blanche fait de l'IRM de diffusion un outil privilégié pour l'étude de la connectivité cérébrale. Une des premières techniques d'acquisition et de reconstruction, appelée IRM du tenseur de diffusion, est maintenant utilisée de manière routinière en clinique, pour le diagnostique de certaines maladies neurologiques, ou encore en planification préopératoire. L'IRM du tenseur de diffusion repose sur un modèle de diffusion gaussien cependant, qui est limité quand il s'agit de décrire des configurations de tissus complexes à l'intérieur d'un voxel, par exemple quand plusieurs faisceaux de fibres se croisent. Dès lors, on a cherché ces dernières années à développer des techniques qui ne reposent pas sur un modèle a priori, afin de décrire de manière plus précise le déplacement des molécules d'eau, et dépasser les limitations du modèle tensoriel. La plupart de ces techniques, dites à haute résolution angulaire, sollicitent un temps d'acquisition généralement long, et mettent en jeu des problèmes de reconstruction non triviaux. Dans la première partie de cette thèse, nous décrivons la structure microscopique des tissus de la matière blanche du cerveau, et présentons la physique de formation des images en IRM de diffusion. Nous faisons un état de l'art des méthodes de reconstruction, et des techniques d'acquisition proposées à ce jour. En ce qui concerne les méthodes de reconstruction, nous faisons la distinction suivant qu'elles soient basées sur un modèle ou non. La première contribution de cette thèse est liée à la reconstruction paramétrique du signal de diffusion dans une base de fonctions continues. Cette contribution fait suite à une méthode proposée récemment, appelée transformée de Fourier sphérique, et y apporte une modification pour une reconstruction continue. Nous réduisons de façon significative la dimension de la base, tout en décrivant aussi bien le signal de diffusion. Nous donnons également l'expression de l'opérateur de régularisation de Laplace en fonction des coefficients dans cette base, afin de limiter l'impact du bruit sur la reconstruction. La seconde contribution est également liée à la reconstruction du signal de diffusion, et à la fonction de distribution d'orientation, dans un contexte d'application clinique. Nous proposons une méthode de reconstruction en temps réel basée sur le filtre de Kalman pour la probabilité marginale de diffusion angulaire. Nous développons un algorithme pour détecter les mouvements du patient, de façon précise et avec une grande sensibilité, et ce sans surcoût, comparé aux systèmes utilisant une camera et des algorithmes de vision robotique. Les deux dernières contributions présentées dans cette thèse sont liées aux techniques d'acquisition en IRM de diffusion, en particulier pour l'élaboration de schémas d'acquisition sur une ou plusieurs sphères dans l'espace de Fourier. Nous présentons d'abord une méthode géométrique pour placer des points dans l'espace de Fourier sur plusieurs sphères, en optimisant la couverture angulaire sur chacune des sphères, mais également de façon globale. Puis nous cherchons à établir un lien entre le schéma d'acquisition et la base de fonctions utilisée pour la reconstruction, et nous proposons en particulier une méthode pour élaborer un protocole d'acquisition qui permette de minimiser le nombre de conditionnement, pour la reconstruction dans la base des harmoniques sphériques, et dans la base de Fourier sphérique modifiée, proposée dans cette thèse. En conclusion de cette étude sur l'acquisition, nous pensons que l'élaboration du schéma d'échantillonnage doit être motivée à la fois pour répondre aux contraintes physiques du scanner, et par le choix de la base dans laquelle le signal sera reconstruit. Ces nouveaux schémas d'échantillonnage sont disponibles au téléchargement sur mon site internet.
|
587 |
Mise en Correspondance Robuste et Détection d'Éléments Visuels Appliquées à l'Analyse de FaçadesOk, David 25 March 2013 (has links) (PDF)
Depuis quelques années, avec l'émergence de larges bases d'images comme Google Street View, la capacité à traiter massivement et automatiquement des données, sou- vent très contaminées par les faux positifs et massivement ambiguës, devient un enjeu stratégique notamment pour la gestion de patrimoine et le diagnostic de l'état de façades de bâtiment. Sur le plan scientifique, ce souci est propre à faire avancer l'état de l'art dans des problèmes fondamentaux de vision par ordinateur. Notamment, nous traitons dans cette thèse les problèmes suivants: la mise en correspondance robuste, algorithmiquement efficace de caractéristiques visuelles et l'analyse d'images de façades par grammaire. L'enjeu est de développer des méthodes qui doivent également être adaptées à des problèmes de grande échelle. Tout d'abord, nous proposons une formalisation mathématique de la cohérence géométrique qui joue un rôle essentiel pour une mise en correspondance robuste de caractéristiques visuelles. À partir de cette formalisation, nous en dérivons un algo- rithme de mise en correspondance qui est algorithmiquement efficace, précise et robuste aux données fortement contaminées et massivement ambiguës. Expérimentalement, l'algorithme proposé se révèle bien adapté à des problèmes de mise en correspondance d'objets déformés, et à des problèmes de mise en correspondance précise à grande échelle pour la calibration de caméras. En s'appuyant sur notre algorithme de mise en correspondance, nous en dérivons ensuite une méthode de recherche d'éléments répétés, comme les fenêtres. Celle-ci s'avère expérimentalement très efficace et robuste face à des conditions difficiles comme la grande variabilité photométrique des éléments répétés et les occlusions. De plus, elle fait également peu d'hallucinations. Enfin, nous proposons des contributions méthodologiques qui exploitent efficacement les résultats de détections d'éléments répétés pour l'analyse de façades par grammaire, qui devient substantiellement plus précise et robuste.
|
588 |
Les quadriconsonantiques dans le lexique de l'arabeBachmar, Karim 25 November 2011 (has links) (PDF)
La thèse se répartit en deux tomes. Les quadriconsonantiques forment deux groupes de radicaux distincts, à savoir : les radicaux de forme ABAB et les radicaux de forme ABCD. L'analyse de ces radicaux, en appliquant la TME (Théorie, Matrice, Etymon) élaborée par G. Bohas, permet de définir leur fonctionnement aux plans sémantique, sémantico phonétique et structurel. La première partie Tome 1 analyse les quadriconsonantiques de forme ABAB. La deuxième partie Tome 2 est consacrée aux quadriconsonantiques de forme ABCD.Concernant les radicaux ABAB, dont la structure est issue d'un redoublement de l'unique étymon AB, le travail d'analyse va plus s'orienter sur la sémantique. Il est démontré que le redoublement ne s'accompagne pas d'une modification sémantique systématique, contrairement à ce que l'on observe dans les parlers d'orient et d'occident.La deuxième partie de la thèse, Tome 2, dans les mêmes conditions que précédemment, étudie les radicaux ABCD dans le cadre de la TME en prenant en compte la contrainte phonétique formulée par Angoujard (1997), notée : CPA. L'objectif est de déterminer leur mode de fonctionnement tant sur le plan structurel que sur le plan sémantico phonétique. L'étude de ces radicaux ABCD ne se limite pas uniquement à montrer le fonctionnement structurel des radicaux mais établit une relation entre la TME de Bohas et la CPA d'Angoujard.
|
589 |
CONTRIBUTION A L'ETUDE DE LA FIABILITE DES OXYDES MINCES DANS LES STRUCTURES MOSGoguenheim, Didier 23 January 2006 (has links) (PDF)
Ce manuscrit expose des travaux effectués entre 1994 et 2004 sur la fiabilité des composants à base de structures MOS et la fiabilité des oxydes ultra-minces de SiO2 (<10nm) utilisés comme isolant de grille dans ces composants. Nous avons établi un lien entre courants de fuite dans l'oxyde (SILC) et injection de porteurs chauds, principalement les trous chauds, dans les oxydes de 3.8 et 4.7nm. La dépendance en champ et en température du SILC soutient un modèle d'effet tunnel assisté par des défauts neutres barycentriques dans l'oxyde, même si une composante partielle de type Schottky est identifiable. Pour les claquages de type Soft-breakdown relevés, nous avons proposé un modèle simple, fondé sur un rétrécissement local de l'épaisseur d'oxyde. Le phénomène LVSILC, typique de la structure MOS en déplétion, est mis en évidence suite à des stress à tension constante pour des oxydes entre 2.5 et 1.2 nm. Nous proposons de l'interpréter comme un effet tunnel assisté par des niveaux proches des bandes de conduction ou de valence de la densité d'états d'interface. Les mécanismes de génération sont principalement déterminés par l'énergie des porteurs injectés (y compris dans le cas d'injections de porteurs chauds), et génèrent une loi d'accélération en VG pour le vieillissement en mode tunnel direct. On établit une loi générale, donnant la probabilité de création de défauts en fonction des paramètres qui déterminent l'énergie des porteurs injectés. <br />Nos études sur les porteurs chauds nous ont aussi amené à étudier la fiabilité de transistor MOSFET lors de contraintes dynamiques (AC), caractéristiques des séquences de polarisation en mode normal de fonctionnement. Le résultat pratique de ce travail est la mise en oeuvre d'une méthodologie s'inspirant de l'hypothèse quasi-statique pour la prévision des durées de vie AC. Cette méthodologie, éprouvée et comparée aux résultats de mesure dans un certains nombre de cas où sa validité est reconnue, est appliquée au cas plus complexe du transistor de passage NMOS. L'accord reste satisfaisant, mais nous avons également mis en évidence les limitations de cette technique lors de séquences faisant intervenir des relaxations, des périodes de dépiégegage ou des dégradations bi-directionnelles.<br />Concernant le lien entre les étapes du procédé et la fiabilité, nous avons étudié l'influence d'une étape d'implantation ionique à haute énergie, qui induit un dégât dans le volume du semi-conducteur détecté électriquement par C(V), mais aussi des courants de fuite similaires au SILC (IILC Implantation Induced Leakage Current). Nous avons mis au point une méthodologie optimisée de détection du Wafer Charging, utilisant des injections très courtes de porteurs chauds (au pic de courant électronique) dans le transistor PMOS. Cette méthode s'est révélée plus sensible et plus révélatrice que les injections pratiquées en régime Fowler-Nordheim ou la simple étude paramétrique pour détecter les défauts latents issus du charging dans les oxydes minces. Enfin, nous avons identifié par DLTS les défauts issus d'une contamination au Fer dans le Silicium (paire Fe-B et Fer interstitiel Fei) et avons observé la re-transformation spontanée du Fei en paire Fe-B en quelques heures.
|
590 |
MODELISATION NUMERIQUE DE L'EROSION D'UN SOL COHESIF PAR UN ECOULEMENT TURBULENTMercier, F. 11 June 2013 (has links) (PDF)
Les mécanismes d'érosion sont la principale cause de rupture des ouvrages hydrauliques en remblai, c'est pourquoi il est capital de pouvoir quantifier la résistance des sols à l'érosion. Divers appareillages permettent d'en obtenir une estimation, notamment le Jet Erosion Test (JET) dont le modèle d'interprétation est empirique. L'objectif de ce travail est de statuer sur la pertinence du modèle d'interprétation du JET. Pour cela, nous avons développé un modèle numérique 2D de type Navier-Stokes turbulent avec déplacement d'interface et remaillage, permettant de modéliser l'érosion d'un sol cohésif par un écoulement turbulent. En injectant dans notre modèle les paramètres d'érosion trouvés à la suite d'essais de JET, on retrouve numériquement l'évolution de la profondeur d'affouillement obtenue expérimentalement. Nous avons appliqué cette méthode à trois différents essais de JET, les résultats obtenus sont en bon accord avec les résultats expérimentaux. En plus d'une importante étude paramétrique, ces résultats ont permis d'apporter d'importants éléments de validation au modèle d'interprétation du JET. Pour étendre le champ d'applicabilité du modèle, nous avons également appliqué cette méthode de modélisation à la configuration de l'érosion de conduit. Trois essais de Hole Erosion Test (HET) ont été modélisés et nous avons également obtenus des résultats en bon accord avec les résultats expérimentaux. Une analyse de la loi d'érosion et des paramètres d'érosion obtenus à la suite d'essais de JET et de HET a ensuite été initiée. Les bases d'une étude portant sur l'influence de l'angle d'incidence de l'écoulement, sur l'efficacité de l'érosion, ont été posées.
|
Page generated in 0.0719 seconds