Spelling suggestions: "subject:"béatrice dde sensibilité"" "subject:"béatrice dee sensibilité""
1 |
Identification de lois de comportement enrichie pour les géomatériaux en présence d'une localisation de la déformation / Identification of enriched constitutive models for geomaterials in the presence of strain localizationMoustapha, Khadijetou El 23 April 2014 (has links)
Modéliser la localisation de la déformation dans les géomatériaux de manière objective nécessite l'utilisation de méthodes capables de régulariser le problème aux limites en introduisant une longueur caractéristique. Dans le cadre de ce travail de thèse, nous avons choisis d'utiliser les milieux à microstructures de types second gradient. Une question, alors se pose quant à l'identification des paramètres constitutifs qui interviennent dans la formulation de ces milieux. L'objectif de cette thèse est de mettre en place une méthode d'identification d'une loi de comportement enrichie de type second gradient. L'identification paramétrique d'une loi constitutive écrite dans un formalisme de milieu enrichi de type second gradient local est étudiée. Une partie de l'identification peut-être réalisée à partir d'essais homogènes, mais l'identification complète nécessite de considérer des modes de déformation à forts gradients, comme cela est le cas en présence d'une localisation de la déformation. La procédure d'identification développée s'appuie sur des résultats expérimentaux d'essais mécaniques sur le grès de Vosges, pour lesquels le mode de déformation des échantillons a été caractérisé à l'aide de mesures de champs cinématiques, y compris en régime localisé. Un certain nombre d'observables peuvent être extraits de ces essais, qui servent à appuyer la comparaison entre calculs numériques et observations expérimentales. L'identification nécessite le calcul d'une matrice de sensibilité pour l'optimisation des observables. Afin de calculer cette matrice, deux études de sensibilité sont effectuées. Ces études consistent à évaluer l'influence de la variation de chaque paramètre constitutif sur les données sélectionnées. La première étude de sensibilité porte sur la partie homogène des essais, elle permet l'optimisation d'un certain nombre de paramètres qui jouent un rôle uniquement dans cette partie. La deuxième étude concerne le régime de déformation localisé. Celle-ci permet le calcul de la matrice de sensibilité. Grâce à cette matrice, il est possible de démarrer l'optimisation des observables. Ainsi, chaque observable pourra être optimisé indépendamment des autres. A l'issue de cette optimisation un jeu de paramètre est proposé. Il permet de reproduire de manière fiable, les essais expérimentaux à 20 et 30 MPa de confinement. / The strain localisation modelling of geomaterials requires the use of enhanced models, able to regularise the boundary value problem, by introducing a characteristic length. In this research work, we have chosen to use second gradient models. A question then arises, concerning the identification of second gradient constitutive parameters. This PhD research work aimed to develop an identification method to obtain theses parameters. The study proposed here covers a parametric identification of a constitutive law written in the local second gradient formalism. A part of this identification may be performed through homogenous tests, however the complete identification requires the consideration of high gradient deformation modes, as it is the case where localized deformation is observed. The identification procedure developed uses experimental results from mechanical tests on Vosges sandstone, for which the deformation mode was characterised by kinematic field measurement, including the localized regime. A certain number of observable data can be extracted from these tests, they are then used for the comparison between experimental and numerical data. It is necessary to compute the sensitivity matrix in order to optimise the observables data. In this sense, two sensitivity studies have been carried out, allowing the evaluation of the influence of each constitutive parameter on the selected data. This first analyse concern the homogenous part of the tests. Constitutive parameters involved in this part can be then optimized. The second analyse concerns the localized regime and the sensitivity matrix computation. Once this is achieved, the optimization of the observable data can be conducted. Each observable data can be optimised independently. A set of constitutive parameters is proposed. It allows a good matching between experimental and numerical results at two confining pressures ; 20 and 30 MPa.
|
2 |
Réglage Coordonné de Tension dans les Réseaux de Distribution à l'aide de la Production DécentraliséeRichardot, Olivier 10 October 2006 (has links) (PDF)
Réglage Coordonné de Tension dans les Réseaux de Distribution à l'aide de la Production Décentralisée<br />Les réseaux électriques français et européen connaissent depuis quelques années de profondes mutations dues à des bouleversements à l'échelle internationale des politiques énergétiques. Celles-ci conduisent aujourd'hui à une accélération du phénomène d'insertion de production décentralisée d'électricité, généralement désignée sous le terme de "génération d'énergie dispersée", ou GED, dans les réseaux de distribution. Dans cette thèse, une analyse des méthodes de réglage de tension existantes au niveau du réseau de transport, ainsi que des moyens de réglage actuels dans les réseaux de distribution, est à l'origine du développement d'un nouveau système de réglage coordonné de tension pour les réseaux de distribution (D-RCT) utilisant les GED. Ce réglage, basé sur la mutualisation des capacités individuelles des GED, permet de réguler la tension de certains nœuds stratégiques du réseau dénommés "nœuds pilotes" par une gestion optimale de l'énergie réactive. Cette gestion, qui repose sur une optimisation multi objectifs des consignes de tension des GED à l'aide de matrices de sensibilité, présente l'avantage de soulager l'action de réglage de tension du réseau de transport en limitant les transits de puissance réactive entre le transport et la distribution. La validation du D-RCT par application sur un réseau test et par une série d'études paramétriques, ainsi qu'une comparaison avec un réglage local auto – adaptatif, laissent entrevoir la possibilité d'une nouvelle stratégie de réglage de tension hybride.
|
3 |
Identification d'une loi de comportement enrichie pour les géomatériaux en présence d'une localisation de la déformationEl Moustapha, Khadijatou 23 April 2014 (has links) (PDF)
Modéliser la localisation de la déformation dans les géomatériaux de manière objective nécessite l'utilisation de méthodes capables de régulariser le problème aux limites en introduisant une longueur caractéristique. Dans le cadre de ce travail de thèse, nous avons choisi d'utiliser les milieux à microstructures de types second gradient. Une question, se pose alors quant à l'identification des paramètres constitutifs qui interviennent dans la formulation de ces milieux. L'objectif de cette thèse est de mettre en place une méthode d'identification d'une loi de comportement enrichie de type second gradient. Une partie de l'identification a été réalisée à partir d'essais homogènes, cependant l'identification complète nécessite de considérer des modes de déformation à forts gradients, comme cela est le cas en présence d'une localisation de la déformation. La procédure d'identification développée s'appuie sur des résultats expérimentaux d'essais mécaniques sur le grès de Vosges conduits à deux confinements différents (20 et 30 MPa), pour lesquels le mode de déformation des échantillons a été caractérisé à l'aide de mesures de champs cinématiques (corrélation d'image), y compris en régime localisé. Un certain nombre d'observables ont été extraits de ces essais, qui ont servi à établir la comparaison entre calculs numériques et observations expérimentales. Une étude de sensibilité exhaustive a été menée pour établir une matrice de sensibilité utile par la suite pour l'optimisation des observables. Afin de calculer cette matrice, deux études de sensibilité sont effectuées. Ces études consistent à évaluer l'influence de la variation de chaque paramètre constitutif sur les données sélectionnées. La première étude de sensibilité porte sur la partie homogène des essais, elle permet l'optimisation d'un certain nombre de paramètres qui jouent un rôle uniquement dans cette partie. La deuxième étude concerne le régime de déformation localisé. Celle-ci permet le calcul de la matrice de sensibilité. Grâce à cette matrice, nous avons réalisé une optimisation des observables. Ainsi, chaque observable pourra être optimisé indépendamment des autres. A l'issue de cette optimisation un jeu de paramètre est proposé. Il permet de reproduire de manière fiable, les essais expérimentaux.
|
4 |
Les algorithmes de haute résolution en tomographie d'émission par positrons : développement et accélération sur les cartes graphiquesNassiri, Moulay Ali 05 1900 (has links)
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul.
Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP.
Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes :
- Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement.
- Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées.
Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies. / Positron emission tomography (PET) is a molecular imaging modality that uses radiotracers labeled with positron emitting isotopes in order to quantify many biological processes. The clinical applications of this modality are largely in oncology, but it has a potential to be a reference exam for many diseases in cardiology, neurology and pharmacology. In fact, it is intrinsically able to offer the functional information of cellular metabolism with a good sensitivity. The principal limitations of this modality are the limited spatial resolution and the limited accuracy of the quantification. To overcome these limits, the recent PET systems use a huge number of small detectors with better performances. The image reconstruction is also done using accurate algorithms such as the iterative stochastic algorithms. But as a consequence, the time of reconstruction becomes too long for a clinical use. So the acquired data are compressed and the accelerated versions of iterative stochastic algorithms which generally are non convergent are used to perform the reconstruction. Consequently, the obtained performance is compromised.
In order to be able to use the complex reconstruction algorithms in clinical applications for the new PET systems, many previous studies were aiming to accelerate these algorithms on GPU devices. Therefore, in this thesis, we joined the effort of researchers for developing and introducing for routine clinical use the accurate reconstruction algorithms that improve the spatial resolution and the accuracy of quantification for PET.
Therefore, we first worked to develop the new strategies for accelerating on GPU devices the reconstruction from list mode acquisition. In fact, this mode offers many advantages over the histogram-mode, such as motion correction, the possibility of using time-of-flight (TOF) information to improve the quantification accuracy, the possibility of using temporal basis functions to perform 4D reconstruction and extract kinetic parameters with better accuracy directly from the acquired data. But, one of the main obstacles that limits the use of list-mode reconstruction approach for routine clinical use is the relatively long reconstruction time. To overcome this obstacle we :
developed a new strategy to accelerate on GPU devices fully 3D list mode ordered-subset expectation-maximization (LM-OSEM) algorithm, including the calculation of the sensitivity matrix that accounts for the patient-specific attenuation and normalisation corrections. The reported reconstruction are not only compatible with a clinical use of 3D LM-OSEM algorithms, but also lets us envision fast reconstructions for advanced PET applications such as real time dynamic studies and parametric image reconstructions.
developed and implemented on GPU a multigrid/multiframe approach of an expectation-maximization algorithm for list-mode acquisitions (MGMF-LMEM). The objective is to develop new strategies to accelerate the reconstruction of gold standard LMEM (list-mode expectation-maximization) algorithm which converges slowly. The GPU-based MGMF-LMEM algorithm processed data at a rate close to one million of events per second per iteration, and permits to perform near real-time reconstructions for large acquisitions or low-count acquisitions such as gated studies.
Moreover, for clinical use, the quantification is often done from acquired data organized in sinograms. This data is generally compressed in order to accelerate reconstruction. But previous works have shown that this approach to accelerate the reconstruction decreases the accuracy of quantification and the spatial resolution. The ordered-subset expectation-maximization (OSEM) is the most used reconstruction algorithm from sinograms in clinic. Thus, we parallelized and implemented the attenuation-weighted line-of-response OSEM (AW-LOR-OSEM) algorithm which allows a PET image reconstruction from sinograms without any data compression and incorporates the attenuation and normalization corrections in the sensitivity matrices as weight factors. We compared two strategies of implementation: in the first, the system matrix (SM) is calculated on the fly during the reconstruction, while the second implementation uses a precalculated SM more accurately. The results show that the computational efficiency is about twice better for the implementation using calculated SM on-the-fly than the implementation using pre-calculated SM, but the reported reconstruction times are compatible with a clinical use for both strategies.
|
Page generated in 0.0906 seconds