• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 1
  • Tagged with
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Exploitation d'infrastructures hétérogènes de calcul distribué pour la simulation Monte-Carlo dans le domaine médical / Exploiting Heterogeneous Distributed Systems for Monte-Carlo Simulations in the Medical Field

Pop, Sorina 21 October 2013 (has links)
Les applications Monte-Carlo sont facilement parallélisables, mais une parallélisation efficace sur des grilles de calcul est difficile à réaliser. Des stratégies avancées d'ordonnancement et de parallélisation sont nécessaires pour faire face aux taux d'erreur élevés et à l'hétérogénéité des ressources sur des architectures distribuées. En outre, la fusion des résultats partiels est également une étape critique. Dans ce contexte, l'objectif principal de notre travail est de proposer de nouvelles stratégies pour une exécution plus rapide et plus fiable des applications Monte-Carlo sur des grilles de calcul. Ces stratégies concernent à la fois le phase de calcul et de fusion des applications Monte-Carlo et visent à être utilisées en production. Dans cette thèse, nous introduisons une approche de parallélisation basée sur l'emploi des tâches pilotes et sur un nouvel algorithme de partitionnement dynamique. Les résultats obtenus en production sur l'infrastructure de grille européenne (EGI) en utilisant l'application GATE montrent que l'utilisation des tâches pilotes apporte une forte amélioration par rapport au système d'ordonnancement classique et que l'algorithme de partitionnement dynamique proposé résout le problème d'équilibrage de charge des applications Monte-Carlo sur des systèmes distribués hétérogènes. Puisque toutes les tâches finissent presque simultanément, notre méthode peut être considérée comme optimale à la fois en termes d'utilisation des ressources et de temps nécessaire pour obtenir le résultat final (makespan). Nous proposons également des stratégies de fusion avancées avec plusieurs tâches de fusion. Une stratégie utilisant des sauvegardes intermédiaires de résultat (checkpointing) est utilisée pour permettre la fusion incrémentale à partir des résultats partiels et pour améliorer la fiabilité. Un modèle est proposé pour analyser le comportement de la plateforme complète et aider à régler ses paramètres. Les résultats expérimentaux montrent que le modèle correspond à la réalité avec une erreur relative de 10% maximum, que l'utilisation de plusieurs tâches de fusion parallèles réduit le temps d'exécution total de 40% en moyenne, que la stratégie utilisant des sauvegardes intermédiaires permet la réalisation de très longues simulations sans pénaliser le makespan. Pour évaluer notre équilibrage de charge et les stratégies de fusion, nous mettons en œuvre une simulation de bout-en-bout de la plateforme décrite ci-dessus. La simulation est réalisée en utilisant l'environnement de simulation SimGrid. Les makespan réels et simulés sont cohérents, et les conclusions tirées en production sur l'influence des paramètres tels que la fréquence des sauvegardes intermédiaires et le nombre de tâches de fusion sont également valables en simulation. La simulation ouvre ainsi la porte à des études paramétriques plus approfondies. / Particle-tracking Monte-Carlo applications are easily parallelizable, but efficient parallelization on computing grids is difficult to achieve. Advanced scheduling strategies and parallelization methods are required to cope with failures and resource heterogeneity on distributed architectures. Moreover, the merging of partial simulation results is also a critical step. In this context, the main goal of our work is to propose new strategies for a faster and more reliable execution of Monte-Carlo applications on computing grids. These strategies concern both the computing and merging phases of Monte-Carlo applications and aim at being used in production. In this thesis, we introduce a parallelization approach based on pilots jobs and on a new dynamic partitioning algorithm. Results obtained on the production European Grid Infrastructure (EGI) using the GATE application show that pilot jobs bring strong improvement w.r.t. regular metascheduling and that the proposed dynamic partitioning algorithm solves the load-balancing problem of particle-tracking Monte-Carlo applications executed in parallel on distributed heterogeneous systems. Since all tasks complete almost simultaneously, our method can be considered optimal both in terms of resource usage and makespan. We also propose advanced merging strategies with multiple parallel mergers. Checkpointing is used to enable incremental result merging from partial results and to improve reliability. A model is proposed to analyze the behavior of the complete framework and help tune its parameters. Experimental results show that the model fits the real makespan with a relative error of maximum 10%, that using multiple parallel mergers reduces the makespan by 40% on average, that checkpointing enables the completion of very long simulations and that it can be used without penalizing the makespan. To evaluate our load balancing and merging strategies, we implement an end-to-end SimGrid-based simulation of the previously described framework for Monte-Carlo computations on EGI. Simulated and real makespans are consistent, and conclusions drawn in production about the influence of application parameters such as the checkpointing frequency and the number of mergers are also made in simulation. These results open the door to better and faster experimentation. To illustrate the outcome of the proposed framework, we present some usage statistics and a few examples of results obtained in production. These results show that our experience in production is significant in terms of users and executions, that the dynamic load balancing can be used extensively in production, and that it significantly improves performance regardless of the variable grid conditions.
2

Positionnement automatique de points de repère anatomiques pour la plannification chirurgicale / Automatic positionning of anatomical landmarks for chirurgical planification

Jacinto, Hector 15 September 2015 (has links)
Les chirurgiens orthopédistes utilisent actuellement des guides de coupes adaptés à chaque patient afin d’effectuer l’opération d’arthroplastie totale du genou. Notamment, l’intervention chirurgicale est préparée grâce à des outils de planification où le chirurgien peut manipuler des images virtuelles du patient, construites à partir d’une imagerie médicale préopératoire. Des points de repère anatomiques permettent d’effectuer plusieurs mesures sur la jambe virtuelle afin de contrôler le positionnement des guides de coupes personnalisés par rapport aux modèles 3-D des os du genou. Nous proposons une méthode multi-atlas pour le positionnement automatique des points anatomiques pré-définis sur les maillages surfaciques modélisant le fémur et le tibia du patient. Nous exploitons un groupe d’atlas (exemples expert) constitué de plusieurs maillages triangulaires pour lesquels les points anatomiques définis ont été placés par des experts. Nous transférons les points anatomiques d’un exemple expert vers le maillage patient à travers le calcul d’un recalage global initial avec l’algorithme Iterative Closest Point (ICP) où une contrainte de courbure est utilisée en tant que dimension supplémentaire de façon à améliorer la robustesse du recalage. Des recalages locaux rigides permettent d’affiner l’adaptation pour la projection des points anatomiques sur la surface du maillage patient. Après avoir traité le maillage patient avec le groupe d’atlas, nous générons une position définitive pour chaque point de repère anatomique en utilisant une sélection automatique du jeu des meilleurs points transférés. Nous avons développé un environnement informatique accessible via internet pour la construction des modèles 3-D des os du genou du patient. Notre méthode de positionnement automatique des points de repère anatomiques est mise en œuvre sur ce système. Nous comparons notre positionnement automatique avec le positionnement manuel par des opérateurs expérimentés ainsi qu’avec des résultats rapportés dans les travaux des publications scientifiques du domaine. / Nowadays, orthopedic surgeons utilize patient-specific systems based on custom cutting guides for total knee arthroplasty. Particularly, the chirurgical operation is prepared by using planning tools where the surgeon can manipulate virtual images of the patient, built from pre-surgical medical images. Identified anatomical landmarks provide various measurements on the virtual lower limb allowing to control the positioning of the cutting guides relative to the 3-D models of the knee bones. We propose a multi-atlas method for the automatic positioning of the pre-defined landmarks on the surface of the models of the femur and the tibia of the patient. We exploit a group of atlases (expert examples) consisting of multiple triangular meshes for which the defined landmarks have been placed by experts. We transfer identified landmarks from an expert example to the patient mesh by computing an initial coarse global registration with an Iterative Closest Point (ICP) algorithm where a curvature constraint serves as a supplementary dimension in order to improve robustness. Adaptive local rigid registrations refine the fit for the projection of reference landmarks onto the surface of the patient mesh. After the patient mesh has been processed with the group of atlases, we compute a definite position for each landmark using an automatic selection of a set of best transferred landmarks. We developed a Web framework for the construction of the 3-D models of the bones of the patient. Our positioning method is implemented in this system. We compare our positioning method against the manual positioning of trained operators and against the results of published scientific works on the domain.
3

Etude de la méthode de Boltzmann sur réseau pour la segmentation d'anévrismes cérébraux / Study of the lattice Boltzmann method application to cerebral aneurysm segmentation

Wang, Yan 25 July 2014 (has links)
L'anévrisme cérébral est une région fragile de la paroi d'un vaisseau sanguin dans le cerveau, qui peut se rompre et provoquer des saignements importants et des accidents vasculaires cérébraux. La segmentation de l'anévrisme cérébral est une étape primordiale pour l'aide au diagnostic, le traitement et la planification chirurgicale. Malheureusement, la segmentation manuelle prend encore une part importante dans l'angiographie clinique et elle est devenue couteuse en temps de traitement étant donné la gigantesque quantité de données générées par les systèmes d'imagerie médicale. Les méthodes de segmentation automatique d'image constituent un moyen essentiel pour faciliter et accélérer l'examen clinique et pour réduire l'interaction manuelle et la variabilité inter-opérateurs. L'objectif principal de ce travail de thèse est de développer des méthodes automatiques pour la segmentation et la mesure des anévrismes. Le présent travail de thèse est constitué de trois parties principales. La première partie concerne la segmentation des anévrismes géants qui contiennent à la fois la lumière et le thrombus. La méthode consiste d'abord à extraire la lumière et le thrombus en utilisant une procédure en deux étapes, puis à affiner la forme du thrombus à l'aide de la méthode des courbes de niveaux. Dans cette partie, la méthode proposée est également comparée à la segmentation manuelle, démontrant sa bonne précision. La deuxième partie concerne une approche LBM pour la segmentation des vaisseaux dans des images 2D+t et de l'anévrisme cérébral dans les images en 3D. La dernière partie étudie un modèle de segmentation 4D en considérant les images 3D+t comme un hypervolume 4D et en utilisant un réseau LBM D4Q81, dans lequel le temps est considéré de la même manière que les trois autres dimensions pour la définition des directions de mouvement des particules dans la LBM, considérant les données 3D+t comme un hypervolume 4D et en utilisant un réseau LBM D4Q81. Des expériences sont réalisées sur des images synthétiques d'hypercube 4D et d'hypersphere 4D. La valeur de Dice sur l'image de l'hypercube avec et sans bruit montre que la méthode proposée est prometteuse pour la segmentation 4D et le débruitage. / Cerebral aneurysm is a fragile area on the wall of a blood vessel in the brain, which can rupture and cause major bleeding and cerebrovascular accident. The segmentation of cerebral aneurysm is a primordial step for diagnosis assistance, treatment and surgery planning. Unfortunately, manual segmentation is still an important part in clinical angiography but has become a burden given the huge amount of data generated by medical imaging systems. Automatic image segmentation techniques provides an essential way to easy and speed up clinical examinations, reduce the amount of manual interaction and lower inter operator variability. The main purpose of this PhD work is to develop automatic methods for cerebral aneurysm segmentation and measurement. The present work consists of three main parts. The first part deals with giant aneurysm segmentation containing lumen and thrombus. The methodology consists of first extracting the lumen and thrombus using a two-step procedure based on the LBM, and then refining the shape of the thrombus using level set technique. In this part the proposed method is also compared with manual segmentation, demonstrating its good segmentation accuracy. The second part concerns a LBM approach to vessel segmentation in 2D+t images and to cerebral aneurysm segmentation in 3D medical images through introducing a LBM D3Q27 model, which allows achieving a good segmentation and high robustness to noise. The last part investigates a true 4D segmentation model by considering the 3D+t data as a 4D hypervolume and using a D4Q81 lattice in LBM where time is considered in the same manner as for other three dimensions for the definition of particle moving directions in the LBM model.
4

Non-linear dimensionality reduction and sparse representation models for facial analysis / Réduction de la dimension non-linéaire et modèles de la représentations parcimonieuse pour l’analyse du visage

Zhang, Yuyao 20 February 2014 (has links)
Les techniques d'analyse du visage nécessitent généralement une représentation pertinente des images, notamment en passant par des techniques de réduction de la dimension, intégrées dans des schémas plus globaux, et qui visent à capturer les caractéristiques discriminantes des signaux. Dans cette thèse, nous fournissons d'abord une vue générale sur l'état de l'art de ces modèles, puis nous appliquons une nouvelle méthode intégrant une approche non-linéaire, Kernel Similarity Principle Component Analysis (KS-PCA), aux Modèles Actifs d'Apparence (AAMs), pour modéliser l'apparence d'un visage dans des conditions d'illumination variables. L'algorithme proposé améliore notablement les résultats obtenus par l'utilisation d'une transformation PCA linéaire traditionnelle, que ce soit pour la capture des caractéristiques saillantes, produites par les variations d'illumination, ou pour la reconstruction des visages. Nous considérons aussi le problème de la classification automatiquement des poses des visages pour différentes vues et différentes illumination, avec occlusion et bruit. Basé sur les méthodes des représentations parcimonieuses, nous proposons deux cadres d'apprentissage de dictionnaire pour ce problème. Une première méthode vise la classification de poses à l'aide d'une représentation parcimonieuse active (Active Sparse Representation ASRC). En fait, un dictionnaire est construit grâce à un modèle linéaire, l'Incremental Principle Component Analysis (Incremental PCA), qui a tendance à diminuer la redondance intra-classe qui peut affecter la performance de la classification, tout en gardant la redondance inter-classes, qui elle, est critique pour les représentations parcimonieuses. La seconde approche proposée est un modèle des représentations parcimonieuses basé sur le Dictionary-Learning Sparse Representation (DLSR), qui cherche à intégrer la prise en compte du critère de la classification dans le processus d'apprentissage du dictionnaire. Nous faisons appel dans cette partie à l'algorithme K-SVD. Nos résultats expérimentaux montrent la performance de ces deux méthodes d'apprentissage de dictionnaire. Enfin, nous proposons un nouveau schéma pour l'apprentissage de dictionnaire adapté à la normalisation de l'illumination (Dictionary Learning for Illumination Normalization: DLIN). L'approche ici consiste à construire une paire de dictionnaires avec une représentation parcimonieuse. Ces dictionnaires sont construits respectivement à partir de visages illuminées normalement et irrégulièrement, puis optimisés de manière conjointe. Nous utilisons un modèle de mixture de Gaussiennes (GMM) pour augmenter la capacité à modéliser des données avec des distributions plus complexes. Les résultats expérimentaux démontrent l'efficacité de notre approche pour la normalisation d'illumination. / Face analysis techniques commonly require a proper representation of images by means of dimensionality reduction leading to embedded manifolds, which aims at capturing relevant characteristics of the signals. In this thesis, we first provide a comprehensive survey on the state of the art of embedded manifold models. Then, we introduce a novel non-linear embedding method, the Kernel Similarity Principal Component Analysis (KS-PCA), into Active Appearance Models, in order to model face appearances under variable illumination. The proposed algorithm successfully outperforms the traditional linear PCA transform to capture the salient features generated by different illuminations, and reconstruct the illuminated faces with high accuracy. We also consider the problem of automatically classifying human face poses from face views with varying illumination, as well as occlusion and noise. Based on the sparse representation methods, we propose two dictionary-learning frameworks for this pose classification problem. The first framework is the Adaptive Sparse Representation pose Classification (ASRC). It trains the dictionary via a linear model called Incremental Principal Component Analysis (Incremental PCA), tending to decrease the intra-class redundancy which may affect the classification performance, while keeping the extra-class redundancy which is critical for sparse representation. The other proposed work is the Dictionary-Learning Sparse Representation model (DLSR) that learns the dictionary with the aim of coinciding with the classification criterion. This training goal is achieved by the K-SVD algorithm. In a series of experiments, we show the performance of the two dictionary-learning methods which are respectively based on a linear transform and a sparse representation model. Besides, we propose a novel Dictionary Learning framework for Illumination Normalization (DL-IN). DL-IN based on sparse representation in terms of coupled dictionaries. The dictionary pairs are jointly optimized from normally illuminated and irregularly illuminated face image pairs. We further utilize a Gaussian Mixture Model (GMM) to enhance the framework's capability of modeling data under complex distribution. The GMM adapt each model to a part of the samples and then fuse them together. Experimental results demonstrate the effectiveness of the sparsity as a prior for patch-based illumination normalization for face images.

Page generated in 0.0379 seconds