• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1490
  • 473
  • 437
  • 372
  • 104
  • 76
  • 68
  • 34
  • 33
  • 32
  • 28
  • 26
  • 21
  • 18
  • 16
  • Tagged with
  • 3686
  • 1097
  • 753
  • 488
  • 460
  • 451
  • 420
  • 390
  • 389
  • 348
  • 347
  • 328
  • 324
  • 318
  • 317
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
291

A market segmentation study on electronic calculators as a household product in Hong Kong.

January 1976 (has links)
Kwan Wing Hon. / Thesis (M.B.A.)--Chinese University of Hong Kong. / Bibliography: leaves 128-129.
292

Graph based approaches for image segmentation and object tracking / Méthodes de graphe pour la segmentation d'images et le suivi d'objets dynamiques

Wang, Xiaofang 27 March 2015 (has links)
Cette thèse est proposée en deux parties. Une première partie se concentre sur la segmentation d’image. C’est en effet un problème fondamental pour la vision par ordinateur. En particulier, la segmentation non supervisée d’images est un élément important dans de nombreux algorithmes de haut niveau et de systèmes d’application. Dans cette thèse, nous proposons trois méthodes qui utilisent la segmentation d’images se basant sur différentes méthodes de graphes qui se révèlent être des outils puissants permettant de résoudre ces problèmes. Nous proposons dans un premier temps de développer une nouvelle méthode originale de construction de graphe. Nous analysons également différentes méthodes similaires ainsi que l’influence de l’utilisation de divers descripteurs. Le type de graphe proposé, appelé graphe local/global, encode de manière adaptative les informations sur la structure locale et globale de l’image. De plus, nous réalisons un groupement global en utilisant une représentation parcimonieuse des caractéristiques des superpixels sur le dictionnaire de toutes les caractéristiques en résolvant un problème de minimisation l0. De nombreuses expériences sont menées par la suite sur la base de données <Berkeley Segmentation>, et la méthode proposée est comparée avec des algorithmes classiques de segmentation. Les résultats démontrent que notre méthode peut générer des partitions visuellement significatives, mais aussi que des résultats quantitatifs très compétitifs sont obtenus en comparaison des algorithmes usuels. Dans un deuxième temps, nous proposons de travailler sur une méthode reposant sur un graphe d’affinité discriminant, qui joue un rôle essentiel dans la segmentation d’image. Un nouveau descripteur, appelé patch pondéré par couleur, est développé pour calculer le poids des arcs du graphe d’affinité. Cette nouvelle fonctionnalité est en mesure d’intégrer simultanément l’information sur la couleur et le voisinage en représentant les pixels avec des patchs de couleur. De plus, nous affectons à chaque pixel une pondération à la fois local et globale de manière adaptative afin d’atténuer l’effet trop lisse lié à l’utilisation de patchs. Des expériences approfondies montrent que notre méthode est compétitive par rapport aux autres méthodes standards à partir de plusieurs paramètres d’évaluation. Finalement, nous proposons une méthode qui combine superpixels, représentation parcimonieuse, et une nouvelle caractéristisation de mi-niveau pour décrire les superpixels. Le nouvelle caractérisation de mi-niveau contient non seulement les mêmes informations que les caractéristiques initiales de bas niveau, mais contient également des informations contextuelles supplémentaires. Nous validons la caractéristisation de mi-niveau proposée sur l’ensemble de données MSRC et les résultats de segmentation montrent des améliorations à la fois qualitatives et quantitatives par rapport aux autres méthodes standards. Une deuxième partie se concentre sur le suivi d’objets multiples. C’est un domaine de recherche très actif, qui est d’une importance majeure pour un grand nombre d’applications, par exemple la vidéo-surveillance de piétons ou de véhicules pour des raisons de sécurité ou l’identification de motifs de mouvements animaliers. / Image segmentation is a fundamental problem in computer vision. In particular, unsupervised image segmentation is an important component in many high-level algorithms and practical vision systems. In this dissertation, we propose three methods that approach image segmentation from different angles of graph based methods and are proved powerful to address these problems. Our first method develops an original graph construction method. We also analyze different types of graph construction method as well as the influence of various feature descriptors. The proposed graph, called a local/global graph, encodes adaptively the local and global image structure information. In addition, we realize global grouping using a sparse representation of superpixels’ features over the dictionary of all features by solving a l0-minimization problem. Extensive experiments are conducted on the Berkeley Segmentation Database, and the proposed method is compared with classical benchmark algorithms. The results demonstrate that our method can generate visually meaningful partitions, but also that very competitive quantitative results are achieved compared with state-of-the-art algorithms. Our second method derives a discriminative affinity graph that plays an essential role in graph-based image segmentation. A new feature descriptor, called weighted color patch, is developed to compute the weight of edges in an affinity graph. This new feature is able to incorporate both color and neighborhood information by representing pixels with color patches. Furthermore, we assign both local and global weights adaptively for each pixel in a patch in order to alleviate the over-smooth effect of using patches. The extensive experiments show that our method is competitive compared to the other standard methods with multiple evaluation metrics. The third approach combines superpixels, sparse representation, and a new midlevel feature to describe superpixels. The new mid-level feature not only carries the same information as the initial low-level features, but also carries additional contextual cue. We validate the proposed mid-level feature framework on the MSRC dataset, and the segmented results show improvements from both qualitative and quantitative viewpoints compared with other state-of-the-art methods. Multi-target tracking is an intensively studied area of research and is valuable for a large amount of applications, e.g. video surveillance of pedestrians or vehicles motions for sake of security, or identification of the motion pattern of animals or biological/synthetic particles to infer information about the underlying mechanisms. We propose a detect-then-track framework to track massive colloids’ motion paths in active suspension system. First, a region based level set method is adopted to segment all colloids from long-term videos subject to intensity inhomogeneity. Moreover, the circular Hough transform further refines the segmentation to obtain colloid individually. Second, we propose to recover all colloids’ trajectories simultaneously, which is a global optimal problem that can be solved efficiently with optimal algorithms based on min-cost/max flow. We evaluate the proposed framework on a real benchmark with annotations on 9 different videos. Extensive experiments show that the proposed framework outperforms standard methods with large margin.
293

Contributions au clustering collaboratif et à ses potentielles applications en imagerie à très haute résolution / Contributions to collaborative clustering and its potential applications on very high resolution satellite images

Sublime, Jérémie 09 November 2016 (has links)
Cette thèse présente plusieurs algorithmes développés dans le cadre du projet ANR COCLICO et contient deux axes principaux :Le premier axe concerne l'introduction d'un algorithme applicable aux images satellite à très haute résolution, qui est basé sur les champs aléatoires de Markov et qui apporte des notions sémantiques sur les clusters découverts. Cet algorithme est inspiré de l'algorithme Iterated conditional modes (ICM) et permet de faire un clustering sur des segments d'images pré-traitées. La méthode que nous proposons permet de gérer des voisinages irréguliers entre segments et d'obtenir des informations sémantiques de bas niveau sur les clusters de l'image traitée.Le second axe porte sur le développement de méthodes de clustering collaboratif applicables à autant d'algorithmes que possible, ce qui inclut les algorithmes du premier axe. La caractéristique principale des méthodes proposées dans cette thèse est leur applicabilité aux deux cas suivants : 1) plusieurs algorithmes travaillant sur les mêmes objets dans des espaces de représentation différents, 2) plusieurs algorithmes travaillant sur des données différentes ayant des distributions similaires. Les méthodes que nous proposons peuvent s'appliquer à de nombreux algorithmes comme l'ICM, les K-Moyennes, l'algorithme EM, ou les cartes topographiques (SOM et GTM). Contrairement aux méthodes précédemment proposées, notre modèle permet à des algorithmes très différents de collaborer ensemble, n'impose pas de contrainte sur le nombre de clusters recherchés et a une base mathématique solide. / This thesis presents several algorithms developed in the context of the ANR COCLICO project and contains two main axis: The first axis is concerned with introducing Markov Random Fields (MRF) based models to provide a semantic rich and suited algorithm applicable to images that are already segmented. This method is based on the Iterated Conditional Modes Algorithm (ICM algorithm) and can be applied to the segments of very high resolution (VHR) satellite pictures. Our proposed method can cope with highly irregular neighborhood dependencies and provides some low level semantic information on the clusters and their relationship within the image. The second axis deals with collaborative clustering methods developed with the goal of being applicable to as many clustering algorithms as possible, including the algorithms used in the first axis of this work. A key feature of the methods proposed in this thesis is that they can deal with either of the following two cases: 1) several clustering algorithms working together on the same data represented in different feature spaces, 2) several clustering algorithms looking for similar clusters in different data sets having similar distributions. Clustering algorithms to which these methods are applicable include the ICM algorithm, the K-Means algorithm, density based algorithms such as DB-scan, all Expectation-Maximization (EM) based algorithms such as the Self-Organizing Maps (SOM) and the Generative Topographic Mapping (GTM) algorithms. Unlike previously introduced methods, our models have no restrictions in term of types of algorithms that can collaborate together, do not require that all methods be looking for the same number of clusters, and are provided with solid mathematical foundations.
294

Connectivité anatomique des ganglions de la base : développements méthodologiques et application aux troubles moteurs / Anatomical connectivity of the basal ganglia : methodological developments and application to motor disorders

Kacem, Linda 08 July 2011 (has links)
Les dernières avancées dans le domaine de l’imagerie par résonance magnétique permettent aujourd’hui de mieux comprendre l’anatomie et le fonctionnement du cerveau humain. L’IRM s’avère d’ailleurs aujourd’hui un outil clé pour la recherche de biomarqueurs d’imagerie dans la plupart des pathologies cérébrales. Nous nous sommes intéressés dans le cadre de cette thèse à l’étude de la connectivité anatomique des noyaux gris centraux, structures impliquées dans de nombreuses boucles cortico-sous-cortico-corticales, et dont l’atteinte est à l’origine de troubles moteurs à l’instar de la maladie de Huntington, du syndrome Gilles de la Tourette et de la maladie de Parkinson. Nous avons pour cela effectué plusieurs développements méthodologiques qui permettent de segmenter les noyaux gris centraux et d’inférer leur connectivité anatomique. Tout d’abord, nous avons développé une méthode de segmentation des noyaux gris centraux à partir de différents contrastes et capable de s’adapter à des cas pathologiques présentant une forte modification de ces structures. Ensuite, nous avons développé des méthodes robustes d’analyse et de sélection des fibres reliant les différentes structures cérébrales, obtenues à l’aide de méthodes de tractographie par IRM du processus de diffusion cérébrale. Ces nouvelles méthodes de sélection présentent l’avantage de tenir compte d’a priori anatomiques, et fournissent ainsi des résultats plus proches de la réalité que les résultats obtenus dans la littérature. Nous avons également développé une méthodologie permettant de construire des cartes de connectivité surfaciques afin de projeter les connexions des noyaux gris centraux sur la surface corticale et de comparer le profil de connectivité corticale des noyaux gris au sein d’une population et entre populations. Enfin, nous avons utilisé ces outils pour étudier les modifications putatives de la connectivité anatomique des noyaux gris centraux dans la maladie de Huntington et dans le syndrome Gilles de la Tourette. / The recent advances in magnetic resonance imaging helped understanding brain anatomy and function. Today, MR imaging is a key tool for inferring imaging-based biomarkers for most neuropathologies. In this work, we focused on the anatomical connectivity of the basal ganglia which are involved in several cortico-subcortical loops and which dysfunction is the origin of motor disorders like Huntington and Parkinson diseases and Gilles de la Tourette syndrome. We developed several tools allowing the segmentation of the basal ganglia and inferring their anatomical connectivity. First, we developed a method for deep nuclei segmentation using several contrasts and that was adapted for pathological cases presenting high modifications in the morphology of these structures. Second, we developed robust methods for the analysis and the selection of the fiber tracts linking different brain structures and obtained using dMRI and tractography methods. These novel tools have the advantage of taking into account anatomical prior knowledge. Therefore the obtained results are closer to the real anatomy than those obtained using the tools available in the literature. We also developed surface connectivity maps that project the cortical connections of the deep nuclei directly on the cortical surface and that allow the comparison of the connectivity profile of the deep nuclei between different subjects and different groups. Finally, we used these tools to study the putative modifications of the anatomical connectivity of the deep nuclei in the Huntington disease and Gilles de la Tourette syndrome.
295

Where Does the Stigma Lie? : Exploring the Roles of Gender, Religion and Caste in the Indian Labor Market / Une analyse socioéconomique du genre, de la religion et de la caste sur le marché du travail indien

Seetahul, Suneha 30 November 2018 (has links)
Cette thèse propose de détecter les mécanismes par lesquels la stratification d’une société se reflète sur le marché du travail. Nous étudions pour cela le cas de l’Inde, où les disparités liées au genre, à la religion et à la caste persistent malgré des changements structurels considérables. Un premier chapitre traite des liens entre l’exclusion du marché du travail et les disparités inter-groupes. Suite à une estimation de la probabilité de non-participation sur le marché du travail, l’analyse des conséquences de l’isolement forcé des femmes sur l’éducation des enfants permet d’observer dans quelle mesure le travail est un vecteur de réduction des inégalités genrées d’éducation. Un second chapitre s’intéresse aux trajectoires de mobilités occupationnelles et de revenu entre 2005 et 2011-12. Une description détaillée de ces trajectoires et l’estimation de ces déterminants suggèrent l’absence d’un phénomène de rattrapage des groupes désavantagés sur le moyen-terme. Un troisième chapitre aborde la question de la segmentation du marché du travail dans un contexte de prédominance de l’économie informelle. Les résultats montrent l’existence d’une ségrégation occupationnelle en fonction du genre. Le quatrième chapitre propose une comparaison paramétrique et nonparamétrique des décompositions de salaire. Les écarts de salaires ne sont pas liés à une discrimination salariale pure mais plutôt à un processus de sélection et de ségrégation occupationnelle dans le cas du genre. En ce qui concerne les groupes socio-religieux, la combinaison des écarts en termes d’éducation, de népotisme et de discrimination potentielle explique les fortes disparités salariales. / This thesis aims to analyze how the stratified nature of a society translates into horizontal inequalities in the labor market. We analyze the case of urban India, where disparities among gender, religion and caste groups persist despite the country’s significant structural change. The first chapter analyzes the links between labor market exclusion and group disadvantage. After estimating the likelihood of non-participation in the labor market, we address the specific case of secluded labor by detecting its impact on children’s education. We suggest that female labor market participation is not likely to lower the educational gap for future generations. The second chapter compares the paths of labor market mobility between 2005 and 2011-12 among gender and socio-religious groups. A detailed analysis of occupational and earnings mobility, followed by the estimation of their determinants, suggest that the group-specific mobility patterns may not reflect a process of “catching-up.” The third chapter proposes an analysis of labor market segmentation in the context of a predominantly informal labor market, showing that the household business sector is relatively homogenous and that the salaried sector is segmented along gender lines. A fourth chapter highlights the issue of potential discrimination by comparing parametric and semi-parametric wage gap decompositions, both suggesting that wage gaps are mostly due to selection and segregation effects in the case of gender. In the case of socio-religious groups, a combination of endowment differentials, nepotism and potential discrimination leads to substantial wage differentials.
296

Suivi des structures osseuses par échographie : application à l'arthroplastie totale de la hanche / Ultrasound based femur implant navigation : total hip arthroplasty

Haddad, Oussama 21 March 2017 (has links)
L’objectif principal d’une Arthroplastie Totale de Hanche (ATH) est de réduire la douleur en reproduisant les propriétés mécaniques de l’articulation de la hanche à l'aide d'implants artificiels, qui assurent également une fonctionnalité optimale. Ce travail traite de la navigation de l’ATH, à base d’échographie, en mettant l'accent sur la navigation de l'implant fémoral. La conception d'un système de navigation pour l’ATH, basé sur l’échographie peropératoire et CT préopératoire et focalisant sur l’implant fémoral, est proposée. Il fournit un feed back visuel et quantitatif sur l'insertion de l'implant. Le pipeline de navigation proposé inclut : la calibration de la sonde, la segmentation tenant compte de la géométrie d’acquisition, et le recalage profitant de la forme quasi symétrique du fémur. La précision est évaluée en termes cliniques.Les temps d'exécution et la précision obtenus sont encourageants et rendent le pipeline proposé valable pour être évalué en utilisant des données réelles des patients. Une fois notre étude réussie le défi peropératoire, d’autres applications telles que l'arthroplastie totale de l'épaule et l'ablation du cancer osseux peuvent en profiter. / The principal aim of a Total Hip Arthroplasty (THA) is to reduce pain by reproducing the hip joint mechanical properties using artificial implants. This work addresses the ultrasound based navigation of THA, with a focus on the femoral implant. Using a calibrated 3D ultrasound probe, the aim is to image and recognize the femur after implant insertion, then to provide quantitative and visual navigation instructions for optimal implant placement. US bone interfaces are estimated per line of sight, then mapped to CT model profiting from the femur symmetry. The inaccuracy of the proposed navigation system is quantified in clinical terms. The obtained runtimes and accuracies make the proposed pipeline worthy to be tested in the OR. Once the proposed pipeline succeeds the intraoperative challenge, navigated bone tumor ablation and total shoulder arthroplasty can profit from our work.
297

Méthodes et algorithmes de segmentation et déconvolution d'images pour l'analyse quantitative de Tissue Microarrays / Methods and algorithms of image segmentation and decovolution for quantitative analysis of Tissue Microarrays

Nguyễn, Hoài Nam 18 December 2017 (has links)
Ce travail de thèse a pour objectif de développer les méthodes originales pour l'analyse quantitative des images de Tissue Microarrays (TMAs) acquises en fluorescence par des scanners dédiés. Nous avons proposé des contributions en traitement d'images portant sur la segmentation des objets d'intérêts (i.e. des échantillons de tissus sur la lame de TMA scannée), la correction des artefacts d'acquisition liés aux scanners en question ainsi que l'amélioration de la résolution spatiale des images acquises en tenant compte des modalités d'acquisition (imagerie en fluorescence) et la conception des scanners. Les développements permettent d'envisager une nouvelle plateforme d'analyse de TMAs automatisée, qui représente aujourd'hui une forte demande dans la recherche contre les cancers. Les TMAs (ou “puces à tissus”) sont les lames histologiques sur lesquelles de nombreux échantillons tissulaires venant de différents donneurs sont déposés selon une structure de grille afin de faciliter leur identification. Pour pouvoir établir le lien entre chaque échantillon et ses données cliniques correspondantes, on s'intéresse non seulement à segmenter ces échantillons mais encore à retrouver leur position théorique (les indices de ligne et de colonne) sur la grille TMA car cette dernière est souvent très déformée pendant la fabrication des lames. Au lieu de calculer directement les indices de ligne et de colonne (des échantillons), nous avons reformulé ce problème comme un problème d'estimation de la déformation de la grille de TMA théorique à partir du résultat de segmentation en utilisant l'interpolation par splines ''plaques minces''. Nous avons combiné les ondelettes et un modèle d'ellipses paramétriques pour éliminer les fausses alarmes, donc améliorer les résultats de segmentation. Selon la conception des scanners, les images sont acquises pixel par pixel le long de chaque ligne, avec un change de direction lors du balayage entre les deux lignes. Un problème fréquent est le mauvais positionnement des pixels dû à la mauvaise synchronisation des modules mécaniques et électroniques. Nous avons donc proposé une méthode variationnelle pour la correction de ces artefacts en estimant le décalage entre les pixels sur les lignes consécutives. Cette méthode, inspirée du calcul du flot optique, consiste à estimer un champ de vecteurs en minimisant une fonction d'énergie composée d'un terme d'attache aux données non convexe et d'un terme de régularisation convexe. La relaxation quadratique est ainsi utilisée pour découpler le problème original en deux sous-problèmes plus simples à résoudre. Enfin, pour améliorer la résolution spatiale des images acquises qui dépend de la PSF (point spread function) elle-même variant selon le faisceau laser d'excitation, nous avons introduit une méthode de déconvolution d'images en considérant une famille de régulariseurs convexes. Les régulariseurs considérés sont généralisés du concept de la variation parcimonieuses (Sparse Variation) combinant la norme L1 de l'image et la variation totale (Total Variation) pour rehausser les pixels dont l'intensité et le gradient sont non-nuls. Les expériences montrent que l'utilisation de cette régularisation produit des résultats déconvolution d'images très satisfaisants en comparaison avec d'autres approches telles que la variation totale ou la norme de Schatten de la matrice Hessienne. / This thesis aims at developing dedicated methods for quantitative analysis of Tissue Microarray (TMA) images acquired by fluorescence scanners. We addressed there issues in biomedical image processing, including segmentation of objects of interest (i.e. tissue samples), correction of acquisition artifacts during scanning process and improvement of acquired image resolution while taking into account imaging modality and scanner design. The developed algorithms allow to envisage a novel automated platform for TMA analysis, which is highly required in cancer research nowadays. On a TMA slide, multiple tissue samples which are collected from different donors are assembled according to a grid structure to facilitate their identification. In order to establish the link between each sample and its corresponding clinical data, we are not only interested in the localization of these samples but also in the computation of their array (row and column) coordinates according to the design grid because the latter is often very deformed during the manufacturing of TMA slides. However, instead of directly computing array coordinates as existing approach, we proposed to reformulate this problem as the approximation of the deformation of the theoretical TMA grid using “thin plate splines” given the result of tissue sample localization. We combined a wavelet-based detection and a ellipse-based segmentation to eliminate false alarms and thus improving the localization result of tissue samples. According to the scanner design, images are acquired pixel by pixel along each line, with a change of scan direction between two subsequent lines. Such scanning system often suffers from pixel mis-positioning (jitter) due to imperfect synchronization of mechanical and electronic components. To correct these scanning artifacts, we proposed a variational method based on the estimation of pixel displacements on subsequent lines. This method, inspired from optical flow methods, consists in estimating a dense displacement field by minimizing an energy function composed of a nonconvex data fidelity term and a convex regularization term. We used half-quadratic splitting technique to decouple the original problem into two small sub-problems: one is convex and can be solved by standard optimization algorithm, the other is non-convex but can be solved by a complete search. To improve the resolution of acquired fluorescence images, we introduced a method of image deconvolution by considering a family of convex regularizers. The considered regularizers are generalized from the concept of Sparse Variation which combines the L1 norm and Total Variation (TV) to favors the co-localization of high-intensity pixels and high-magnitude gradient. The experiments showed that the proposed regularization approach produces competitive deconvolution results on fluorescence images, compared to those obtained with other approaches such as TV or the Schatten norm of Hessian matrix.
298

Segmentace trhu antiperspirantů a deodorantů / Segmentation of antiperspirants and deodorants

Král, Tomáš January 2009 (has links)
The goal of Master's Thesis on topic Segmentation of antiperspirants and deodorants is to discover differences in consumer's behaviour, determinate and describe segments of consumers based on these differences and propose marketing strategy for the most attractive segments. Theoretical part describes market segmentation in general, process of segmentation and segmentation criteria. Analytic part characterizes Czech market of antiperspirants and deodorants, analyzes ACNielsen market data and discovers marketing communication of key producers. The main part of Thesis focuses on the process of segmentation -- market determination, key segmentation kriteria setting, questionary, segments determination and main characteristics. At the end two most attractive segments are chosen and marketing strategy for them is proposed.
299

Modélisation de la croissance de tumeurs cérébrales : application à la radiothérapie / Brain tumor growth modeling : application to radiotherapy

Lê, Matthieu 23 June 2016 (has links)
Les glioblastomes comptent parmi les cas les plus répandus et agressifs de tumeurs cérébrales. Ils sont généralement traités avec une combinaison de résection chirurgicale, suivie de chimiothérapie et radiothérapie. Cependant, le caractère infiltrant de la tumeur rend son traitement particulièrement délicat. La personnalisation de modèles biophysiques permet d’automatiser la mise au point de thérapies spécifiques au patient, en maximisant les chances de survie. Dans cette thèse nous nous sommes attachés à élaborer des outils permettant de personnaliser la radiothérapie des glioblastomes. Nous avons tout d’abord étudié l’impact de la prise en compte de l’œdème vasogénique. Notre étude rétrospective se fonde sur une base de donnée de patients traités avec un médicament anti-angiogénique, révélant a posteriori la présence de l’œdème. Ensuite, nous avons étudié le lien entre l’incertitude due à la segmentation de la tumeur et la distribution de la dose. Pour se faire, nous avons mis au point une méthode permettant d’échantillonner efficacement de multiples segmentations réalistes, à partir d’une unique segmentation clinique. De plus, nous avons personnalisé un modèle de croissance tumorale aux images IRM de sept patients. La méthode Bayésienne adoptée permet notamment d’estimer l’incertitude sur les paramètres personnalisés. Finalement, nous avons montré comment cette personnalisation permet de définir automatiquement la dose à prescrire au patient, en combinant le modèle de croissance tumoral avec un modèle de réponse à la dose délivrée. Les résultats prometteurs présentés ouvrent de nouvelles perspectives pour la personnalisation de la radiothérapie des tumeurs cérébrales. / Glioblastomas are among the most common and aggressive primary brain tumors. It is usually treated with a combination of surgical resection, followed with concurrent chemo- and radiotherapy. However, the infiltrative nature of the tumor makes its control particularly challenging. Biophysical model personalization allows one to automatically define patient specific therapy plans which maximize survival rates. In this thesis, we focused on the elaboration of tools to personalize radiotherapy planning. First, we studied the impact of taking into account the vasogenic edema into the planning. We studied a database of patients treated with anti-angiogenic drug, revealing a posteriori the presence of the edema. Second, we studied the relationship between the uncertainty in the tumor segmentation and dose distribution. For that, we present an approach in order to efficiently sample multiple plausible segmentations from a single expert one. Third, we personalized a tumor growth model to seven patients’ MR images. We used a Bayesian approach in order to estimate the uncertainty in the personalized parameters of the model. Finally, we showed how combining a personalized model of tumor growth with a dose response model could be used to automatically define patient specific dose distribution. The promising results of our approaches offer new perspectives for personalized therapy planning.
300

Segmentation des grands décrochements, du cycle sismique à la déformation long terme, exemple de la faille du levant / The strike-slip fault segmentation, fromseismic cycle to long term deformation. The Levant fault as a test case

Lefèvre, Marthe 23 March 2018 (has links)
Les failles décrochantes se caractérisent par des géométries 3D relativement complexes, avec des changements abrupts de structures associés à une segmentation latérale. Ainsi, comprendre comment les failles décrochantes sont segmentées latéralement peut apporter des informations sur la répartition de la déformation et des contraintes le long de ces failles ou encore leur comportement sismique. Dans cette étude nous avons cherché à caractériser ces paramètres pour la faille du Levant. Dans un premier temps nous nous sommes intéressés au comportement sismique de cette faille au cours des derniers millénaires. Pour cela, nous avons réalisé une tranchée paléosismologique le long de la section sud de la faille où les données sur la sismicité historique restent limitées. Cela nous a permis de proposer un scénario de rupture pour la section entre le golfe d’Aqaba et le Mont Liban (~500 km). Le catalogue obtenu montre que la faille a connu plusieurs crises sismiques d’environ 200 ans, durant lesquelles l’ensemble de la faille rompt en cascade, séparées par des périodes de quiescence d’environ 350-400 ans, suggérant que la sismicité suit un modèle de clustering temporel. Ce catalogue nous a également permis d’estimer le déficit de glissement accumulé au cours des derniers 1600 ans. Ce déficit, est homogène pour toute la section de faille considérée, à 2 m de moyenne, ce qui pourrait suggérer l’imminence d’une crise sismique régionale, puisque que la compensation d’un tel déficit se traduirait par l’occurrence d’un séisme de Mw ~7.2 sur chaque section de faille. Dans une deuxième partie, nous avons étudié la répartition de la déformation à long terme dans une zone présentant une géométrie relativement complexe : le golfe d’Aqaba. Dans cette région, nous avons cartographié à partir de données de terrain et d’images satellites un certain nombre de structures secondaires sur les marges du golfe. Ainsi, même si la faille principale se trouve en mer, une partie de la déformation verticale est accommodée à terre. La confrontation des datations thermochronologiques et cosmogéniques réalisées le long de la côte Est du golfe montre une accélération des taux de soulèvement à partir de 5 Ma, qui est interprétée comme une conséquence de la migration du pôle d’Euler associé à la rotation de la plaque Arabique. Cette migration a favorisé un régime transtensif dans le golfe d’Aqaba, entrainant la réactivation de failles anciennes bordant la plaine côtière. Enfin, afin d’évaluer les mécanismes contrôlant la segmentation des failles décrochantes et leur évolution dans le temps, nous avons réalisé des expériences analogiques en boite à sable. Elles nous ont permis de mettre en avant (1) l’impact majeur de l’épaisseur du matériel cassant sur la longueur des segments et (2) la pérennité de la segmentation des failles décrochantes, puisque la segmentation observée sur le terrain obéit aux mêmes lois d’échelle que la segmentation observée aux stades initiaux de déformation dans les boites à sable / Strike slip faults are characterised by complex 3D geometries, with abrupt structural variations and a high degree of lateral segmentation. Hence, understanding the underlying mechanisms of lateral fault segmentation can shed light on the distribution of deformation and stress along these faults, as well as their seismic behaviour. In this study, we have tried to characterise some of these parameters for the Levant fault. We first investigated the seismic behaviour of this fault over the last few thousand years. To do this we realised a paleoseimological trench along the southern section of the fault, in a region where historical seismic data are limited. This allowed us to propose a rupture scenario for the section running from the Gulf of Aqaba to Mount Lebanon (~500km). The resulting catalogue highlights several seismic crises about 200 years long during which the whole fault ruptures in a cascade, interspaced with quiescent periods of about 350-400 years. This suggests that the seismic behaviour of the fault presents temporal clustering. Our catalogue also allowed for the estimation of the slip deficit accumulated over the last 1600 years in the considered section. This deficit is homogeneous along the fault and relatively high (2 m on average), which could suggest that a seismic crisis could happen over the entire region in a near future, as the compensation of such deficit would require the occurrence of a Mw 7.2 event on each section of the fault. After that we studied the distribution of long-term deformation in a region with a relatively complex geometry: the Gulf of Aqaba. In this region we mapped from field data and satellite images several secondary structures on the margins of the gulf. Indeed, even though the main fault is at sea, part of the vertical deformation is accommodated on land. The confrontation of thermochronological and cosmogenic datations along the eastern coast of the gulf shows an acceleration of the uplift rates. We interpret this as a consequence of the migration of the Euler pole associated with the rotation of the Arabian plaque, 5 ky ago. This migration led to an increase of the transtension in the Gulf of Aqaba, which reactivated ancient faults bordering the coastal plain. Finally, in order to quantify the mechanisms controlling the segmentation of strike slip faults and their temporal evolution, we realised sand box experiments. Our results highlight the importance of the thickness of the brittle material and its impact on the segment lengths. They also show the persistence of strike slip faults segmentation since the segmentation observed in the field obeys the same scaling laws as that observed at the early stages of deformation in sand box experiments

Page generated in 0.0972 seconds