• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1475
  • 473
  • 437
  • 372
  • 104
  • 74
  • 68
  • 34
  • 33
  • 32
  • 28
  • 26
  • 21
  • 18
  • 10
  • Tagged with
  • 3658
  • 1091
  • 748
  • 488
  • 458
  • 440
  • 418
  • 390
  • 389
  • 348
  • 344
  • 327
  • 319
  • 317
  • 315
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
291

Where Does the Stigma Lie? : Exploring the Roles of Gender, Religion and Caste in the Indian Labor Market / Une analyse socioéconomique du genre, de la religion et de la caste sur le marché du travail indien

Seetahul, Suneha 30 November 2018 (has links)
Cette thèse propose de détecter les mécanismes par lesquels la stratification d’une société se reflète sur le marché du travail. Nous étudions pour cela le cas de l’Inde, où les disparités liées au genre, à la religion et à la caste persistent malgré des changements structurels considérables. Un premier chapitre traite des liens entre l’exclusion du marché du travail et les disparités inter-groupes. Suite à une estimation de la probabilité de non-participation sur le marché du travail, l’analyse des conséquences de l’isolement forcé des femmes sur l’éducation des enfants permet d’observer dans quelle mesure le travail est un vecteur de réduction des inégalités genrées d’éducation. Un second chapitre s’intéresse aux trajectoires de mobilités occupationnelles et de revenu entre 2005 et 2011-12. Une description détaillée de ces trajectoires et l’estimation de ces déterminants suggèrent l’absence d’un phénomène de rattrapage des groupes désavantagés sur le moyen-terme. Un troisième chapitre aborde la question de la segmentation du marché du travail dans un contexte de prédominance de l’économie informelle. Les résultats montrent l’existence d’une ségrégation occupationnelle en fonction du genre. Le quatrième chapitre propose une comparaison paramétrique et nonparamétrique des décompositions de salaire. Les écarts de salaires ne sont pas liés à une discrimination salariale pure mais plutôt à un processus de sélection et de ségrégation occupationnelle dans le cas du genre. En ce qui concerne les groupes socio-religieux, la combinaison des écarts en termes d’éducation, de népotisme et de discrimination potentielle explique les fortes disparités salariales. / This thesis aims to analyze how the stratified nature of a society translates into horizontal inequalities in the labor market. We analyze the case of urban India, where disparities among gender, religion and caste groups persist despite the country’s significant structural change. The first chapter analyzes the links between labor market exclusion and group disadvantage. After estimating the likelihood of non-participation in the labor market, we address the specific case of secluded labor by detecting its impact on children’s education. We suggest that female labor market participation is not likely to lower the educational gap for future generations. The second chapter compares the paths of labor market mobility between 2005 and 2011-12 among gender and socio-religious groups. A detailed analysis of occupational and earnings mobility, followed by the estimation of their determinants, suggest that the group-specific mobility patterns may not reflect a process of “catching-up.” The third chapter proposes an analysis of labor market segmentation in the context of a predominantly informal labor market, showing that the household business sector is relatively homogenous and that the salaried sector is segmented along gender lines. A fourth chapter highlights the issue of potential discrimination by comparing parametric and semi-parametric wage gap decompositions, both suggesting that wage gaps are mostly due to selection and segregation effects in the case of gender. In the case of socio-religious groups, a combination of endowment differentials, nepotism and potential discrimination leads to substantial wage differentials.
292

Suivi des structures osseuses par échographie : application à l'arthroplastie totale de la hanche / Ultrasound based femur implant navigation : total hip arthroplasty

Haddad, Oussama 21 March 2017 (has links)
L’objectif principal d’une Arthroplastie Totale de Hanche (ATH) est de réduire la douleur en reproduisant les propriétés mécaniques de l’articulation de la hanche à l'aide d'implants artificiels, qui assurent également une fonctionnalité optimale. Ce travail traite de la navigation de l’ATH, à base d’échographie, en mettant l'accent sur la navigation de l'implant fémoral. La conception d'un système de navigation pour l’ATH, basé sur l’échographie peropératoire et CT préopératoire et focalisant sur l’implant fémoral, est proposée. Il fournit un feed back visuel et quantitatif sur l'insertion de l'implant. Le pipeline de navigation proposé inclut : la calibration de la sonde, la segmentation tenant compte de la géométrie d’acquisition, et le recalage profitant de la forme quasi symétrique du fémur. La précision est évaluée en termes cliniques.Les temps d'exécution et la précision obtenus sont encourageants et rendent le pipeline proposé valable pour être évalué en utilisant des données réelles des patients. Une fois notre étude réussie le défi peropératoire, d’autres applications telles que l'arthroplastie totale de l'épaule et l'ablation du cancer osseux peuvent en profiter. / The principal aim of a Total Hip Arthroplasty (THA) is to reduce pain by reproducing the hip joint mechanical properties using artificial implants. This work addresses the ultrasound based navigation of THA, with a focus on the femoral implant. Using a calibrated 3D ultrasound probe, the aim is to image and recognize the femur after implant insertion, then to provide quantitative and visual navigation instructions for optimal implant placement. US bone interfaces are estimated per line of sight, then mapped to CT model profiting from the femur symmetry. The inaccuracy of the proposed navigation system is quantified in clinical terms. The obtained runtimes and accuracies make the proposed pipeline worthy to be tested in the OR. Once the proposed pipeline succeeds the intraoperative challenge, navigated bone tumor ablation and total shoulder arthroplasty can profit from our work.
293

Méthodes et algorithmes de segmentation et déconvolution d'images pour l'analyse quantitative de Tissue Microarrays / Methods and algorithms of image segmentation and decovolution for quantitative analysis of Tissue Microarrays

Nguyễn, Hoài Nam 18 December 2017 (has links)
Ce travail de thèse a pour objectif de développer les méthodes originales pour l'analyse quantitative des images de Tissue Microarrays (TMAs) acquises en fluorescence par des scanners dédiés. Nous avons proposé des contributions en traitement d'images portant sur la segmentation des objets d'intérêts (i.e. des échantillons de tissus sur la lame de TMA scannée), la correction des artefacts d'acquisition liés aux scanners en question ainsi que l'amélioration de la résolution spatiale des images acquises en tenant compte des modalités d'acquisition (imagerie en fluorescence) et la conception des scanners. Les développements permettent d'envisager une nouvelle plateforme d'analyse de TMAs automatisée, qui représente aujourd'hui une forte demande dans la recherche contre les cancers. Les TMAs (ou “puces à tissus”) sont les lames histologiques sur lesquelles de nombreux échantillons tissulaires venant de différents donneurs sont déposés selon une structure de grille afin de faciliter leur identification. Pour pouvoir établir le lien entre chaque échantillon et ses données cliniques correspondantes, on s'intéresse non seulement à segmenter ces échantillons mais encore à retrouver leur position théorique (les indices de ligne et de colonne) sur la grille TMA car cette dernière est souvent très déformée pendant la fabrication des lames. Au lieu de calculer directement les indices de ligne et de colonne (des échantillons), nous avons reformulé ce problème comme un problème d'estimation de la déformation de la grille de TMA théorique à partir du résultat de segmentation en utilisant l'interpolation par splines ''plaques minces''. Nous avons combiné les ondelettes et un modèle d'ellipses paramétriques pour éliminer les fausses alarmes, donc améliorer les résultats de segmentation. Selon la conception des scanners, les images sont acquises pixel par pixel le long de chaque ligne, avec un change de direction lors du balayage entre les deux lignes. Un problème fréquent est le mauvais positionnement des pixels dû à la mauvaise synchronisation des modules mécaniques et électroniques. Nous avons donc proposé une méthode variationnelle pour la correction de ces artefacts en estimant le décalage entre les pixels sur les lignes consécutives. Cette méthode, inspirée du calcul du flot optique, consiste à estimer un champ de vecteurs en minimisant une fonction d'énergie composée d'un terme d'attache aux données non convexe et d'un terme de régularisation convexe. La relaxation quadratique est ainsi utilisée pour découpler le problème original en deux sous-problèmes plus simples à résoudre. Enfin, pour améliorer la résolution spatiale des images acquises qui dépend de la PSF (point spread function) elle-même variant selon le faisceau laser d'excitation, nous avons introduit une méthode de déconvolution d'images en considérant une famille de régulariseurs convexes. Les régulariseurs considérés sont généralisés du concept de la variation parcimonieuses (Sparse Variation) combinant la norme L1 de l'image et la variation totale (Total Variation) pour rehausser les pixels dont l'intensité et le gradient sont non-nuls. Les expériences montrent que l'utilisation de cette régularisation produit des résultats déconvolution d'images très satisfaisants en comparaison avec d'autres approches telles que la variation totale ou la norme de Schatten de la matrice Hessienne. / This thesis aims at developing dedicated methods for quantitative analysis of Tissue Microarray (TMA) images acquired by fluorescence scanners. We addressed there issues in biomedical image processing, including segmentation of objects of interest (i.e. tissue samples), correction of acquisition artifacts during scanning process and improvement of acquired image resolution while taking into account imaging modality and scanner design. The developed algorithms allow to envisage a novel automated platform for TMA analysis, which is highly required in cancer research nowadays. On a TMA slide, multiple tissue samples which are collected from different donors are assembled according to a grid structure to facilitate their identification. In order to establish the link between each sample and its corresponding clinical data, we are not only interested in the localization of these samples but also in the computation of their array (row and column) coordinates according to the design grid because the latter is often very deformed during the manufacturing of TMA slides. However, instead of directly computing array coordinates as existing approach, we proposed to reformulate this problem as the approximation of the deformation of the theoretical TMA grid using “thin plate splines” given the result of tissue sample localization. We combined a wavelet-based detection and a ellipse-based segmentation to eliminate false alarms and thus improving the localization result of tissue samples. According to the scanner design, images are acquired pixel by pixel along each line, with a change of scan direction between two subsequent lines. Such scanning system often suffers from pixel mis-positioning (jitter) due to imperfect synchronization of mechanical and electronic components. To correct these scanning artifacts, we proposed a variational method based on the estimation of pixel displacements on subsequent lines. This method, inspired from optical flow methods, consists in estimating a dense displacement field by minimizing an energy function composed of a nonconvex data fidelity term and a convex regularization term. We used half-quadratic splitting technique to decouple the original problem into two small sub-problems: one is convex and can be solved by standard optimization algorithm, the other is non-convex but can be solved by a complete search. To improve the resolution of acquired fluorescence images, we introduced a method of image deconvolution by considering a family of convex regularizers. The considered regularizers are generalized from the concept of Sparse Variation which combines the L1 norm and Total Variation (TV) to favors the co-localization of high-intensity pixels and high-magnitude gradient. The experiments showed that the proposed regularization approach produces competitive deconvolution results on fluorescence images, compared to those obtained with other approaches such as TV or the Schatten norm of Hessian matrix.
294

Segmentace trhu antiperspirantů a deodorantů / Segmentation of antiperspirants and deodorants

Král, Tomáš January 2009 (has links)
The goal of Master's Thesis on topic Segmentation of antiperspirants and deodorants is to discover differences in consumer's behaviour, determinate and describe segments of consumers based on these differences and propose marketing strategy for the most attractive segments. Theoretical part describes market segmentation in general, process of segmentation and segmentation criteria. Analytic part characterizes Czech market of antiperspirants and deodorants, analyzes ACNielsen market data and discovers marketing communication of key producers. The main part of Thesis focuses on the process of segmentation -- market determination, key segmentation kriteria setting, questionary, segments determination and main characteristics. At the end two most attractive segments are chosen and marketing strategy for them is proposed.
295

Modélisation de la croissance de tumeurs cérébrales : application à la radiothérapie / Brain tumor growth modeling : application to radiotherapy

Lê, Matthieu 23 June 2016 (has links)
Les glioblastomes comptent parmi les cas les plus répandus et agressifs de tumeurs cérébrales. Ils sont généralement traités avec une combinaison de résection chirurgicale, suivie de chimiothérapie et radiothérapie. Cependant, le caractère infiltrant de la tumeur rend son traitement particulièrement délicat. La personnalisation de modèles biophysiques permet d’automatiser la mise au point de thérapies spécifiques au patient, en maximisant les chances de survie. Dans cette thèse nous nous sommes attachés à élaborer des outils permettant de personnaliser la radiothérapie des glioblastomes. Nous avons tout d’abord étudié l’impact de la prise en compte de l’œdème vasogénique. Notre étude rétrospective se fonde sur une base de donnée de patients traités avec un médicament anti-angiogénique, révélant a posteriori la présence de l’œdème. Ensuite, nous avons étudié le lien entre l’incertitude due à la segmentation de la tumeur et la distribution de la dose. Pour se faire, nous avons mis au point une méthode permettant d’échantillonner efficacement de multiples segmentations réalistes, à partir d’une unique segmentation clinique. De plus, nous avons personnalisé un modèle de croissance tumorale aux images IRM de sept patients. La méthode Bayésienne adoptée permet notamment d’estimer l’incertitude sur les paramètres personnalisés. Finalement, nous avons montré comment cette personnalisation permet de définir automatiquement la dose à prescrire au patient, en combinant le modèle de croissance tumoral avec un modèle de réponse à la dose délivrée. Les résultats prometteurs présentés ouvrent de nouvelles perspectives pour la personnalisation de la radiothérapie des tumeurs cérébrales. / Glioblastomas are among the most common and aggressive primary brain tumors. It is usually treated with a combination of surgical resection, followed with concurrent chemo- and radiotherapy. However, the infiltrative nature of the tumor makes its control particularly challenging. Biophysical model personalization allows one to automatically define patient specific therapy plans which maximize survival rates. In this thesis, we focused on the elaboration of tools to personalize radiotherapy planning. First, we studied the impact of taking into account the vasogenic edema into the planning. We studied a database of patients treated with anti-angiogenic drug, revealing a posteriori the presence of the edema. Second, we studied the relationship between the uncertainty in the tumor segmentation and dose distribution. For that, we present an approach in order to efficiently sample multiple plausible segmentations from a single expert one. Third, we personalized a tumor growth model to seven patients’ MR images. We used a Bayesian approach in order to estimate the uncertainty in the personalized parameters of the model. Finally, we showed how combining a personalized model of tumor growth with a dose response model could be used to automatically define patient specific dose distribution. The promising results of our approaches offer new perspectives for personalized therapy planning.
296

Segmentation des grands décrochements, du cycle sismique à la déformation long terme, exemple de la faille du levant / The strike-slip fault segmentation, fromseismic cycle to long term deformation. The Levant fault as a test case

Lefèvre, Marthe 23 March 2018 (has links)
Les failles décrochantes se caractérisent par des géométries 3D relativement complexes, avec des changements abrupts de structures associés à une segmentation latérale. Ainsi, comprendre comment les failles décrochantes sont segmentées latéralement peut apporter des informations sur la répartition de la déformation et des contraintes le long de ces failles ou encore leur comportement sismique. Dans cette étude nous avons cherché à caractériser ces paramètres pour la faille du Levant. Dans un premier temps nous nous sommes intéressés au comportement sismique de cette faille au cours des derniers millénaires. Pour cela, nous avons réalisé une tranchée paléosismologique le long de la section sud de la faille où les données sur la sismicité historique restent limitées. Cela nous a permis de proposer un scénario de rupture pour la section entre le golfe d’Aqaba et le Mont Liban (~500 km). Le catalogue obtenu montre que la faille a connu plusieurs crises sismiques d’environ 200 ans, durant lesquelles l’ensemble de la faille rompt en cascade, séparées par des périodes de quiescence d’environ 350-400 ans, suggérant que la sismicité suit un modèle de clustering temporel. Ce catalogue nous a également permis d’estimer le déficit de glissement accumulé au cours des derniers 1600 ans. Ce déficit, est homogène pour toute la section de faille considérée, à 2 m de moyenne, ce qui pourrait suggérer l’imminence d’une crise sismique régionale, puisque que la compensation d’un tel déficit se traduirait par l’occurrence d’un séisme de Mw ~7.2 sur chaque section de faille. Dans une deuxième partie, nous avons étudié la répartition de la déformation à long terme dans une zone présentant une géométrie relativement complexe : le golfe d’Aqaba. Dans cette région, nous avons cartographié à partir de données de terrain et d’images satellites un certain nombre de structures secondaires sur les marges du golfe. Ainsi, même si la faille principale se trouve en mer, une partie de la déformation verticale est accommodée à terre. La confrontation des datations thermochronologiques et cosmogéniques réalisées le long de la côte Est du golfe montre une accélération des taux de soulèvement à partir de 5 Ma, qui est interprétée comme une conséquence de la migration du pôle d’Euler associé à la rotation de la plaque Arabique. Cette migration a favorisé un régime transtensif dans le golfe d’Aqaba, entrainant la réactivation de failles anciennes bordant la plaine côtière. Enfin, afin d’évaluer les mécanismes contrôlant la segmentation des failles décrochantes et leur évolution dans le temps, nous avons réalisé des expériences analogiques en boite à sable. Elles nous ont permis de mettre en avant (1) l’impact majeur de l’épaisseur du matériel cassant sur la longueur des segments et (2) la pérennité de la segmentation des failles décrochantes, puisque la segmentation observée sur le terrain obéit aux mêmes lois d’échelle que la segmentation observée aux stades initiaux de déformation dans les boites à sable / Strike slip faults are characterised by complex 3D geometries, with abrupt structural variations and a high degree of lateral segmentation. Hence, understanding the underlying mechanisms of lateral fault segmentation can shed light on the distribution of deformation and stress along these faults, as well as their seismic behaviour. In this study, we have tried to characterise some of these parameters for the Levant fault. We first investigated the seismic behaviour of this fault over the last few thousand years. To do this we realised a paleoseimological trench along the southern section of the fault, in a region where historical seismic data are limited. This allowed us to propose a rupture scenario for the section running from the Gulf of Aqaba to Mount Lebanon (~500km). The resulting catalogue highlights several seismic crises about 200 years long during which the whole fault ruptures in a cascade, interspaced with quiescent periods of about 350-400 years. This suggests that the seismic behaviour of the fault presents temporal clustering. Our catalogue also allowed for the estimation of the slip deficit accumulated over the last 1600 years in the considered section. This deficit is homogeneous along the fault and relatively high (2 m on average), which could suggest that a seismic crisis could happen over the entire region in a near future, as the compensation of such deficit would require the occurrence of a Mw 7.2 event on each section of the fault. After that we studied the distribution of long-term deformation in a region with a relatively complex geometry: the Gulf of Aqaba. In this region we mapped from field data and satellite images several secondary structures on the margins of the gulf. Indeed, even though the main fault is at sea, part of the vertical deformation is accommodated on land. The confrontation of thermochronological and cosmogenic datations along the eastern coast of the gulf shows an acceleration of the uplift rates. We interpret this as a consequence of the migration of the Euler pole associated with the rotation of the Arabian plaque, 5 ky ago. This migration led to an increase of the transtension in the Gulf of Aqaba, which reactivated ancient faults bordering the coastal plain. Finally, in order to quantify the mechanisms controlling the segmentation of strike slip faults and their temporal evolution, we realised sand box experiments. Our results highlight the importance of the thickness of the brittle material and its impact on the segment lengths. They also show the persistence of strike slip faults segmentation since the segmentation observed in the field obeys the same scaling laws as that observed at the early stages of deformation in sand box experiments
297

Analyse de formes et de textures : application à l'authentification et à la gradation de pièces de monnaies / Shape and texture analysis : application to coin identification and coin grading

Pan, Xingyu 05 June 2018 (has links)
Objets de collection depuis les temps anciens, de nos jours les pièces de monnaie constituent un marché de plus en plus important. L’évaluation par des experts de l’état de conservation des pièces de monnaie, que nous nommons gradation, joue un rôle important pour déterminer leur valeur sur le marché. Dans le but de grader des pièces de monnaie de manière efficace et objective, la société GENI collabore avec le laboratoire LIRIS, afin d’automatiser le processus de gradation à partir de photos de pièces de monnaie.L’objectif principal de cette thèse est de fournir une aide à la gradation des pièces de monnaie à partir des photos de qualité. Le projet est composé de quatre phases : segmentation des monnaies, identification du type monétaire, détection et reconnaissance du millésime et gradation des monnaies.Dans la première phase, la pièce de monnaie est segmentée de sa photo de manière précise à l’aide d’un modèle paramétrique déformable. Ce dernier permet également d’extraire des caractéristiques de la pièce de monnaie telles que sa taille, son nombre de coins, de pans, etc.Lors de la deuxième phase, nous cherchons dans une base de données le type monétaire de référence correspondant à la pièce de monnaie requête à l’aide de scores de similarité basés sur des graphes. Le premier score se base sur des caractéristiques locales des contours en relief, et le second, qui est semi-global, permet de mettre en évidence des différences de motifs.La troisième phase concerne la reconnaissance du millésime. Il s’agit d’un sujet difficile car les caractères, dans ce contexte, ont un premier plan de couleur très similaire à l’arrière-plan. Après avoir localisé la zone du millésime et l’avoir découpée en imagettes de chiffres, nous proposons une méthode de reconnaissance de chiffres à l’aide de caractéristiques « topologiques ».Enfin, concernant la gradation des monnaies, nous proposons une méthode se basant sur une quantification des « éléments inattendus » comme les rayures et les taches. La pièce de monnaie est d’abord recalée sur une monnaie de référence, puis, nous détectons les « éléments inattendus » significatifs sur des zones d’intérêt. Enfin, concernant les « éléments inattendus » ténus difficiles à repérer individuellement, nous détectons les zones granuleuses à l’aide du Deep Learning. Le résultat obtenu par cette méthode, proche de ce que l’expert réalise « à la main », servira d’aide aux numismates. / Coins have been collected and studied since ancient times. Today, coin collection has become a hobby for anyone who wants to participate in. Coin grading is a way of determining the physical condition of a coin to provide an indicator for its market value. For grading coins on a large scale and in a relatively objective way, the GENI company cooperates with the laboratory LIRIS to automate the process by using coin photos.The main objective of this thesis is to grade coins from well-conditioned photos. The project is composed of four steps: coin segmentation from raw photos, monetary type identification, coin date detection and recognition and, coin grading.The first step is to extract coins from raw photos with a high precision. With a deformable geometric model, we segment precisely round coins, many-sided coins, wavy edged coins and holed coins by recognizing their shapes.The second step consists of coin recognition or monetary type identification. We match the query coin to the most identical type reference by using two similarity scores. The first similarity score is based on local features of relief contours. The second similarity score is a semi-global measure that highlights the difference between relief patterns.The third step is to detect and recognize coin dates. However, the fact that such characters have the same color as the background makes traditional optical character recognition methods difficult to apply. After extracting the date zone and cropping it into digit images, we propose a learning-free method to recognize those digits by analyzing their “topological” features.In the last step, the grading process is carried out by quantification of "unexpected elements" such as scratches and dirty marks. The coin to grade is registered to a reference coin. Then, large “unexpected elements” are detected in some regions of interest. However, some “micro-scratches” are difficult to extract individually but all together make a "grainy" surface. To deal with it, we use Deep Learning techniques to classify those grainy zones containing such “micro-scratches”. The result of our system, which is close to the manual expert one, is considered as a useful help for numismatists.
298

Formation et réactivation du système de rift pyrénéo-cantabrique : héritage, segmentation et évolution thermique / Formation and reactivation of the Pyrenean-Cantabrian rift system : inheritance, segmentation and thermal evolution

Lescoutre, Rodolphe 25 April 2019 (has links)
Cette étude vise à décrire le rôle de l’héritage et de la segmentation associés au rifting pour la réactivation ainsi qu’à étudier l’importance de l’asymétrie tectonique sur l’évolution thermique syn-rift, en utilisant le système pyrénéo-cantabrique comme laboratoire naturel. L’étude de la jonction entre les segments pyrénéen et cantabrique infirme l’hypothèse d’une faille transformante de Pampelune et met en évidence une zone d’accommodation où les segments de rifts se propagent au nord et au sud des massifs basques, associée à une direction d’extension nord-sud. Lors de la convergence, cette segmentation et le niveau de découplage associé aux évaporites triasiques contrôlent fortement la réactivation ainsi que l’architecture orogénique locale. Enfin, cette étude démontre que l’asymétrie lors de l’hyper-étirement est associée à une évolution thermique asymétrique et diachrone, et souligne l’importance de l’évolution tectonique pour l’architecture thermique. / This study aims to describe the role of rift-inheritance and segmentation for reactivation and to investigate the influence of asymmetric rifting on the syn-rift thermal evolution, using the Pyrenean-Cantabrian system as a natural laboratory. The study of the Pyrenean-Cantabrian junction discards the existence of a Pamplona transform fault between the two rift segments and argues for an accommodation zone where rift segments overlap north and south of the Basque massifs in relation with north-south direction of extension. During convergence, rift segmentation and the Triassic evaporite decoupling horizon controlled the reactivation and the local orogenic architecture. Finally, this study shows that asymmetric hyperextension is associated with asymmetric and diachronous thermal evolution, and highlights the importance of understanding the tectonic evolution to define the thermal architecture.
299

Inversion for textured images : unsupervised myopic deconvolution, model selection, deconvolution-segmentation / Inversion pour image texturée : déconvolution myope non supervisée, choix de modèles, déconvolution-segmentation

Văcar, Cornelia Paula 19 September 2014 (has links)
Ce travail est dédié à la résolution de plusieurs problèmes de grand intérêt en traitement d’images : segmentation, choix de modèle et estimation de paramètres, pour le cas spécifique d’images texturées indirectement observées (convoluées et bruitées). Dans ce contexte, les contributions de cette thèse portent sur trois plans différents : modéle, méthode et algorithmique.Du point de vue modélisation de la texture, un nouveaumodèle non-gaussien est proposé. Ce modèle est défini dans le domaine de Fourier et consiste en un mélange de Gaussiennes avec une Densité Spectrale de Puissance paramétrique.Du point de vueméthodologique, la contribution est triple –troisméthodes Bayésiennes pour résoudre de manière :–optimale–non-supervisée–des problèmes inverses en imagerie dans le contexte d’images texturées ndirectement observées, problèmes pas abordés dans la littérature jusqu’à présent.Plus spécifiquement,1. la première méthode réalise la déconvolution myope non-supervisée et l’estimation des paramètres de la texture,2. la deuxième méthode est dédiée à la déconvolution non-supervisée, le choix de modèle et l’estimation des paramètres de la texture et, finalement,3. la troisième méthode déconvolue et segmente une image composée de plusieurs régions texturées, en estimant au même temps les hyperparamètres (niveau du signal et niveau du bruit) et les paramètres de chaque texture.La contribution sur le plan algorithmique est représentée par une nouvelle version rapide de l’algorithme Metropolis-Hastings. Cet algorithme est basé sur une loi de proposition directionnelle contenant le terme de la ”direction de Newton”. Ce terme permet une exploration rapide et efficace de l’espace des paramètres et, de ce fait, accélère la convergence. / This thesis is addressing a series of inverse problems of major importance in the fieldof image processing (image segmentation, model choice, parameter estimation, deconvolution)in the context of textured images. In all of the aforementioned problems theobservations are indirect, i.e., the textured images are affected by a blur and by noise. Thecontributions of this work belong to three main classes: modeling, methodological andalgorithmic. From the modeling standpoint, the contribution consists in the development of a newnon-Gaussian model for textures. The Fourier coefficients of the textured images are modeledby a Scale Mixture of Gaussians Random Field. The Power Spectral Density of thetexture has a parametric form, driven by a set of parameters that encode the texture characteristics.The methodological contribution is threefold and consists in solving three image processingproblems that have not been tackled so far in the context of indirect observationsof textured images. All the proposed methods are Bayesian and are based on the exploitingthe information encoded in the a posteriori law. The first method that is proposed is devotedto the myopic deconvolution of a textured image and the estimation of its parameters.The second method achieves joint model selection and model parameters estimation froman indirect observation of a textured image. Finally, the third method addresses the problemof joint deconvolution and segmentation of an image composed of several texturedregions, while estimating at the same time the parameters of each constituent texture.Last, but not least, the algorithmic contribution is represented by the development ofa new efficient version of the Metropolis Hastings algorithm, with a directional componentof the proposal function based on the”Newton direction” and the Fisher informationmatrix. This particular directional component allows for an efficient exploration of theparameter space and, consequently, increases the convergence speed of the algorithm.To summarize, this work presents a series of methods to solve three image processingproblems in the context of blurry and noisy textured images. Moreover, we present twoconnected contributions, one regarding the texture models andone meant to enhance theperformances of the samplers employed for all of the three methods.
300

Labour Market Segmentation and the Reserve Army of Labour: Theory, History, Future

Stubbs, Thomas Henry January 2008 (has links)
This thesis begins by revisiting and building on themes of labour market segmentation, with particular reference given to Marx's seminal account of segmentation in Capital, Vol.1 (Chapter 25). Marx distinguishes between an active army - the stable full-time employed - and the relative surplus population - the precariously employed reserve army and the residual surplus - and suggests further fragmentation of these main groups into sub-strata. Marx's perspective of segmentation is grounded in fragments of a general theory of employment that, as a long-term tendency, identifies continual advances in constant capital that abolish work and proliferate the reserve army. This thesis builds on these themes by formulating a concept, the 'transference dynamic', which underpins a general theory of employment segmentation. A short history of segmentation under capitalism traces recent phases of development in both developed and lesser-developed nations. Stress is placed on the role of political configurations that regulate capitalism in ways that can either counter the general tendency, such is the case under the Fordist model of capitalism, or strengthen its logic. The theory of employment segmentation and the lessons drawn from the historical account are spliced together with an analysis of the contemporary phase of capitalism, labelled here as the neoliberal model of development. It is demonstrated that the coercive international regulatory dynamic of the neoliberal model reasserts and extends the competitive principle of the capitalist mode of production. Through this extension, nations are transformed into competition-states vying for scarce and globally mobile capital to operate on their shores - the primary source of national prosperity and employment - by implementing capital-friendly neoliberalized policy. This analysis of neoliberal global capitalism reveals an expanding surplus population within a context of deepening international segmentation. This employment crisis is expressed as a hierarchy of nations that is determined in part by their uneven development. Those at the bottom of the hierarchy, comprising a majority portion of the world's population, contain a massive reserve army and residual surplus population unincorporated into wage-based capitalism, without any obvious support of means of life and with little hope for the future. Finally, mainstream solutions are criticized for failing to address either long-run or contemporary drivers of the employment crisis. In response, this thesis pitches a project of multi-faceted radical reform that counter-regulates capitalism by adopting a combination of local, national, regional and global forms of democratic socialist governance.

Page generated in 0.1679 seconds