Spelling suggestions: "subject:"résolution"" "subject:"ésolution""
671 |
Approche bayésienne pour la localisation de sources en imagerie acoustique / Bayesian approach in acoustic source localization and imagingChu, Ning 22 November 2013 (has links)
L’imagerie acoustique est une technique performante pour la localisation et la reconstruction de puissance des sources acoustiques en utilisant des mesures limitées au réseau des microphones. Elle est largement utilisée pour évaluer l’influence acoustique dans l’industrie automobile et aéronautique. Les méthodes d’imagerie acoustique impliquent souvent un modèle direct de propagation acoustique et l’inversion de ce modèle direct. Cependant, cette inversion provoque généralement un problème inverse mal-posé. Par conséquent, les méthodes classiques ne permettent d’obtenir de manière satisfaisante ni une haute résolution spatiale, ni une dynamique large de la puissance acoustique. Dans cette thèse, nous avons tout d’abord nous avons créé un modèle direct discret de la puissance acoustique qui devient alors à la fois linéaire et déterminé pour les puissances acoustiques. Et nous ajoutons les erreurs de mesures que nous décomposons en trois parties : le bruit de fond du réseau de capteurs, l’incertitude du modèle causée par les propagations à multi-trajets et les erreurs d’approximation de la modélisation. Pour la résolution du problème inverse, nous avons tout d’abord proposé une approche d’hyper-résolution en utilisant une contrainte de parcimonie, de sorte que nous pouvons obtenir une plus haute résolution spatiale robuste à aux erreurs de mesures à condition que le paramètre de parcimonie soit estimé attentivement. Ensuite, afin d’obtenir une dynamique large et une plus forte robustesse aux bruits, nous avons proposé une approche basée sur une inférence bayésienne avec un a priori parcimonieux. Toutes les variables et paramètres inconnus peuvent être estimées par l’estimation du maximum a posteriori conjoint (JMAP). Toutefois, le JMAP souffrant d’une optimisation non-quadratique d’importants coûts de calcul, nous avons cherché des solutions d’accélération algorithmique: une approximation du modèle direct en utilisant une convolution 2D avec un noyau invariant. Grâce à ce modèle, nos approches peuvent être parallélisées sur des Graphics Processing Unit (GPU) . Par ailleurs, nous avons affiné notre modèle statistique sur 2 aspects : prise en compte de la non stationarité spatiale des erreurs de mesures et la définition d’une loi a priori pour les puissances renforçant la parcimonie en loi de Students-t. Enfin, nous ont poussé à mettre en place une Approximation Variationnelle Bayésienne (VBA). Cette approche permet non seulement d’obtenir toutes les estimations des inconnues, mais aussi de fournir des intervalles de confiance grâce aux paramètres cachés utilisés par les lois de Students-t. Pour conclure, nos approches ont été comparées avec des méthodes de l’état-de-l’art sur des données simulées, réelles (provenant d’essais en soufflerie chez Renault S2A) et hybrides. / Acoustic imaging is an advanced technique for acoustic source localization and power reconstruction using limited measurements at microphone sensor array. This technique can provide meaningful insights into performances, properties and mechanisms of acoustic sources. It has been widely used for evaluating the acoustic influence in automobile and aircraft industries. Acoustic imaging methods often involve in two aspects: a forward model of acoustic signal (power) propagation, and its inverse solution. However, the inversion usually causes a very ill-posed inverse problem, whose solution is not unique and is quite sensitive to measurement errors. Therefore, classical methods cannot easily obtain high spatial resolutions between two close sources, nor achieve wide dynamic range of acoustic source powers. In this thesis, we firstly build up a discrete forward model of acoustic signal propagation. This signal model is a linear but under-determined system of equations linking the measured data and unknown source signals. Based on this signal model, we set up a discrete forward model of acoustic power propagation. This power model is both linear and determined for source powers. In the forward models, we consider the measurement errors to be mainly composed of background noises at sensor array, model uncertainty caused by multi-path propagation, as well as model approximating errors. For the inverse problem of the acoustic power model, we firstly propose a robust super-resolution approach with the sparsity constraint, so that we can obtain very high spatial resolution in strong measurement errors. But the sparsity parameter should be carefully estimated for effective performance. Then for the acoustic imaging with large dynamic range and robustness, we propose a robust Bayesian inference approach with a sparsity enforcing prior: the double exponential law. This sparse prior can better embody the sparsity characteristic of source distribution than the sparsity constraint. All the unknown variables and parameters can be alternatively estimated by the Joint Maximum A Posterior (JMAP) estimation. However, this JMAP suffers a non-quadratic optimization and causes huge computational cost. So that we improve two following aspects: In order to accelerate the JMAP estimation, we investigate an invariant 2D convolution operator to approximate acoustic power propagation model. Owing to this invariant convolution model, our approaches can be parallelly implemented by the Graphics Processing Unit (GPU). Furthermore, we consider that measurement errors are spatially variant (non-stationary) at different sensors. In this more practical case, the distribution of measurement errors can be more accurately modeled by Students-t law which can express the variant variances by hidden parameters. Moreover, the sparsity enforcing distribution can be more conveniently described by the Student's-t law which can be decomposed into multivariate Gaussian and Gamma laws. However, the JMAP estimation risks to obtain so many unknown variables and hidden parameters. Therefore, we apply the Variational Bayesian Approximation (VBA) to overcome the JMAP drawbacks. One of the fabulous advantages of VBA is that it can not only achieve the parameter estimations, but also offer the confidential interval of interested parameters thanks to hidden parameters used in Students-t priors. To conclude, proposed approaches are validated by simulations, real data from wind tunnel experiments of Renault S2A, as well as the hybrid data. Compared with some typical state-of-the-art methods, the main advantages of proposed approaches are robust to measurement errors, super spatial resolutions, wide dynamic range and no need for source number nor Signal to Noise Ration (SNR) beforehand.
|
672 |
Modélisation numérique de l’érosion diffuse des sols : interaction gouttes-ruissellement / Numerical modelling of interrill erosion : raindrops-overland flow interactionNouhou Bako, Amina 21 November 2016 (has links)
L’objectif de cette thèse est de proposer un modèle d’érosion diffuse qui intègre les principaux processus de ce phénomène (détachement, transport, sédimentation) et qui prend en compte l’interaction des gouttes de pluie avec ces processus. Dans un premier temps, nous avons établi une loi de détachement par la pluie qui inclut l’effet des gouttes et celui de l’épaisseur de la lame d’eau qui couvre la surface du sol. Pour obtenir cette loi, une étude numérique avec le logiciel Gerris a permis de modéliser les cisaillements créés par l’impact des gouttes sur des épaisseurs de lame d’eau variables. Ces cisaillements estiment la quantité de sol détaché par chaque goutte. Nous avons montré, à travers une étude probabiliste, que les gouttes sont quasiment indépendantes lors du détachement. Les détachements de l’ensemble des gouttes sont donc sommés pour établir la loi de détachement pour la pluie. Par ailleurs, l’étude probabiliste a montré la possibilité d’une forte interaction entre les gouttes de pluie et les particules en sédimentation. Par conséquent, pour le processus de transport-sédimentation, nous avons privilégié une approche expérimentale. Cette étude a révélé que l’effet des gouttes de pluie est d’augmenter la vitesse de sédimentation des particules. Enfin, nous avons proposé un nouveau modèle d’érosion qui généralise plusieurs modèles d’érosion de la littérature et décrit l’évolution des concentrations en sédiments avec des effets linéaires et non-linéaires. Selon le choix des paramètres du modèle, celui-ci peut représenter l’érosion diffuse et concentrée à l’échelle du bassin versant, le transport par charriage dans les rivières ou encore le transport chimique. L’intégration du modèle dans le logiciel de ruissellement FullSWOF est aussi réalisée. / The aim of this work is to formulate an interrill erosion model. This model should take into account the main erosion processes (detachment, transport and sedimentation) and the interaction of raindrops during these processes. First we develop a law for rainfall detachment that includes the effects of the raindrops and the water layer thickness at the soil surface. We use the Gerris software to simulate the shear stresses created by the impacts of raindrops at the soil surface. These shear stresses allow to evaluate the quantity of soil detached by each raindrop. We have shown with a probabilistic approach that raindrops are almost independent during soil detachment. Then by summing all the raindrops detachments we obtain the rainfall detachment law. Futhermore the probabilistic study has revealed the possibility of a strong interaction between raindrops and settling particles. So, we used specific laboratory experiments to investigate the particles transport and sedimentation processes. These experiments show that the effect of raindrops is to increase the particles settling velocity. Finally, we propose a new erosion model which encompasses previous literature erosion models and that can describe the behavior of sediments concentrations with linear and non-linear behaviors. The model is able to simulate interrill and rill erosions at the watershed scale, bedload transport in rivers and chemical transfer. The integration of the model in the FullSWOF runoff software is also carried out.
|
673 |
La responsabilité médicale à Madagascar : Réalités internes et proposition d'actualisation en référence au droit médical français / Medical responsibility in Madagascar : Real situations and a project of renovation referring to french lawRazafiarison, Tahiry Anja 12 October 2013 (has links)
Afin de répondre aux attentes de la société malgache, une proposition de loi relative à la responsabilité médicale doit être en cohérence avec la vision locale de la pratique médicale. À Madagascar, l'issue d'un acte de soin est supposée émaner de la divinité et ne saurait être maîtrisé par le soignant. De fait, l'aléa thérapeutique s'insère dans le droit médical local. Le médecin n'est pas tenu de réaliser une guérison; il doit prodiguer des soins consciencieux et conformes à la science. Ceci étant, la culture malgache est sensible à toute atteinte corporelle subie par la victime d'accident médical. Le cas échéant, le médecin fait un "geste" de courtoisie à l'égard de la victime. Ce "geste" peut ne pas représenter l'intégralité du préjudice mais il participe au respect de la victime. Ainsi, à Madagascar, l'obligation médicale de réparer vise la reconnaissance de la douleur du patient et non la réparation quantitative du préjudice. Sur ce point, une divergence se dessine avec le droit français lequel préconise la réparation intégrale pour les atteintes corporelles. Les modes alternatifs de résolution des conflits présents dans les deux systèmes juridiques, dénouent cette divergence. / To come up to the Malagasy society's expectations a legal act on medical responsibility should be coherent with the local conception of medical practice. In Madagascar, the public opinion is convinced that medical practice has to deal with a divine action out of the physician's control so that the legal concept of therapeutic risk is therefore accepted. The physician is only required to assume the continuity of the service and to provide his or her best care to patients. Meanwhile Malagasy culture shows an extreme compassion towards people suffering of bodily injuries mainly when these wounds result from a malpractice. To prevent a godly punishment doctors usually have to donate to their injured patient. This helps to preserve the physician's reputation and his or her relationship with the patient. Medical duty in Madagascar is more a matter of recognition of the patient's pain than a procedure of compensation. French legal system is different as it promotes the complete compensation in case of malpractice. However, both legal systems are similar when proposing alternative process to resolve conflicts.
|
674 |
Estimation of Curvature and Torsion of Discrete Mammalian Cell Paths through Porous Media / Estimation des courbures et torsions des trajectoires discrètes de cellules mammaliennes à travers des milieux poreuxBlankenburg, Christoph 11 April 2017 (has links)
L’extraction des cellules cancéreuses d’un fluide corporel est une procédure importante lors d’un diagnostic clinique et d’une thérapie. En particulier, lorsque la technique de séparation est basée sur la chromatographie cellulaire, il est important de disposer de connaissances précises sur les capacités de liaison des cellules cibles avec le milieu poreux. Pour cette raison, des expériences utilisant la tomodensitométrie à résolution temporelle ont été́ conçues et réalisées à l’Installation Européenne de Rayonnement Synchrotron. Les distributions des courbures et des torsions des trajectoires de cellules situées dans suspension s’écoulant à travers un milieu poreux sont des informations précieuses pour caractériser l’efficacité́ des procédés chromatographiques. Cependant, le calcul de la torsion est un défi car étant basé sur des dérivées d’ordre supérieur qui sont très sensibles au bruit de discrétisation. Cette thèse présente deux nouvelles méthodes d’estimation des courbures et des torsions de trajectoires de particules données respectivement sous la forme de points discrets connectes ou non connectes. La première méthode est basée sur une approche dite d’approximation de Fourier. Des études de cas ont mis en lumière une diminution de l’erreur d’estimation des torsions d’au moins 65% par rapport à la méthode de référence d’approximation par les splines. Par ailleurs, le paramètre de lissage de l’approximation de Fourier peut rester constant pour une large plage de résolutions latérales et pour différentes valeurs de courbures et de torsion. La méthode dite d’approximation de Fourier n’étant pas applicable à des courbes échantillonnées avec un pas variable, une deuxième méthode basée sur la discrétisation des formules géométriques différentielles (DDGF) a été́ développée. L’approximation par les splines et la DDGF conduisent à des erreurs moyennes similaires. Cependant, le masque filtrant reste inchangé́ pour le DDGF, alors que le paramètre de lissage de l’approximation par les splines doit être adapté à la forme ainsi qu’au pas d’échantillonnage de la courbe / The extraction of cancerous cells from body uids is an important procedure in clinical diagnostics and therapy. Notably, when the separation technique is based on cell chromatography, it is important to have precise knowledge about binding capacities of target cells in porous media. Therefore, experiments using time-resolved micro-computed tomography were designed and carried out at the European Synchrotron Radiation Facility. The curvature and torsion distributions of cell paths in a two-phase ow through a porous medium are valuable information to characterize the efficiency of chromatographic processes. However, the computation of torsion is very challenging, since it is based on higher order derivatives which are very sensitive towards discretization noise. In this thesis, two new curvature and torsion estimation methods of particle paths are presented. The first method is based on a Fourier approximation. Case studies showed a decrease of the torsion estimation error of at least 65% compared to the commonly used spline approximation. Moreover, the smoothing parameter of the Fourier approximation can remain unchanged for both a wide range of lateral resolutions and curvatures and torsion values. Since this Fourier approximation approach cannot be applied at non-equidistant points, a second method based on the discretization of the differential-geometric formulas (DDGF) was developed. The spline approximation and the DDGF led to similar mean torsion errors. However, the filter mask remains unchanged for the DDGF, whereas the smoothing parameter of the spline approximation must be adapted to the curve shape and discretization
|
675 |
Rapprochement de données pour la reconnaissance d'entités dans les documents océrisés / Data matching for entity recognition in ocred documentsKooli, Nihel 13 September 2016 (has links)
Cette thèse traite de la reconnaissance d'entités dans les documents océrisés guidée par une base de données. Une entité peut être, par exemple, une entreprise décrite par son nom, son adresse, son numéro de téléphone, son numéro TVA, etc. ou des méta-données d'un article scientifique tels que son titre, ses auteurs et leurs affiliations, le nom de son journal, etc. Disposant d'un ensemble d'entités structurées sous forme d'enregistrements dans une base de données et d'un document contenant une ou plusieurs de ces entités, nous cherchons à identifier les entités contenues dans le document en utilisant la base de données. Ce travail est motivé par une application industrielle qui vise l'automatisation du traitement des images de documents administratifs arrivant en flux continu. Nous avons abordé ce problème comme un problème de rapprochement entre le contenu du document et celui de la base de données. Les difficultés de cette tâche sont dues à la variabilité de la représentation d'attributs d'entités dans la base et le document et à la présence d'attributs similaires dans des entités différentes. À cela s'ajoutent les redondances d'enregistrements et les erreurs de saisie dans la base de données et l'altération de la structure et du contenu du document, causée par l'OCR. Devant ces problèmes, nous avons opté pour une démarche en deux étapes : la résolution d'entités et la reconnaissance d'entités. La première étape consiste à coupler les enregistrements se référant à une même entité et à les synthétiser dans un modèle entité. Pour ce faire, nous avons proposé une approche supervisée basée sur la combinaison de plusieurs mesures de similarité entre attributs. Ces mesures permettent de tolérer quelques erreurs sur les caractères et de tenir compte des permutations entre termes. La deuxième étape vise à rapprocher les entités mentionnées dans un document avec le modèle entité obtenu. Nous avons procédé par deux manières différentes, l'une utilise le rapprochement par le contenu et l'autre intègre le rapprochement par la structure. Pour le rapprochement par le contenu, nous avons proposé deux méthodes : M-EROCS et ERBL. M-EROCS, une amélioration/adaptation d'une méthode de l'état de l'art, consiste à faire correspondre les blocs de l'OCR avec le modèle entité en se basant sur un score qui tolère les erreurs d'OCR et les variabilités d'attributs. ERBL consiste à étiqueter le document par les attributs d'entités et à regrouper ces labels en entités. Pour le rapprochement par les structures, il s'agit d'exploiter les relations structurelles entre les labels d'une entité pour corriger les erreurs d'étiquetage. La méthode proposée, nommée G-ELSE, consiste à utiliser le rapprochement inexact de graphes attribués modélisant des structures locales, avec un modèle structurel appris pour cet objectif. Cette thèse étant effectuée en collaboration avec la société ITESOFT-Yooz, nous avons expérimenté toutes les étapes proposées sur deux corpus administratifs et un troisième corpus extrait du Web / This thesis focuses on entity recognition in documents recognized by OCR, driven by a database. An entity is a homogeneous group of attributes such as an enterprise in a business form described by the name, the address, the contact numbers, etc. or meta-data of a scientific paper representing the title, the authors and their affiliation, etc. Given a database which describes entities by its records and a document which contains one or more entities from this database, we are looking to identify entities in the document using the database. This work is motivated by an industrial application which aims to automate the image document processing, arriving in a continuous stream. We addressed this problem as a matching issue between the document and the database contents. The difficulties of this task are due to the variability of the entity attributes representation in the database and in the document and to the presence of similar attributes in different entities. Added to this are the record redundancy and typing errors in the database, and the alteration of the structure and the content of the document, caused by OCR. To deal with these problems, we opted for a two-step approach: entity resolution and entity recognition. The first step is to link the records referring to the same entity and to synthesize them in an entity model. For this purpose, we proposed a supervised approach based on a combination of several similarity measures between attributes. These measures tolerate character mistakes and take into account the word permutation. The second step aims to match the entities mentioned in documents with the resulting entity model. We proceeded by two different ways, one uses the content matching and the other integrates the structure matching. For the content matching, we proposed two methods: M-EROCS and ERBL. M-EROCS, an improvement / adaptation of a state of the art method, is to match OCR blocks with the entity model based on a score that tolerates the OCR errors and the attribute variability. ERBL is to label the document with the entity attributes and to group these labels into entities. The structure matching is to exploit the structural relationships between the entity labels to correct the mislabeling. The proposed method, called G-ELSE, is based on local structure graph matching with a structural model which is learned for this purpose. This thesis being carried out in collaboration with the ITESOFT-Yooz society, we have experimented all the proposed steps on two administrative corpuses and a third one extracted from the web
|
676 |
Recherche de technicouleur avec l'expérience ATLAS. Développement d'outils et étude des performances du calorimètre à argon liquide / Looking for Technicolor using ATLAS. Tools development and performances study of the Liquid Argon Calorimeter.Helary, Louis 09 December 2011 (has links)
En 2011, le LHC a fourni près de 5 fb−1 de données aux expériences. Ces données ont été utilisées pour comprendre plus avant les détecteurs, leurs performances et effectuer des analyses de physique. Cette thèse est organisée en cinq chapitres. Le premier est une introduction théorique au Modèle Standard et à une de ses extensions possible : la TechniCouleur. Le deuxième chapitre donne un bref aperçu de l'accélérateur LHC et de l'expérience ATLAS. Dans le troisième chapitre, l'un des principaux sous-système de l'expérience ATLAS est présenté : le calorimètre à argon liquide. L'algorithme de contrôle de l'acquisition et de la qualité des données que j'ai développé au cours de ma thèse est également présenté. Le quatrième chapitre présente une étude des performances de la reconstruction des jets basée sur l'ensemble des données acquises en 2010. Cette étude a montré qu'en 2010, la résolution en énergie des jets dans le Monte-Carlo a été sous-estimée d'un facteur relatif d'environ 10% par rapport aux données. Cette étude a été ensuite reconduite pour évaluer l'impact de la réduction de la HV dans des zones du calorimètre sur la résolution en énergie des jets. Cet impact a été jugée négligeable. Pour des jets produits avec une rapidité |y| < 0.8, l'augmentation de la résolution en énergie due à la réduction de la HV, est évaluée à moins de 3 % pour un jet de pT = 30 GeV jet, et moins de 0,1 % pour un jet de pT = 500 GeV. Enfin, le dernier chapitre de cette thèse présente une étude de l'état final Wgamma. La contribution des différents processus du MS participant à cet état final a été estimée à partir du Monte Carlo et des données. Une recherche de résonances étroites a ensuite été effectuée en utilisant la distribution M(W,gamma) dans un intervalle [220,440] GeV, mais aucun écart significatif des prédictions du MS n'a été observé. Cette étude a permis de fixer des limites sur la production de particules TC correspondant à M(a_{T}) > 265 GeV ou M(\rho_{T}) > 243 GeV. / In 2011 the LHC has provided almost 5 fb-1 of data to the experiments. These data have been used to perform a deep commissioning of the detectors, understand the performances of the detector and perform physics analysis. This thesis is organized in five chapter. The first one is a theoretical introduction to the Standard Model and to one of its possible extension: the TechniColor. The second chapter gives a brief overview of the LHC and the ATLAS experiments. In the third chapter one of the key subsystem of the ATLAS experiment is presented: the LAr calorimeters. The monitoring of the data acquisition developed during my thesis is also presented in this chapter. The fourth chapter presents a study of the jet performances based on the data set acquired in 2010. This study has shown that in 2010, the Monte Carlo was underestimating the jet energy resolution by a relative factor of about $10\%$. This study was refocused to evaluate the impact of the reduced LAr HV area on the jet energy resolution. The impact of the HV reduced region was found to be negligible. For jets produced with a rapidity |y|<0.8, the increase of energy resolution due to the HV reduction, is evaluated at less than 3% for a pT=30 GeV jet, and less than 0.1% for a pT=500 GeV jet. Finally the last chapter of this thesis present a study of the Wgamma final state. The standard model backgrounds contributing to this final state were estimated from Monte Carlo and from data. A search for narrow resonances was then conducted using the M(Wgamma) distribution in a range [220,440] GeV, but no significant deviation from the SM was observed. This study has allowed to set limits on the production of TC particles corresponding to M(a_{T}) > 265 GeV or M(\rho_{T}) > 243 GeV.
|
677 |
Joint super-resolution/segmentation approaches for the tomographic images analysis of the bone micro-structure / Approches de super-résolution/segmentation pour l'analyse d'images tomographiques de la microstructure osseuseLi, Yufei 20 December 2018 (has links)
L'ostéoporose est une maladie caractérisée par la perte de la masse osseuse et la dégradation de la micro-architecture osseuse. Bien que l'ostéoporose ne soit pas une maladie mortelle, les fractures qu'elle provoque peuvent entraîner de graves complications (lésions des vaisseaux et des nerfs, infections, raideur), parfois accompagnées de menaces de mort. La micro-architecture osseuse joue un rôle important dans le diagnostic de l'ostéoporose. Deux appareils de tomodensitométrie courants pour scanner la micro-architecture osseuse sont la tomodensitométrie quantitative périphérique à haute résolution et la tomodensitométrie microscopique. Le premier dispositif donne accès à l'investigation in vivo, mais sa résolution spatiale est inférieure. Le micro tomodensitomètre donne une meilleure résolution spatiale, mais il est contraint à une mesure ex vivo. Dans cette thèse, notre but est d'améliorer la résolution spatiale des images de tomodensitométrie périphérique à haute résolution afin que l'analyse quantitative des images résolues soit proche de celle donnée par les images de tomodensitométrie Micro. Nous sommes partis de la régularisation de la variation totale, à une combinaison de la variation totale et du potentiel de double puits pour améliorer le contraste des résultats. Ensuite, nous envisageons d'utiliser la méthode d'apprentissage par dictionnaire pour récupérer plus de détails sur la structure. Par la suite, une méthode d'apprentissage approfondi a été proposée pour résoudre un problème de super résolution et de segmentation joint. Les résultats montrent que la méthode d'apprentissage profond est très prometteuse pour les applications futures. / Osteoporosis is a disease characterized by loss of bone mass and degradation of bone microarchitecture. Although osteoporosis is not a fatal disease, the fractures it causes can lead to serious complications (damage to vessels and nerves, infections, stiffness), sometimes accompanied with risk of death. The bone micro-architecture plays an important role for the diagnosis of osteoporosis. Two common CT devices to scan bone micro architecture is High resolution-peripheral Quantitative CT and Micro CT. The former device gives access to in vivo investigation, but its spatial resolution is inferior. Micro CT gives better spatial resolution, but it is constrained to ex vivo measurement. In this thesis, we attempt to improve the spatial resolution of high resolution peripheral CT images so that the quantitative analysis of the resolved images is close to the one given by Micro CT images. We started from the total variation regularization, to a combination of total variation and double-well potential to enhance the contrast of results. Then we consider to use dictionary learning method to recover more structure details. Afterward, a deep learning method has been proposed to solve a joint super resolution and segmentation problem. The results show that the deep learning method is very promising for future applications.
|
678 |
La place des droits de l'Homme dans le Mercosur à la lumière de l'expérience européenne : les enjeux au regard du système interaméricain de protection des droits de l'Homme / The place of Human rights in the Mercosur in the light of the European experience : issues in relation to the inter-American system for the protection of Human rightsMascolo Gil, Tenile 11 October 2013 (has links)
Le Mercosur est une organisation d’intégration économique régionale regroupant l’Argentine, le Brésil, le Paraguay, l’Uruguay et le Venezuela. Ayant un but essentiellement économique à l’origine, son traité constitutif ne laissait prévoir aucun développement dans le sens d’une éventuelle préoccupation concernant la protection des droits de l’homme. Suite à la crise institutionnelle du début des années 2000, les États membres ont été obligés à repenser le format du groupe et ont privilégié un modèle qui diminuait l’approche économique au profit d’un Mercosur plus politique, mis en œuvre dans le Programme de Travail 2004-2006. À partir de ce moment, une architecture institutionnelle et normative s’est développée au sein du Mercosur sur une thématique plus politique et concernant aussi spécifiquement les droits de l’homme. La question qui se pose est donc de savoir à qui revient la compétence d’apprécier des questions de violations relatives aux droits de l’homme au sein du Mercosur : à un contrôle interne par les organes composant le système de résolution des différends du Mercosur ou à un contrôle externalisé par les organes du système interaméricain de protection des droits de l’homme ? La place des droits de l’homme dans le Mercosur à la lumière de l’expérience européenne est une étude sur les droits de l’homme dans le Mercosur sous un angle comparatiste avec le droit de l’Union européenne. / Mercosur is a regional economic integration organization comprising Argentina, Brazil, Paraguay, Uruguay and Venezuela. As Mercosur was originally established for economic purposes, the constitutive treaty does not contain provisions on the protection of human rights. An institutional crisis in Mercosur in the early 2000s forced the Member States to rethink the design of the organization. At the end, a more political model was chosen instead of the original purely economic approach, which was implemented in the Working program 2004-2006. From that moment onwards, an institutional and normative architecture was developed implementing its more political character, including provisions on human rights. This evolution triggers the question of who has the authority to determine issues relating to violations of human rights in Mercosur and via which procedure should this take place. Should the dispute resolution organs of Mercosur be in charge via internal control or is itpreferable that the monitoring will be outsourced to the Inter-American system of protection of human rights? The place of human rights in the Mercosur in the light of the European experience is a study on human rights in Mercosur from a comparative perspective with the law of the European Union.
|
679 |
Optimisation de la source synchrotron cohérente dans le domaine des Térahertz pour la spectroscopie à haute résolution de molécules d'intérêt astrophysique / Optimization of a coherent synchrotron radiation source in the Terahertz range for high-resolution spectroscopy of molecules of astrophysical interestBarros, Joanna 18 December 2012 (has links)
La spectroscopie par transformée de Fourier est l’outil multiplexe de mesure de spectres à haute résolution le plus utilisé dans l’infrarouge. Son extension au domaine Térahertz se révèle de grand intérêt pour la spectroscopie de molécules présentes dans le milieu interstellaire, mais se heurte à différents obstacles : en particulier, aucune source large bande n'est suffisamment intense et stable pour ces applications. Cette thèse présente des développements instrumentaux basés sur l’exploitation du rayonnement synchrotron cohérent (CSR) sur la ligne AILES du synchrotron SOLEIL, optimisée pour l'infrarouge lointain. Les conditions de production du CSR sont étudiées pour les besoins des analyses spectroscopiques à haute résolution ; les performances de cette source sont caractérisées et comparées à celles du rayonnement incohérent. La mise en place d'un système de double détection permet une correction de l'effet des instabilités de la source et une augmentation conséquente du rapport signal-sur-bruit. Ces développements sont appliqués à la mesure de spectres de rotation pure ; une modélisation améliorée du spectre dans l'état fondamental de la molécule de propynal a ainsi pu être faite, prouvant la complémentarité de la source étudiée vis-à-vis des sources micro-onde ou infrarouge classiques. / Fourier Transform spectroscopy is the most used multiplex tool for high-resolution measurements in the infrared range. Its extension to the Terahertz domain is of great interest for spectroscopic studies of interstellar molecules. This application is however hampered by the lack of dedicated, broadband sources with a sufficient intensity and stability. In this work, Coherent Synchrotron Radiation (CSR) was used as a source for molecular spectroscopy at high resolution on the AILES infrared and Terahertz beamline of SOLEIL synchrotron. The beamline being optimized for far-infrared, we could characterize the properties of CSR and compare them to the incoherent synchrotron radiation. A double detection system allowed to correct the effect of the source-related instabilities, hence to significantly increase the signal-to-noise ratio. Pure rotational spectra were measured using these developments. The case of the propynal molecule, for which a refined set of rotational and centrifugal distortion constants was calculated, proves the complementarity between CSR and the classical microwave or infrared sources.
|
680 |
Imagerie de fluorescence à haute résolution : étude de la localisation nucléolaire de la protéine de la nucléocapside du VIH / Nucleolar distribution of the HIV-1 nucleocapsid protein investigated by the super-resolution microscopyGlushonkov, Oleksandr 06 April 2018 (has links)
Au cours de ce travail de thèse expérimental, nous nous sommes intéressés à l’étude de la localisation nucléaire et nucléolaire de la protéine de la nucléocapside (NC) du VIH-1. Des études antérieures menées au laboratoire avaient mis en évidence une très forte accumulation de la NC dans les nucléoles. Ce compartiment nucléaire est connu pour être ciblé par de nombreux virus afin de promouvoir leur réplication. Des expériences de microscopie électronique avaient révélé la structure complexe du nucléole et montré qu’il est composé de trois sous-compartiments : les centres fibrillaires, le compartiment fibrillaire dense et le compartiment granulaire dans lesquels se déroule la synthèse des ribosomes. Afin de caractériser la localisation de la NC dans ces trois sous-compartiments, nous avons développé une approche de microscopie optique à haute résolution permettant d’obtenir des images à deux couleurs avec une résolution spatiale améliorée. Pour cela, nous avons mis au point un protocole qui permet d’utiliser simultanément une protéine fluorescente photocommutable et un fluorophore organique introduit par immunomarquage. Après avoir minimisé les aberrations optiques et corrigé les dérives mécaniques inhérentes au montage, nous avons visualisé simultanément la localisation de la NC surexprimée dans des cellules HeLa avec des marqueurs spécifiques des trois sous-compartiments nucléolaires (immunomarquage). La microscopie de fluorescence à haute résolution a permis de résoudre pour la première fois les différents compartiments et de montrer que la NC se localise préférentiellement dans le compartiment granulaire. Finalement, des expériences préliminaires avec des cellules vivantes ont permis de mettre en évidence que la NC est transportée de manière active dans le noyau et qu’elle pourrait interagir directement avec des protéines nucléolaires / During this experimental thesis work, we investigated the nuclear and nucleolar localization of the nucleocapsid protein (NC) of HIV-1. Previous studies performed in our laboratory evidenced a strong accumulation of NC in a subnuclear structure called nucleolus. Playing role in multiple cellular processes, nucleolus is often targeted by viruses to promote their replication. Electron microscopy revealed three nucleolar components (fibrillar centers, dense fibrillar component and granular component) associated to specific steps of the ribosome biogenesis. To characterize the distribution of the NC in these three sub-compartments and therefore shed light on the nucleolar localization of NC during the replication cycle, we developed a high-resolution optical microscopy approach. After having minimized the optical aberrations and corrected the mechanical drifts inherent to the imaging setup, the NC-mEos2 fusion protein overexpressed in HeLa cells was visualized simultaneously with immunolabeled nucleolar markers. The use of high-resolution fluorescence microscopy enabled us to resolve for the first time the three nucleolar compartments and to demonstrate the preferential localization of NC in the granular compartment of nucleolus. Finally, preliminary experiments performed with living cells showed that NC is actively transported in the nucleus and therefore may interact directly with nucleolar proteins.
|
Page generated in 0.0808 seconds