71 |
Quantification de biomarqueurs protéiques dans des matrices biologiques complexes par spectrométrie de masse : développements et applications / Quantification of protein biomarkers in complex biological fluids by mass spectrometry : developments and applicationsJeudy, Jérémy 17 November 2014 (has links)
Le travail présenté ici s'est penché sur les problèmes rencontrés sur ce type d'études protéomiques, et sur les solutions qui peuvent être explorées pour améliorer le débit d'évaluation des candidats biomarqueurs. Les peptides à méthionine sont généralement évités en raison de leur sensibilité à l'oxydation. Cependant, il semblait intéressant d'étudier leur modification endogène pouvant affecter les processus biologiques. Une première évaluation de l'impact de l'oxydation des apolipoproteins dans le cas de la maladie d'Alzheimer, a permis de mettre de côté ce biomarqueur potentiel, et de faire apparaître un certain nombre de problèmes liés au prélèvement et au stockage des échantillons biologiques. L'évaluation de dispositifs DBS (Dried Blood Spot) et Vivid à partir d'un panel de 32 protéines sanguines a permis de fournir une première solution envisageable pour maîtriser ces problèmes. Par la suite, un nouveau mode de quantification des peptides appelé MRM3 a été utilisé pour dépasser la complexité de la matrice biologique, et fournir une évaluation fiable des niveaux de concentration de 2 protéines plasmatiques, la C-Reactive protein et la TIMP-1, ainsi que 2 protéines urinaires, l'aquaporin-2 et la podocin. Pour améliorer la sensibilité d'analyse et réduire les coûts de solvants nécessaires aux analyses, l'évaluation d'une plate-forme de micro-chromatographie a été réalisée par comparaison à une plate-forme narrow-bore. Cette étude a permis de mettre en évidence l'impact important de l'effet matrice sur le processus analytique, nécessitant de développer de nouvelles stratégies de travail. Enfin, afin de réduire la complexité de l'échantillon, l'évaluation de cartouches d'extraction en phase solide à base de large taille de pores a été réalisé, et un protocole développé a permis d'analyser avec succès des enzymes contenus dans un échantillon de lessive commerciale. De plus, la durée nécessaire à la préparation d'échantillons biologiques a pu être fortement réduite en combinant une digestion rapide assistée par température combinée au dessalage en ligne, afin de permettre l'analyse quantitative des protéines qu'il contient seulement quelques heures après son arrivée au laboratoire / Over the past decade, interest in the use of biomarkers in clinical studies has greatly increased. Quantification of a candidate protein biomarker in complex samples (eg. plasma) requires targeted and multiplexed assays. Immunoassays are the gold standard for their quantification. However, with the need for targeted and multiplexed methods, recent developments in mass spectrometry (MS) make a viable alternative to ELISA. The present work has addressed the problems encountered in this type of proteomic studies, and solutions that can be explored to improve the workflow of candidate biomarker’s evaluation. Methionine peptides are generally avoided due to their susceptibility to oxidation. However, it seemed interesting to study how their endogenous modifications could affect biological processes. In a first time, apolipoproteins were dismissed as a potential biomarker of Alzheimer’s disease due to oxidation impact. In the same time, problems associated with biological sample collection and storage were highlighted. DBS (Dried Blood Spot) and Vivid device evaluation from a panel of 32 blood proteins has provided a first possible solution to overcome these troubles. Thereafter, a new peptide quantification method called MRM3 was used to overcome biological matrix complexity. Reliable level determinations of 2 plasma proteins (C-Reactive protein and TIMP-1) and 2 urinary proteins (aquaporin-2 and podocin) were obtained. To improve sensitivity and reduce analysis solvent costs, performances of a micro chromatography platform were compared to a narrow-bore platform. This study highlighted the significant impact of the matrix effect on the analytical process, requiring new strategie development. Finally, to reduce sample complexity, evaluation of wide pore solid-phase extraction cartridges has been achieved. A protocol was successfully developed to analyze enzymes contained in commercial laundry samples. Finally to optimize biological sample preparation time, heated-assisted digestion and online desalting step were successfully associated. Only few hours were then required for quantitative analysis
|
72 |
Contribution au développement de méthodes d'étalonnage à la spectroscopie Terahertz sur des produits biologiques / Contribution to the development of calibration methods to the Terahertz spectroscopy on biological productsPapillaud, Matthieu 15 December 2011 (has links)
Ce manuscrit traite de l'étude métrologique d'un spectromètre Terahertrz (THz), de la caractérisation et de la quantification de produits pulvérulents par spectroscopie THz. Le sujet a été orienté afin de fournir les études préliminaires nécessaires à une thématique visant la détection de pesticides sur les aliments, à savoir la caractérisation métrologique de l'appareil (études de répétabilité, sensibilité...) ainsi que la faisabilité de la quantification de produits et l'application de méthodes chimiométriques lors du prétraitement des spectres. La thèse est ordonnée autour de trois publications. La première publication consiste en une revue de littérature servant à faire le point sur les applications concrètes existant en spectroscopie THz. La seconde porte sur la première partie de notre travail, à savoir la caractérisation métrologique du spectromètre THz sur lequel nous avons effectué nos mesures. Enfin, la troisième porte sur l'aspect quantification de la spectroscopie THz et la possibilité d'appliquer les mêmes principes et techniques chimiométriques qu'en spectroscopie infrarouge. / This manuscript concerns the metrological study of a Terahertz (THz) spectrometer, the characterization and the quantification of powder products by THz spectroscopy. The subject has been aimed to give preliminary analysis to a wider thematic of pesticides detection on aliments, which implies the metrological characterization of the device (repeatability, sensitivity...) and the quantification feasibility of these products and the application of chemometrics methods for spectral pretreatment. The thesis is organized around three publications. The first publication is a literature review, which aims to list but a few of the concrete applications of THz spectroscopy. The second one concerns the metrological characterization of the THz spectrometer we worked on. Lastly, the third one deals with the quantification aspect of THz spectroscopy and the possibility of using the same principles and chemometrics techniques that are used in infrared spectroscopy.
|
73 |
Quantification multiplexe de biomarqueurs d’intérêt clinique et de leurs protéoformes par spectrométrie de masse. Application à l’analyse de cohortes médicales / Multiplexed mass spectrometry based quantification of clinical biomarkers proteoforms. Application to clinical cohortsViodé, Arthur 05 December 2018 (has links)
Les protéoformes désignent toutes les formes sous lesquelles une protéine peut être présente. Cela inclut les formes portant des modifications post-traductionnelles, les isoformes et les formes résultant d’épissages alternatifs. Ces modifications peuvent influer sur la fonction d’une protéine, d’où l’intérêt de développer des méthodes sensibles, spécifiques et robustes de quantification de protéoformes pour une meilleure compréhension de mécanismes pathologiques ou la recherche de biomarqueurs. L’objectif de ce travail a été d’exploiter les avantages de la spectrométrie de masse à haute résolution pour la caractérisation et la quantification de protéoformes de protéines associées à des maladies neurodégénératives. Nous nous sommes principalement intéressés à deux protéines, la C9ORF72 et l’alpha-synucléine. Dans un premier temps, une méthode de quantification des deux isoformes de la C9ORF72 a été développée et appliquée à une cohorte de 43 cerveaux humains comprenant des cas de démences fronto-temporale (DFT) avec ou sans mutation C9ORF72. Les résultats obtenus montrent pour la première fois par spectrométrie de masse une diminution d’environ 50% de l’isoforme longue de la C9ORF72 en présence de la mutation. Dans une seconde étape, nous avons élargi l’analyse à la quantification multiplexe de 49 protéines cérébrales potentiellement impliquées dans les DFT. En parallèle, nous nous sommes intéressés aux formes tronquées de l’alpha-synucléine. Leur quantification a été réalisée par une approche top-down dans des tissus cérébraux et une approche par bottom-up dans le liquide céphalorachidien (LCR). Enfin, l’analyse a été étendue à la quantification multiplexe de l’alpha-synucléine et de la protéine tau du LCR. / Proteoforms describe the complexity of protein forms. This includes forms with post-translational modifications, isoforms and forms resulting from alternative splicing. These modifications can influence the function of a protein, hence the interest in developing sensitive, specific and robust methods for the quantification of proteoforms for a better understanding of pathological mechanisms or biomarkers discovery. The objective of this work was to take advantage of high-resolution mass spectrometry for the characterization and quantification of proteoforms associated with neurodegenerative diseases. We mainly focused on two proteins, C9ORF72 and alpha-synuclein. First, a method for quantifying the two C9ORF72 isoforms was developed and applied to a cohort of 43 human brains including cases of frontotemporal dementia (FTD) with or without C9ORF72 mutation. The results obtained show for the first time by mass spectrometry a decrease of about 50% of the long isoform of C9ORF72 in the presence of the mutation. Then, we extended the analysis to the multiplex quantification of 49 brain proteins potentially involved in FTD. In parallel, we focused on the truncated forms of alpha-synuclein. Their quantification was performed by a top-down approach in brain tissue and a bottom-up approach in cerebrospinal fluid (CSF). Finally, the analysis was extended to the multiplex quantification of alpha-synuclein and tau protein in CSF.
|
74 |
Aspects théoriques et pratiques de la quantification des classes lipidiques par usage des détecteurs universels et de la spectrométrie de masse / Theoretical and practical aspects of the quantification of lipid classes by use of universal detectors and mass spectrometryKhoury, Spiro 14 December 2015 (has links)
Le lipidome désigne la sous-fraction lipidique du métabolome d’une cellule, d’un tissu ou d’un organisme. Cependant, bien qu’appartenant au cadre général de la métabolomique, la lipidomique représente un champ d’investigation particulier en raison des spécificités fonctionnelles et métaboliques des lipides de même que de leurs propriétés physico-chimiques. L’analyse lipidomique représente un changement majeur d’échelle par rapport à l’analyse des lipides telle que pratiquée classiquement. L’objectif est ici d’atteindre l’échelle de l’espèce moléculaire lipidique en termes d’identification et de quantification afin de décrire l’ensemble des perturbations d’un réseau métabolique liées à un état physiologique ou pathologique. L’identification des classes et espèces repose sur principalement sur l’utilisation du couplage de la chromatographie liquide couplée à la spectrométrie de masse. La quantification peut faire appel à la spectrométrie de masse quand la spécificité et des faibles limites de détection sont requises ou à l’utilisation de détecteurs « universels » ou détecteurs par nébulisation que sont le détecteur évaporatif à diffusion de la lumière (DEDL) ou le détecteur d’aérosol chargé (Corona®-CAD) quand l’objectif est de quantifier l’ensemble de la classe lipidique. / The lipidome means the lipid subfraction of a metabolome, of a cell, a tissue or an organism. Lipidomics represents a particular field of investigation because of the functional and metabolic specificities of lipids as well as their physico-chemical properties. Lipidomics analysis represents a major change of scale with respect to lipid analysis as practiced conventionally. The aim of this work is to reach across the lipid molecular species in terms of identification and quantification in order to describe all the perturbations of a metabolic network related to a physiological or pathological state. The identification of the classes and the specie is based mainly on the use of liquid chromatography coupled to mass spectrometry. Quantification may use mass spectrometry when the specificity and low detection limits are required or the use of "universal" detectors that are nebulized detectors:evaporative detector light scattering (ELSD) or charged aerosol detector (CAD-Corona®) when the aim is to quantify the total lipid classes.
|
75 |
Phenotypic Variations In Animal Morphogenesis : Sea Urchin Twins And Cloned Rabbits / Variations phénotypiques de la morphogénèse animale : jumeaux d'oursins et lapins clonésFabrèges, Dimitri 11 January 2016 (has links)
La variabilité est une propriété intrinsèque aux systèmes biologiques, essentielle pour l'évolution et l'embryogénèse. Souvent considérée comme du bruit, ce n'est que récemment que l'aléatoire des processus biologiques a commencé à être systématiquement étudié. Cette thèse pose les questions suivantes : qu'est-ce qu'un développement normal ? Quel est l'étendue et le rôle de la variabilité dans la robustesse et la résilience du développement embryonnaire ?Ces questions sont posées pour le lapin (Oryctolagus cuniculus) et l'oursin (Paracentrotus lividus et Sphaerechinus granularis).Nous nous sommes aussi intéressé à la quantification du déterminisme de la variabilité embryonnaire à l'aide d'oursins jumeaux et de lapins clonés.La mesure des comportements cellulaires est effectuée sur des lignages cellulaires obtenus à partir d'imagerie 3D+temps. Nous montrons que les oursins jumeaux peuvent se développer selon trois phénotypes différents, jamais observés chez le normal, avant de converger vers une blastula d'apparence normale. De plus, les comparaisons entre et au sein des pairs de jumeaux montrent que le phénotype et la survie ne dépend que de l'histoire individuelle des embryos.Nos mesures quantitatives des pairs de jumeaux amènent des questions ouvrant de nouveaux horizons de recherche : les jumeaux sont-ils robustes ou résilient ?Le développement pré-implantatoire des lapins a été étudié sur cinq embryons numériques (trois sauvages et deux clones), du stade 32-cellules à l'éclosion.Nous montrons que les divisions asymétriques internes et externes régulent la variation du nombre de cellules internes ainsi que la taille de la masse cellulaire.De plus, la variation du nombre de cellules internes est plus grande que pour les cellules externes, ce qui semble directement lié au taux de morts cellulaires.Notre hypothèse est que le potentiel de bon développement des clones est assuré par une grande plasticité épigénétique des cellules donneuses.Ce travail espère définir des méthodes et des concepts fondateurs pour une exploration quantitative et une modélisation multi-échelle de la morphogénèse animale. / Variability is an intrinsic characteristic of biological systems, essential for evolution and embryogenesis.Considered as noise for centuries, it is only recently that the stochasticity of biological processes has began to be systematically explored.The present thesis addresses the following questions: What is a normal development?What is the extent and role of variability in developmental robustness and resilience?We tackle these issues in rabbit (Oryctolagus cuniculus) and sea urchin (Paracentrotus lividus and Sphaerechinus granularis).We also aimed to quantify determinism and stochasticity of developmental variability by means of sea urchin twins and cloned rabbits.Variations in cell behaviors were investigated through reconstruction of cell lineage from 3D+time imaging.We showed that sea urchin twins can follow three different developmental paths never observed in normal embryo, before converging to normal looking blastula.Moreover, comparisons between and within pairs of twins revealed that phenotype and survival depend on individual history alone.Our quantitative observation of twin pairs raises question opening a future line of research: are twins robust or resilient?Rabbit preimplantation development was explored with five digital specimens (three wild-types and two clones) from the 32-cell stage to hatching.We showed that inner and outer asymmetric divisions regulate the variation of inner cell number and may control inner cell mass size.In addition, the variation of inner cell number in clones is higher than outer cells which seems to be directly correlated to their cell death ratio.Our current hypothesis is that the potential to lead to viable clones requires plasticity of donor's epigenetic state.This work is expected to ground concepts and methods for a quantitative exploration and further multilevel modeling of morphogenetic processes.
|
76 |
Quantification of the parametric uncertainty in the specific absorption rate calculation of a mobile phone / Quantification de l'incertitude paramétrique dans le calcul de débit d'absorption spécifique d'un téléphone mobileCheng, Xi 15 December 2015 (has links)
La thèse porte sur la quantification d'incertitude de paramètres (Uncertainty Quantification ou UQ) dans le calcul du débit d'absorption spécifique (Specific Absorption Rate ou SAR) de téléphones mobiles. L'impact de l'incertitude, ainsi le manque de connaissances détaillées sur les propriétés électriques des matériaux, les caractéristiques géométriques du système, etc., dans le calcul SAR est quantifiée par trois méthodes de calcul efficaces dites non-intrusives : Transformation non parfumée (Unscented Transformation ou UT), collocation stochastique (Stochastic Collocation ou SC) et polynômes de chaos non-intrusifs (Non-Intrusive Polynomial Chaos ou NIPC).Ces méthodes sont en effet appelées méthodes non intrusives puisque le processus de simulation est tout simplement considéré comme une boîte noire sans que ne soit modifié le code du solveur de simulation. Leurs performances pour les cas de une et deux variables aléatoires sont analysées dans le présent travail. En contraste avec le procédé d'analyse d'incertitude traditionnel (la méthode de Monte Carlo ou MCM), le temps de calcul devient acceptable. Afin de simplifier la procédure UQ pour le cas de plusieurs entrées incertaines, il est démontré que des incertitudes peuvent être combinées de manière à évaluer l'incertitude sur les paramètres de la sortie.Combiner des incertitudes est une approche généralement utilisée dans le domaine des mesures, et ici, il est utilisé dans le calcul du SAR pour la situation complexe. Une des étapes nécessaires dans le cadre de l'analyse d'incertitude est l'analyse de sensibilité (Sensitivity Analysis ou SA), qui vise à quantifier l'importance relative de chaque paramètre d'entrée incertain par rapport à l'incertitude de la sortie. La méthode reposant sur le calcul des indices de sensibilité de Sobol est employée, ces indices étant évalués par un développement en polynômes de chaos, au lieu d'utiliser la méthode de Monte-Carlo dans le calcul SAR. Les résultats des investigations sont présentés et discutés.Afin de faciliter la lecture, des notions élémentaires de débit d'absorption spécifique, de modélisation, d'incertitude dans la modélisation, de théorie des probabilités, et de calcul SAR par l'un des solveurs de simulation sont proposés dans l'Introduction (chapitre 1). Puis l'usage des méthodes non-intrusives UQ telles que UT, SC et NIPC, et l'application de la méthode des indices de Sobol pour l'analyse de sensibilité dans le calcul SAR est présentée dans les chapitres 2 et 3. Dans le chapitre 4, une autre approche d'utilisation des polynômes de chaos est fournie, et elle est utilisée dans le domaine temporel par l'intermédiaire d'un code de différences finies (Finite Difference-Time Domain ou FD-TD). Puisque le code FD-TD dans le solveur de simulation peut en effet être modifié, c'est le développement en polynômes de chaos intrusifs, étudié en détail par un certain nombre de scientifiques déjà, qui est considéré. Dans le chapitre 5, les conclusions et un aperçu des travaux futurs sont fournis. / This thesis focuses on parameter uncertainty quantification (UQ) in specific absorptionrate (SAR) calculation using a computer-aided design (CAD) mobile phone model.The impact of uncertainty, e.g., lack of detailed knowledge about material electricalproperties, system geometrical features, etc., in SAR calculation is quantified by threecomputationally efficient non-intrusive UQ methods: unscented transformation (UT),stochastic collocation (SC) and non-intrusive polynomial chaos (NIPC). They are callednon-intrusive methods because the simulation process is simply considered as a blackboxwithout changing the code of the simulation solver. Their performances for thecases of one and two random variables are analysed. In contrast to the traditionaluncertainty analysis method: Monte Carlo method, the time of the calculation becomesacceptable. To simplify the UQ procedure for the case of multiple uncertain inputs, it isdemonstrated that uncertainties can be combined to evaluate the parameter uncertaintyof the output. Combining uncertainties is an approach generally used in the field ofmeasurement, in this thesis, it is used in SAR calculations in the complex situation. Oneof the necessary steps in the framework of uncertainty analysis is sensitivity analysis (SA)which aims at quantifying the relative importance of each uncertain input parameterwith respect to the uncertainty of the output. Polynomial chaos (PC) based Sobol’indices method whose SA indices are evaluated by PC expansion instead of Monte Carlomethod is used in SAR calculation. The results of the investigations are presented anddiscussed.In order to make the reading easier, elementary notions of SAR, modelling, uncertaintyin modelling, and probability theory are given in introduction (chapter 1). Thenthe main content of this thesis are presented in chapter 2 and chapter 3. In chapter 4,another approach to use PC expansion is given, and it is used in the finite-differencetime-domain (FDTD) code. Since the FDTD code in the simulation solver should bechanged, it is so-called intrusive PC expansion. Intrusive method already investigatedin details in other people’s thesis. In chapter 5, conclusions and future work are given.
|
77 |
Použití metody kvantifikace DNA jako screeningového nástroje pro efektivní genotypování vzorků ve forenzní DNA laboratoři. / Using of quantitative DNA method as a screening tool for effecient genotyping of samples in forensic DNA laboratory.Koljenšič, Ivana January 2011 (has links)
Quantification of human DNA in forensic samples is an important step during STR profiling because the STR genotyping is sensitive to the quantity of DNA used in the PCR reaction. This study focuses on the importance of quantification in the entire process of genetic analysis. Two real time PCR platforms (Roche LightCycler480 System and ABI 7900 RT PCR) were used to compare two commercial kits in terms of DNA quantification. It was found out that accuracy of absolute quantification values in commercial quantification kits is strongly dependent on the construction of calibration curve. Especially low template DNA samples were used to assess whether QuantifilerTM or Plexor® HY System can determinate a minimum quantification value (cut off value) below which STR profiles would consistently fail to be detected. The usage of Plexor® HY System enabled to determine the cut off quantification value more exactly probably due to different molecular background and chemistry used in this kit. Reliability and other issues connected with cut off value are discussed. In order to better understand the relationship between the quantity of DNA and the number of detectable loci series the dilution experiment with standard DNA007 was done. Quantitative and qualitative consequences of input DNA amount in evaluation of...
|
78 |
Développement d’une nouvelle approche combinant la radioimagerie et l’imagerie par spectrométrie de masse pour l’analyse de nanoparticules / Development of a dual imaging strategy combining radio -and mass spectrometry- imaging to study the biodistribution of nanoparticlesCazier, Hélène 08 November 2019 (has links)
La vectorisation de médicaments, qui permet de les acheminer sur les tissus cibles pour accroitre leur activité pharmacologique tout en limitant leur toxicité et effets indésirables, est un axe de recherche en forte expansion dans lequel les nanotechnologies sont un des facteurs clés. L’un des enjeux dans cette thèse a donc été de développer une méthode d’imagerie combinée entre la MSI et l’imagerie β pour l’étude de la biodistribution de nanoparticules de type graphène. Malgré l’étude de nanoparticules hétérogènes, les analyses ont permis de déterminer une signature carbonée répétable de l’oxyde de graphène en analyse LDI - MS et ainsi que des analyses reproductibles de MSI avec de CV inférieur à 30 %. De plus, la combinaison des deux techniques a permis d’obtenir la quantification absolue du GO en radioimagerie après exposition de souris à trois doses d’injection ainsi que la biodistribution à 25 µm de résolution spatiale de ces nanoparticules au sein des tissus grâce à l’apport de la MSI. Lors d’un second projet concernant l’étude de vecteurs micellaires polymériques encapsulant un médicament, une méthode MALDI - TOF a également été développée afin de détecter ces deux molécules simultanément. Cependant, les expérimentations réalisées ont montré le besoin de développer des protocoles de traitements tissulaire compatibles avec la MSI et permettant d’améliorer le seuil de sensibilité de cette technique analytique. / The vectorization of drugs, which allows them to be transported to target tissues to increase their pharmacological activity while limiting their toxicity and adverse effects, is a rapidly expanding research area in which nanotechnologies are one of the key factors. One of the challenges in this thesis was therefore to develop a combined imaging method between MSI and imaging β for the study of the biodistribution of graphene-type nanoparticles. Despite the study of heterogeneous nanoparticles, the analyses determined a repeatable carbon signature of graphene oxide in LDI - MS analysis and reproducible MSI analyses with CVs below 30%. In addition, the combination of the two techniques made it possible to obtain the absolute quantification of GO in radioimaging after exposure of mice to three injection doses as well as the biodistribution at 25 µm of spatial resolution of these nanoparticles within tissues thanks to the contribution of MSI. In a second project to study polymeric micellar vectors encapsulating a drug, a MALDI - TOF method was also developed to detect these two molecules simultaneously. However, the experiments carried out have shown the need to develop tissue treatment protocols compatible with MSI and making it possible to improve the sensitivity threshold of this analytical technique.
|
79 |
Comment sortir de prison ? Le rôle des statistiques pénitentiaires dans la compréhension des comportements de récidive. / Getting Out of Jail ? How Prison Statistics can Help Us to Understand Recidivism Behaviors.Henneguelle, Anaïs 30 November 2017 (has links)
Près de deux tiers des sortants de prison sont recondamnés durant les cinq années suivant leur libération. Ce constat simple interroge : peut-on imaginer des solutions au problème social de la récidive ? Quel peut être le rôle de l’économiste et du sociologue en la matière ? Comment sont construits ces chiffres et qu’omettent-ils de dire ? Combinant méthodes quantitatives et qualitatives, cette thèse examine la construction sociale des statistiques pénitentiaires. Elle apporte une contribution en matière de connaissance économétrique des comportements de récidive, mais aussi en matière de sociologie de la quantification et plus largement de sociologie et d’économie du droit. Elle mobilise également la théorie de l’économie des conventions.Dans la première partie, nous passons en revue la littérature économique existant au sujet de l’efficacité des sanctions pénales, avant de présenter une étude originale montrant que les condamnés ayant bénéficié d’un bracelet électronique récidivent moins ceteris paribus que ceux qui ont été incarcéré. Dans la seconde partie, nous plongeons dans la fabrique des statistiques pénitentiaires, c’est-à-dire dans les prisons : comment sont fabriquées les données que nous avons utilisées pour nos travaux économétriques ? Dans la troisième partie, nous explorons un autre angle mort des statistiques en nous intéressant au biais de sélection construit dans les tribunaux : comment les juges de l’application des peines choisissent-ils les bénéficiaires d’un aménagement de peine ? / About two third of ex-inmates are re-convicted during the five years following their release. This simple fact raises many questions: what can we do to fight recidivism? What role shold economists and sociologists play in this regard? How are these statistics established and what do they omit?Based on mixed methods, this thesis investigates the social construction of prison statistics. It contributes to econometrics in terms of recidivism behaviors, but also to the sociology of quantification and more broadly to law sociology and economics. It also uses the economics of convention theory.In the first part, we review the existing economic literature about the efficacity of penal sanctions. We then present an original study which shows that convicts who undergo electronic monitoring do re-offend less ceteris paribus than those who have been into jails. In the second part, analyse how prison statistics are established in detail: how is the data that we used in our econometric work created?In the third and last part, we explore another blind spot of the econometric method, namely selection bias. How do judges chose who will obtain an alternative to prison?
|
80 |
Quantification et modélisation de la morphogenèse foliaire / Quantification and modeling of leaf morphogenesisOughou, Mohamed Said 22 March 2019 (has links)
Les feuilles des plantes sont des organes importants pour la production de biomasse dans la nature car elles sont le siège principal de la photosynthèse, qui permet de transformer la matière minérale en matière organique. Identifier les mécanismes responsables de la morphogenèse, i.e. la genèse de la forme pendant le développement, est donc une question d'intérêt. Pour être analysée, la morphogenèse doit être appréhendée tout au long de la croissance car la forme finale d'une feuille est le résultat de mécanismes coordonnés dans l'espace et le temps. Pour comprendre ce type de processus complexes, la modélisation est une approche de choix. L'objectif de cette thèse était donc de développer des stratégies de quantification et de modélisation de la morphogenèse pour mieux comprendre le développement des feuilles. Pour quantifier la morphogenèse, ma première contribution a été de développer des méthodes pour dater précisément l'apparition des feuilles sur la plante et celle des dentelures sur la marge foliaire, ce qui permet de recaler dans le temps et comparer différentes feuilles en croissance. En calculant les trajectoires de croissance de feuilles moyennes, il est alors possible de préciser où et quand le développement de feuilles peuvent différer, au niveau global ou des dentelures, pendant la croissance. En analysant des feuilles de formes différentes de la plante modèle Arabidopsis thaliana, j'ai ainsi pu montrer que malgré des différences importantes en taille et forme globale, il y a une similarité dans le développement des dentelures. Ces résultats suggèrent qu'il existe des processus identiques qui gouvernent l'apparition et la croissance des dentelures. J'ai ensuite proposé un modèle de développement des feuilles, à partir duquel il est possible de simuler la croissance d'une feuille. Il est basé sur des mécanismes biologiques qui on été identifiés comme étant importants dans la mise en place de la forme. Pour paramétrer le modèle, une approche d'optimisation a été mise au point pour déterminer les paramètres optimaux du modèle. Les résultats obtenus montrent que l'apparition séquentielle des dents ainsi que certains paramètres morphologiques peuvent être bien reproduits par le modèle. / Plant leaves are important for the production of biomass in nature, because they are the main site of photosynthesis, They have various shapes and it has been shown that their morphology influences photosynthesis efficiency. Identifying the mechanisms responsible for morphogenesis, i.e. the genesis of the shape during development, is therefore a matter of interest. To be analyzed, morphogenesis must be apprehended throughout the whole growth because the leaf final form is the result of coordinated mechanisms in space and time. To understand this type of complex processes, modeling is an approach of choice. Consequently, the objective of this thesis was to develop strategies for the quantification and modeling of morphogenesis to better understand leaf development. To quantify morphogenesis, my first contribution was to develop methods to precisely date the appearance of the leaves on the plant, and of the serrations at the leaf margin, allowing to register in time and to compare different growing leaves. Besides, based on mean growth trajectories, it is possible to specify where and when the developments of different leaves differ, at global and serration scales, during growth.By analyzing the development of leaves of the plant model Arabidopsis thaliana that have different shapes, in wild type or in mutants, it has been shown that, despite significant differences in leaf size and shape, there is a similarity in the development of all serrations. These results suggest that there are identical processes that control the appearance and growth of serrations. I proposed two leaf development models, based on biological mechanisms that have been identified, in the literature, as important for the leaf shaping, and also on the quantification of leaf morphogenesis performed in this work. The simulation module, that generates growth trajectories from the model, makes it possible to compare simulated and real developments. To parameterize the model, an optimization approach has been proposed to determine optimal parameters, which minimizes the differences between simulation and real growths. The results showed that the sequential appearance of the teeth as well as important morphological characteristics can be well reproduced by the models.
|
Page generated in 0.1204 seconds