51 |
Extraction et Modélisation de la cinétique du traceur en imagerie TEP pour la caractérisation des tissus tumoraux / Extraction and Modeling of the kinetics of the tracer in PET imaging for the characterization of tumor tissuesKetata, Ines 06 December 2013 (has links)
Les travaux de recherche de cette thèse s'inscrivent dans le cadre de la caractérisation du cancer du sein dans le but de réaliser une nouvelle approche pour l'extraction et la modélisation de la cinétique du traceur en imagerie TEP. La mesure du taux de comptage d'un traceur dans une région d'intérêt (ROI) estimée au moyen d'une extension d'une Carte de Dissimilarité Locale à Valeurs Réelles (CDLVR) proposée en niveaux de gris et l'utilisation des modèles dynamiques comme la méthode d'Analyse Factorielle des Séquences d'Images Médicales (AFSIM) appliquée sur la ROI permettent la quantification automatique et précoce du métabolisme glucidique. Plus spécifiquement, il s'agit de déterminer un nouveau paramètre empirique KFPQ. Il est calculé à partir des deux compartiments obtenus dans la région d'intérêt tumorale et tel que évalué durant le premier passage du traceur 18F-FDG dans les images TEP précoces. / The research of this thesis proposes in the context of the breast cancer characterization in order to achieve a new approach for the extraction and modeling of the tracer kinetics in PET imaging.The measurement of the counting rate of a tracer in a region of interest (ROI) estimated using an extension of a Real Valued Local Dissimilarity Map (RVLDM) proposed grayscale and the use of dynamic models as the method of factor analysis of medical image sequences (FAMIS) applied on the ROI enable an automatic early quantification of glucose metabolism. More specifically, it is to determine a new KFPQ empirical parameter. It is calculated from the two compartments obtained in the region of interest and tumor as assessed during the first pass of the 18F-FDG tracer in the early PET images.
|
52 |
Etude comportementale des mesures d'intérêt d'extraction de connaissances / Behavioral study of interestingness measures of knowledge extractionGrissa, Dhouha 02 December 2013 (has links)
La recherche de règles d’association intéressantes est un domaine important et actif en fouille de données. Puisque les algorithmes utilisés en extraction de connaissances à partir de données (ECD), ont tendance à générer un nombre important de règles, il est difficile à l’utilisateur de sélectionner par lui même les connaissances réellement intéressantes. Pour répondre à ce problème, un post-filtrage automatique des règles s’avère essentiel pour réduire fortement leur nombre. D’où la proposition de nombreuses mesures d’intérêt dans la littérature, parmi lesquelles l’utilisateur est supposé choisir celle qui est la plus appropriée à ses objectifs. Comme l’intérêt dépend à la fois des préférences de l’utilisateur et des données, les mesures ont été répertoriées en deux catégories : les mesures subjectives (orientées utilisateur ) et les mesures objectives (orientées données). Nous nous focalisons sur l’étude des mesures objectives. Néanmoins, il existe une pléthore de mesures objectives dans la littérature, ce qui ne facilite pas le ou les choix de l’utilisateur. Ainsi, notre objectif est d’aider l’utilisateur, dans sa problématique de sélection de mesures objectives, par une approche par catégorisation. La thèse développe deux approches pour assister l’utilisateur dans sa problématique de choix de mesures objectives : (1) étude formelle suite à la définition d’un ensemble de propriétés de mesures qui conduisent à une bonne évaluation de celles-ci ; (2) étude expérimentale du comportement des différentes mesures d’intérêt à partir du point de vue d’analyse de données. Pour ce qui concerne la première approche, nous réalisons une étude théorique approfondie d’un grand nombre de mesures selon plusieurs propriétés formelles. Pour ce faire, nous proposons tout d’abord une formalisation de ces propriétés afin de lever toute ambiguïté sur celles-ci. Ensuite, nous étudions, pour différentes mesures d’intérêt objectives, la présence ou l’absence de propriétés caractéristiques appropriées. L’évaluation des mesures est alors un point de départ pour une catégorisation de celle-ci. Différentes méthodes de classification ont été appliquées : (i) méthodes sans recouvrement (CAH et k-moyennes) qui permettent l’obtention de groupes de mesures disjoints, (ii) méthode avec recouvrement (analyse factorielle booléenne) qui permet d’obtenir des groupes de mesures qui se chevauchent. Pour ce qui concerne la seconde approche, nous proposons une étude empirique du comportement d’une soixantaine de mesures sur des jeux de données de nature différente. Ainsi, nous proposons une méthodologie expérimentale, où nous cherchons à identifier les groupes de mesures qui possèdent, empiriquement, un comportement semblable. Nous effectuons par la suite une confrontation avec les deux résultats de classification, formel et empirique dans le but de valider et mettre en valeur notre première approche. Les deux approches sont complémentaires, dans l’optique d’aider l’utilisateur à effectuer le bon choix de la mesure d’intérêt adaptée à son application. / The search for interesting association rules is an important and active field in data mining. Since knowledge discovery from databases used algorithms (KDD) tend to generate a large number of rules, it is difficult for the user to select by himself the really interesting knowledge. To address this problem, an automatic post-filtering rules is essential to significantly reduce their number. Hence, many interestingness measures have been proposed in the literature in order to filter and/or sort discovered rules. As interestingness depends on both user preferences and data, interestingness measures were classified into two categories : subjective measures (user-driven) and objective measures (data-driven). We focus on the study of objective measures. Nevertheless, there are a plethora of objective measures in the literature, which increase the user’s difficulty for choosing the appropriate measure. Thus, our goal is to avoid such difficulty by proposing groups of similar measures by means of categorization approaches. The thesis presents two approaches to assist the user in his problematic of objective measures choice : (1) formal study as per the definition of a set of measures properties that lead to a good measure evaluation ; (2) experimental study of the behavior of various interestingness measures from data analysispoint of view. Regarding the first approach, we perform a thorough theoretical study of a large number of measures in several formal properties. To do this, we offer first of all a formalization of these properties in order to remove any ambiguity about them. We then study for various objective interestingness measures, the presence or absence of appropriate characteristic properties. Interestingness measures evaluation is therefore a starting point for measures categorization. Different clustering methods have been applied : (i) non overlapping methods (CAH and k-means) which allow to obtain disjoint groups of measures, (ii) overlapping method (Boolean factor analysis) that provides overlapping groups of measures. Regarding the second approach, we propose an empirical study of the behavior of about sixty measures on datasets with different nature. Thus, we propose an experimental methodology, from which we seek to identify groups of measures that have empirically similar behavior. We do next confrontation with the two classification results, formal and empirical in order to validate and enhance our first approach. Both approaches are complementary, in order to help the user making the right choice of the appropriate interestingness measure to his application.
|
53 |
Approche textométrique et comparative du discours de segmentation du marché automobile : implications pour la traduction publicitaire anglais > français / A statistical, comparative analysis of the automotive industry segmentation discourse : implications for english > french translationRéthoré, Christophe 23 January 2017 (has links)
Cette recherche est ancrée à la fois dans la statistique textuelle, et secondairement dans l’analyse du discours, avec une complémentarité quantitatif-qualitatif. L’état de la question présente une vue d’ensemble des recherches linguistiques sur la publicité – linguistique descriptive, analyse du discours, sémiologie/sémiotique et rhétorique/stylistique, en prenant pour point de départ le travail pionnier en linguistique descriptive de Leech (TheLanguage of Advertising, 1966) – et révèle plusieurs constats :1. les mots de la publicité constituent bien un discours spécialisé 2. la publicité ressemble à la fois à la poésie et à la langue courante 3. l’intertextualité et la participation active d’un récepteur ciblé sont deux données clés de la communication publicitaire 4. la langue publicitaire est émotionnelle, ambiguë, indirecte et implicite 5. de façon simpliste et ludique, la publicité nous dépeint un monde de bonheur parfait 6. simplicité et conventionnalisation du discours publicitaire, et invariants lexicaux. Pour répondre à certaines questions sur le discours, la langue, la communication et la traduction publicitaires, nous avons choisi une approche quantitative et l’approche lexicométrique (ou statistique textuelle, devenue récemment textométrie), développée notamment par le « groupe de Saint-Cloud » et ses collaborateurs, dont André Salem (concepteur de Lexico, le logiciel utilisé pour nos analyses). L'analyse lexicométrique est complétée par l'analyse factorielle des correspondances (AFC) et la méthode de projection géodésique de Viprey (avec le logiciel Astadiag). Grâce à un corpus parallèle (bitexte) d’environ 800 000 occurrences en anglais et un million en français (170 brochures publicitaires compilées à partir de sites Web canadiens de 20 marques, 10 constructeurs, 229 véhicules au total), nous avons réussi à déterminer un profil lexical distinct pour chacun des sept segments du marché automobile : AB, CD, EF, MPV (véhicules multifonctions), PK (pickups/camions), SP (voitures de sport) et SUV (VUS : véhicules utilitaires sports) et montré que dans l’ensemble, les publicités sont traduites assez littéralement. / Our research is quantitative and qualitative, based on textometrics tools and discourse analysis. Our literature review surveyed linguistic studies of advertising, through different schools of thought : descriptive linguistics, discourse analysis, semiology, rhetorics/stylistics, starting with Leech’s founding work (The Language of Advertising, 1966), which led to several highlights : 1. advertising is indeed a specialty discourse, or a language for special purpose (LSP) 2. advertising shares some common features with both poetry and the language we speak everyday 3. intertextuality and active participation of the targeted reader are two key factors of advertising communication 4. the language of advertising is emotional, ambiguous, indirect and implicit 5. in a simple and playful way, advertising depicts a perfect, happy world 6. simplicity and conventionalization of the advertising discourse, with lexical constants.To find answers to some of our questions on the advertising discourse, language, communication and translation, we selected a quantitative approach, i.e., the lexicometric methodology (statistical linguistics, more recently called textometry) developed by the Saint-Cloud (France) group, including André Salem (founder and developer of Lexico,which we used to analyze our corpus). Our lexicometric analysis is complemented by a classic factor analysis (FCA)and Viprey’s geodesical projection method (with the Astadiag software). With our parallel corpus of roughly 800,000 tokens in English and one million in French (170 advertising brochures downloaded from 20 brands/10carmakers’ Canadian websites, for a total of 229 vehicles), we found distinct lexical profiles for each of the seven carmarket segments: AB, CD, EF, MPV, PK (pickup trucks), SP (sports cars) and SUV. We also showed that overall,advertisements are translated rather literally.
|
54 |
Analyse factorielle de données structurées en groupes d'individus : application en biologie / Multivariate data analysis of multi-group datasets : application to biologyEslami, Aida 21 October 2013 (has links)
Ce travail concerne les analyses visant à étudier les données où les individus sont structurés en différents groupes (données multi-groupes). La thèse aborde la question des données multi-groupes ayant une structure en un seul tableau, plusieurs tableaux, trois voies et deux blocs (régression). Cette thèse présente plusieurs méthodes d'analyse de données multi-groupes dans le cadre de l'analyse factorielle. Notre travail comporte trois parties. La première partie traite de l'analyse de données multi-groupes (un bloc de variables divisé en sous-groupes d'individus). Le but est soit descriptif (analyse intra-groupes) ou prédictif (analyse discriminante ou analyse inter-groupe). Nous commençons par une description exhaustive des méthodes multi-groupes. En outre, nous proposons deux méthodes : l'Analyse Procrustéenne duale et l'Analyse en Composantes Communes et Poids Spécifiques duale. Nous exposons également de nouvelles propriétés et algorithmes pour l'Analyse en Composantes Principales multi-groupes. La deuxième partie concerne l'analyse multi-blocs et multi-groupes et l'analyse trois voies et multi-groupes. Nous présentons les méthodes existantes. Par ailleurs, nous proposons deux méthodes, l'ACP multi-blocs et multi-groupes et l'ACP multi-blocs et multi-groupes pondérée, vues comme des extensions d'Analyse en Composantes Principales multi-groupes. L'analyse en deux blocs et multi-groupes est prise en compte dans la troisième partie. Tout d'abord, nous présentons des méthodes appropriées pour trouver la relation entre un ensemble de données explicatives et un ensemble de données à expliquer, les deux tableaux présentant une structure de groupe entre les individus. Par la suite, nous proposons quatre méthodes pouvant être vues comme des extensions de la régression PLS au cas multi-groupes, et parmi eux, nous en sélectionnons une et la développons dans une stratégie de régression. Les méthodes proposées sont illustrées sur la base de plusieurs jeux de données réels dans le domaine de la biologie. Toutes les stratégies d'analyse sont programmées sur le logiciel libre R. / This work deals with multi-group analysis, to study multi-group data where individuals are a priori structured into different groups. The thesis tackles the issue of multi-group data in a multivariate, multi-block, three-way and two-block (regression) setting. It presents several methods of multi-group data analysis in the framework of factorial analysis. It includes three sections. The first section concerns the case of multivariate multi-group data. The aim is either descriptive (within-group analysis) or predictive (discriminant analysis, between-group analysis). We start with a comprehensive review of multi-group methods. Furthermore, we propose two methods namely Dual Generalized Procrustes Analysis and Dual Common Component and Specific Weights Analysis. We also exhibit new properties and algorithms for multi-group Principal Component Analysis. The second section deals with multiblock multi-group and three-way multi-group data analysis. We give a general review of multiblock multi-group methods. In addition, we propose two methods, namely multiblock and multi-group PCA and Weighted-multiblock and multi-group PCA, as extensions of multi-group Principal Component Analysis. The two-block multi-group analysis is taken into account in the third section. Firstly, we give a presentation of appropriate methods to investigate the relationship between an explanatory dataset and a dependent dataset where there is a group structure among individuals. Thereafter, we propose four methods, namely multi-group PLS, in the PLS approach, and among them we select one and develop it into a regression strategy. The proposed methods are illustrated on the basis of several real datasets in the field of biology. All the strategies of analysis are implemented within the framework of R.
|
55 |
Caractérisation des tumeurs et de leur évolution en TEP/TDM au ¹⁸F-FDG pour le suivi thérapeutique / Characterization of the tumors and their evolutions using PET/CT for treatment followingMaisonobe, Jacques-Antoine 13 December 2012 (has links)
La Tomographie par Emission de Positons (TEP) au Fluoro-déoxyglucose marqué au Fluor 18 (¹⁸F-FDG), analogue du glucose, permet d'obtenir une image de la consommation de glucose dans l'organisme. La plupart des foyers tumoraux présentant une consommation excessive de glucose, son utilisation en oncologie permet d'améliorer la prise en charge des patients en diminuant le temps nécessaire pour évaluer l'efficacité des traitements tels que la chimiothérapie et la radiothérapie. Mon projet de recherche visait à proposer et améliorer des méthodes de quantification en TEP au ¹⁸F-FDG afin de caractériser au mieux l'évolution métabolique des volumes tumoraux.De nombreux facteurs biaisent la quantification en TEP. Parmi eux, l'Effet de Volume Partiel (EVP) reste difficile à corriger, notamment à cause de la faible résolution spatiale des images TEP. Afin de déterminer l'impact de la correction de l’EVP sur l’évaluation des réponses des tumeurs, une étude sur données simulées par Monte Carlo a tout d’abord été effectuée. Cette étude a été complétée par l’analyse de données TEP/TDM (Tomodensitométrie) acquises chez 40 patients atteints de cancers colorectaux métastatiques (CCM), traités par chimiothérapie à l'Institut Jules Bordet (Bruxelles). L’analyse de 101 tumeurs a montré que les critères tels que le SUV, n’incluant pas de correction de l'EVP, et qui reflètent alors le volume tumoral et son activité, prédisaient mieux l’évolution tumorale que les critères corrigés de l’EVP. Compte tenus des résultats prometteurs récents de méthodes de caractérisation de l’hétérogénéité de la fixation du FDG dans les tumeurs, un second volet de notre travail a consisté à étudier l’intérêt de la prise en compte de la texture dans le cadre du suivi thérapeutique. L’application de l’analyse de texture aux cas de CCM étudiés précédemment n’a pas permis de démontrer une valeur ajoutée des indices de texture par rapport aux index quantitatifs couramment employés en clinique. Nous avons montré que cette conclusion s’expliquait en partie par la non-robustesse des indices de texture vis-à-vis des paramètres impliqués dans leur mesure. Nous avons enfin cherché à évaluer une méthode d’Analyse Factorielle de Séquences d’Images Médicales (AFSIM), appliquée au contexte du suivi thérapeutique, pour caractériser l’évolution tumorale tout au long du traitement. Cette étude a porté sur 9 séries de 4 à 6 examens TEP/TDM de patients traités par radiothérapie au Centre Hospitalier Universitaire Henri Becquerel de Rouen. Outre l’information visuelle globale apportée par cette méthode, l’analyse quantitative des résultats obtenus a permis de caractériser l’hétérogénéité de la réponse vue par l’AFSIM. L’échec des index classiques, provenant entre autres de leur incapacité à distinguer les processus inflammatoires de l’activité métabolique tumorale, a permis de monter la valeur ajoutée de l’AFSIM par rapport aux index tels que le SUV maximal ou moyen. / Positron Emission Tomography (PET) using ¹⁸F-FluoroDeoxyGlucose (¹⁸F-FDG), a radiolabelled analogue of the glucose, is used to get an image of the glucose consumption in the body. As most tumor masses show a high glucose consumption, PET is widely used in oncology for diagnosis and patient monitoring. In the context of patient monitoring, the motivation is to decrease the time interval needed to assess treatment (radiotherapy or chemotherapy efficieny) compared to therapeutic follow-up based only on anatomic imaging only (Computed Tomography or Magnetic Resonance Imaging). My research project aimed at proposing and improving quantitative methods in FDG-PET to better characterize tumor evolution.In PET, many factors affect the accuracy of parameters estimated from the images. Among them, Partial Volume Effect (PVE) remains difficult to correct, mainly due to the low spatial resolution of PET images. To determine the impact of PVE on treatment response evaluation, a preliminary study was performed using Monte Carlo simulated PET scans. An additional study was conducted based on the analysis of the PET/CT (Computed Tomography) data of 40 Metastatic Colorectal Cancer (MCC) patients treated with chemotherapy at the Jules Bordet Institute (Brussels, Belgium). The analysis of the 101 tumors showed that criteria such as the Standardized Uptake Value (SUV), which does not include PVE correction, were better predictors of tumors evolutions than PVE corrected criteria. This is because without PVE correction, SUV includes information on both metabolic volume and metabolic activity, which are two relevant pieces of information to characterize the tumor. A second part of our work was to study the potential of tumor texture analysis in patient monitoring, following promising results reported in the literature. Texture analysis was applied to the MMC patients data previously mentioned but did allow to a better segregation of tumors responses as compared to indices currently used in the clinics. We found that this was partly due to the lack of robustness of the textures indices.Finally, we evaluated a Factor Analysis in Medical Images Series (FAMIS) method to characterize tumor evolution during treatment. This study focused on 9 series of 4 to 6 PET/CT scans acquired all along the radiotherapy/radio-chemotherapy of patients treated at the Centre Hospitalier Universitaire Henri Becquerel (Rouen, France). In addition to the rich visual information brought by this method, a quantitative analysis of the results made it possible to characterize response heterogeneity as seen using FAMIS. In particular, FAMIS clearly demonstrated the occurrence of inflammatory processes. In addition, due to the low metabolic activity of the tumors at the end of the treatment, many conventional indices could not describe the tumor changes, while FAMIS gave a full assessment of the tumor change over time.
|
56 |
Recherche statistique de biomarqueurs du cancer et de l'allergie à l'arachideCollignon, Olivier 16 October 2009 (has links) (PDF)
La première partie de la thèse traite de la recherche de biomarqueurs du cancer. Lors de la transcription, il apparaît que certains nucléotides peuvent être remplacés par un autre nucléotide. On s'intéresse alors à la comparaison des probabilités de survenue de ces infidélités de transcription dans des ARNm cancéreux et dans des ARNm sains. Pour cela, une procédure de tests multiples menée sur les positions des séquences de référence de 17 gènes est réalisée via les EST (Expressed Sequence Tag). On constate alors que ces erreurs de transcription sont majoritairement plus fréquentes dans les tissus cancéreux que dans les tissus sains. Ce phénomène conduirait ainsi à la production de protéines dites aberrantes, dont la mesure permettrait par la suite de détecter les patients atteints de formes précoces de cancer. La deuxième partie de la thèse s'attache à l'étude de l'allergie à l'arachide. Afin de diagnostiquer l'allergie à l'arachide et de mesurer la sévérité des symptômes, un TPO (Test de Provocation Orale) est réalisé en clinique. Le protocole consiste à faire ingérer des doses croissantes d'arachide au patient jusqu'à l'apparition de symptômes objectifs. Le TPO pouvant se révéler dangereux pour le patient, des analyses discriminantes de l'allergie à l'arachide, du score du TPO, du score du premier accident et de la dose réactogène sont menées à partir d'un échantillon de 243 patients, recrutés dans deux centres différents, et sur lesquels sont mesurés 6 dosages immunologiques et 30 tests cutanés. Les facteurs issus d'une Analyse Factorielle Multiple sont également utilisés comme prédicteurs. De plus, un algorithme regroupant simultanément en classes des intervalles comprenant les doses réactogènes et sélectionnant des variables explicatives est proposé, afin de mettre ensuite en compétition des règles de classement. La principale conclusion de cette étude est que les mesures de certains anticorps peuvent apporter de l'information sur l'allergie à l'arachide et sa sévérité, en particulier ceux dirigés contre rAra-h1, rAra-h2 et rAra-h3.
|
57 |
Analyse et Optimisation des performances d'un capteur de gaz à base de SnO2 nanoparticulaire : Application à la détection de CO et CO2.Tropis, Cyril 07 December 2009 (has links) (PDF)
Les micro-capteurs de gaz connaissent un intérêt croissant avec le développement des applications « bas-coût » dans les domaines de l'automobile, la domotique ou l'environnement. Pour répondre à cette demande, les micro-capteurs à base d'oxyde métallique présentent des avantages uniques comme leur faible coût, une grande sensibilité, un temps de réponse bref et facile à intégrer dans un système portable miniaturisé. Cependant, ces capteurs tels qu'ils sont aujourd'hui, souffrent d'un manque de sélectivité et d'une dérive de leurs performances à long terme, ce qui freine leur développement. D'autre part, la détection du dioxyde de carbone, qui représente un intérêt grandissant, semblait particulièrement difficile avec ce type de capteur. Dans ce contexte, l'objet de ce travail consiste d'une part à bien comprendre les phénomènes réactionnels observés grâce à la simulation numérique « gaz-surface », d'autre part à définir un mode opératoire « robuste » permettant d'obtenir une meilleure stabilité et surtout améliorer la sélectivité. Tout d'abord, nous avons étudié les paramètres d'un profil de température dynamique pour améliorer significativement les performances du capteur. Par la suite, un modèle de connaissance des mécanismes de réaction à été développé afin de mieux interpréter, comprendre et prévoir le comportement de ces capteurs. Ce modèle a la particularité de simuler les transferts de charge en surface de la couche sensible en s'appuyant sur des calculs ab-initio. Enfin, nous avons travaillé sur la modélisation de la réponse. Un modèle d'interpolation très performant adapté au problème a été étudié dans un système décisionnel. La convergence de ces trois approches a permis une meilleure compréhension du fonctionnement du capteur avec du CO et du CO2 et la détermination d'un protocole de mesure optimal avec une optimisation du traitement du signal de la réponse électrique.
|
58 |
Géologie du Précambrien terminal (III) et traitement statistique des données géochimiques de prospection, dans la boutonnière de Bou Azzer - El Graara (Anti-Atlas, Maroc)Azizi Samir, Moulay 21 December 1990 (has links) (PDF)
Cette étude est effectuée dans la zone de suture panafricaine de Bou Azzer-EI Graara (Anti-Atlas, Maroc). Elle s'articule en deux volets: d'une part, l'étude géologique et géodynamique du Précambrien Terminal (III) qui sert de support aux traitements statistiques de l'information géochimique de prospection récoltée dans le district de Tamdrost-Ambed d'autre part. 1) Un découpage lithostratigraphique des formations volcaniques du PIII est obtenu grâce à la cartographie détaillée au 1/4000e du district de Tamdrost-Ambed et aux coupes géologiques levées en d'autres points de la boutonnière. Ceci a permis d'établir une coupe synthétique et des corrélations lithostratigraphiques. L'étude pétrographique des roches volcaniques à prédominance pyroclastique de cette série montre leur rattachement à un magmatisme calco-alcalin, d'âge compris entre 580 et 560 Ma, dont la signification est discutée dans le cadre géodynamique régional. L'analyse structurale des formations volcaniques et volcano-sédimentaires du Précambrien III, conduit à la mise en évidence de déformations synvolcaniques en régime distensif (NW -SE) et à la détermination des paléochamps de contraintes associés aux déformations observées. Le modèle d'extension proposé implique des mouvements de coulissement senestres le long de grands décrochements régionaux parallèles à la suture, entre le craton ouest-africain et le domaine panafricain "mobile". II) Le traitement des données géochimiques (13000 analyses de 10 éléments majeurs et 24 éléments en traces par Spectrométrie d'émission) aboutit à la mise en évidence d'anomalies élémentaires et multiélémentaires significatives d'indices miniers, indépendants de la lithologie. Ce résultat passe par l'étude de la qualité des données géochimiques qui a conduit à l'évaluation de la précision et à l'application d'une correction empirique de l'erreur analytique. L'analyse statistique des données de prospection est effectuée en plusieurs étapes: - l'utilisation de la technique non conventionnelle "box and whiskers" pour la détermination des seuils anomaux, toutes lithologies confondues; -la diversité lithologique est simplifiée par analyse factorielle en composantes principales sur les médianes pour aboutir à quatre groupes lithologiques au lieu des 32 distingués sur le terrain; . - une analyse discriminante sur ces quatre groupes, désormais connus, aboutit à un modèle factoriel du fond géochimique qui explique mieux les variations liées à la lithologie; - le fond géochimique modélisé est retranché par régression factorielle pour faire apparaitre les anomalies discordantes. Des cartes de synthèse des anomalies multiélémentaires sont établies dans le but d'orienter les campagnes de sondage.
|
59 |
Un point de vue sur des approches factorielles et probabilistes de la covariance. Application à l'analyse locale du mouvementHidot, Sullivan 07 December 2007 (has links) (PDF)
Cette thèse s'intéresse à des approches factorielles et probabilistes de la covariance qui tient compte d'une connaissance exogène sur les observations. Nous adoptons un modèle qui décompose le signal en une fonction déterministe du temps caractérisant la tendance, et en un terme résiduel. Les méthodes factorielles sont consacrées à l'étude du terme tendanciel. Nous présentons le formalisme général de la covariance relationnelle ainsi que de nouvelles propriétés qui éclairent les interprétations et faisons le lien avec les notions déjà existantes. La covariance relationnelle s'intègre dans l'analyse en composantes principales (ACP), l'analyse factorielle d'opérateurs et l'analyse discriminante d'opérateurs.<br />Nous montrons que l'ACP relationnelle est un cas particulier de l'ACP à noyaux et de l'ACP fonctionnelle, dont nous dressons les schémas de dualité correspondants. L'étude du terme résiduel est menée à l'aide d'approches probabilistes fondées sur la covariance. Dans un premier temps, ce terme est assimilé à un vecteur gaussien et nous introduisons une procédure de classification de matrices de covariance par la distribution de Wishart induite par l'hypothèse de gaussianité. En particulier, l'algorithme EM sur matrices de covariance est proposé. Dans un second temps, on procède à l'analyse fractale du terme résiduel, identifié par une trajectoire d'un processus autosimilaire. L'indice d'autosimilarité est estimé quelque soit l'échantillonnage et nous déterminons dans quelle<br />mesure cette contrainte temporelle influe sur l'estimation. Nous appliquons les concepts présentés à l'analyse du mouvement : corpus<br />de mouvements de danse contemporaine (méthodes factorielles et classification par Wishart), et données de biologie marine (segmentation par analyse fractale).
|
60 |
Les effets de pairs à la lumière des interactions entre élèves et des dimensions subjectives du vécu scolaireRoco Fossa, Rodrigo 27 June 2011 (has links) (PDF)
Le présent travail de thèse aborde la problématique des effets de pairs en contexte scolaire. A partir de l'analyse détaillée d'une large base des données issue d'une enquête nationale au Chili (SIMCE 2004), on s'interroge sur les mécanismes qui véhiculent les influences entre élèves différemment dotés d'un point de vue de leurs capitaux culturels, humains et scolaires. Ces influences sembleraient présentes sur différents résultats à l'école, y compris ceux de type académique. Considérant la littérature produite sous différentes approches disciplinaires --sociologie, économie, psychologie sociale et sciences de l'éducation -- on s'attarde sur les manières d'identifier et de mesurer lesdits effets de pairs. En même temps, on considère la présence de dimensions subjectives capables d'exprimer, en partie, le vécu scolaire des élèves. Ces dimensions seraient, par ailleurs, reliées à la présence des pairs et aux interactions entre élèves. De manière additionnelle, on propose une révision de la littérature sur le système scolaire au Chili, notamment sur sa segmentation socio-scolaire et sa relation avec le mécanisme de vouchers. Dans ce cadre, trois interrogations principales organisent ce travail. D'une part, l'existence ou non d'un impact net sur les acquis scolaires des pratiques d'étude faisant appel aux camarades. Ensuite, la présence probable des influences sous la forme des " transferts des capitaux " entre élèves différemment dotés et déclarant pratiquer l'entraide. Enfin, les relations qui s'avèrent visibles entre ces pratiques et des dimensions telles que le bien-être à l'école ou le concept du soi académique, mais aussi, entre ces dernières et les acquis scolaires. Une séquence d'analyses est entreprise visant à donner des bases robustes aux éventuelles réponses à ces questions. Entre autres, différentes séries d'analyses de régression hiérarchique et par quantiles ont été conduites sur quatre disciplines scolaires. Les principaux résultats de recherche indiquent, d'un côté, que les interactions entre élèves sont assez répandues en milieux scolaire (entre 22% et 41% en moyenne), mais leur proportion varie d'une discipline à l'autre et selon la direction qui prend l'aide. Plus encore, ces interactions sont significativement liées aux résultats scolaires. A conditions comparables, les élèves académiquement faibles gagnent à être aidés par leurs camarades, quelque soit la discipline concernée. En même temps, les élèves qui aident leurs camarades montrent toujours un profil académique fortement associé à des gains de score assez importants. D'un autre côté, on trouve que les élèves possédant plus de capital culturel ont, toutes choses égales par ailleurs, de plus fortes chances de déclarer aider leurs camarades. Enfin, les analyses confirment que les interactions entre élèves sont, de manière importante et significative, liées aux sentiments de bien-être à l'école et au concept de soi académique. La construction d'indices pertinents pour ces derniers est, d'ailleurs, discutée. Différents résultats secondaires ont été aussi produits et discutés, notamment la confirmation, pour la première fois dans le cas chilien, des hypothèses associées au paradigme BFLPE (Marsh, 1987). Ces résultats sont discutés dans leurs probables conséquences en termes de politique éducative, notamment dans le cadre des systèmes éducatifs à forte ségrégation sociale et scolaire.
|
Page generated in 0.0266 seconds