• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • 5
  • 1
  • Tagged with
  • 16
  • 16
  • 10
  • 8
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Optimisation combinatoire pour la sélection de variables en régression en grande dimension : Application en génétique animale

Hamon, Julie 26 November 2013 (has links) (PDF)
Le développement des technologies de séquençage et de génotypage haut-débit permet de mesurer, pour un individu, une grande quantité d'information génomique. L'objectif de ce travail est, dans le cadre de la sélection génomique animale, de sélectionner un sous-ensemble de marqueurs génétiques pertinents permettant de prédire un caractère quantitatif, dans un contexte où le nombre d'animaux génotypés est largement inférieur au nombre de marqueurs étudiées. Ce manuscrit présente un état de l'art des méthodes actuelles permettant de répondre à la problématique. Nous proposons ensuite de répondre à notre problématique de sélection de variables en régression en grande dimension en combinant approches d'optimisation combinatoire et modèles statistiques. Nous commençons par paramétrer expérimentalement deux méthodes d'optimisation combinatoire, la recherche locale itérée et l'algorithme génétique, combinées avec une régression li- néaire multiple et nous évaluons leur pertinence. Dans le contexte de la génomique animale les relations familiales entre animaux sont connues et peuvent constituer une information importante. Notre approche étant flexible, nous proposons une adapta- tion permettant de prendre en considération ces relations familiales via l'utilisation d'un modèle mixte. Le problème du sur-apprentissage étant particulièrement présent sur nos données dû au déséquilibre important entre le nombre de variables étudiées et le nombre d'animaux disponibles, nous proposons également une amélioration de notre approche permettant de diminuer ce sur-apprentissage. Les différentes approches proposées sont validées sur des données de la littérature ainsi que sur des données réelles de Gènes Diffusion.
12

Classification et modélisation statistique intégrant des données cliniques et d’imagerie par résonance magnétique conventionnelle et avancée / Classification and statistical modeling based on clinical and conventional and advanced Magnetic Resonance Imaging data

Tozlu, Ceren 19 March 2018 (has links)
L'accident vasculaire cérébral et la sclérose en plaques figurent parmi les maladies neurologiques les plus destructrices du système nerveux central. L'accident vasculaire cérébral est la deuxième cause de décès et la principale cause de handicap chez l'adulte dans le monde alors que la sclérose en plaques est la maladie neurologique non traumatique la plus fréquente chez l'adulte jeune. L'imagerie par résonance magnétique est un outil important pour distinguer le tissu cérébral sain du tissu pathologique à des fins de diagnostic, de suivi de la maladie, et de prise de décision pour un traitement personnalisé des patients atteints d'accident vasculaire cérébral ou de sclérose en plaques. La prédiction de l'évolution individuelle de la maladie chez les patients atteints d'accident vasculaire cérébral ou de sclérose en plaques constitue un défi pour les cliniciens avant de donner un traitement individuel approprié. Cette prédiction est possible avec des approches statistiques appropriées basées sur des informations cliniques et d'imagerie. Toutefois, l'étiologie, la physiopathologie, les symptômes et l'évolution dans l'accident vasculaire cérébral et la sclérose en plaques sont très différents. Par conséquent, dans cette thèse, les méthodes statistiques utilisées pour ces deux maladies neurologiques sont différentes. Le premier objectif était l'identification du tissu à risque d'infarctus chez les patients atteints d'accident vasculaire cérébral. Pour cet objectif, les méthodes de classification (dont les méthodes de machine learning) ont été utilisées sur des données d'imagerie mesurées à l'admission pour prédire le risque d'infarctus à un mois. Les performances des méthodes de classification ont été ensuite comparées dans un contexte d'identification de tissu à haut risque d'infarctus à partir de données humaines codées voxel par voxel. Le deuxième objectif était de regrouper les patients atteints de sclérose en plaques avec une méthode non supervisée basée sur des trajectoires individuelles cliniques et d'imagerie tracées sur cinq ans. Les groupes de trajectoires aideraient à identifier les patients menacés d'importantes progressions et donc à leur donner des médicaments plus efficaces. Le troisième et dernier objectif de la thèse était de développer un modèle prédictif pour l'évolution du handicap individuel des patients atteints de sclérose en plaques sur la base de données démographiques, cliniques et d'imagerie obtenues a l'inclusion. L'hétérogénéité des évolutions du handicap chez les patients atteints de sclérose en plaques est un important défi pour les cliniciens qui cherchent à prévoir l'évolution individuelle du handicap. Le modèle mixte linéaire à classes latentes a été utilisé donc pour prendre en compte la variabilité individuelle et la variabilité inobservée entre sous-groupes de sclérose en plaques / Stroke and multiple sclerosis are two of the most destructive neurological diseases of the central nervous system. Stroke is the second most common cause of death and the major cause of disability worldwide whereas multiple sclerosis is the most common non-traumatic disabling neurological disease of adulthood. Magnetic resonance imaging is an important tool to distinguish healthy from pathological brain tissue in diagnosis, monitoring disease evolution, and decision-making in personalized treatment of patients with stroke or multiple sclerosis.Predicting disease evolution in patients with stroke or multiple sclerosis is a challenge for clinicians that are about to decide on an appropriate individual treatment. The etiology, pathophysiology, symptoms, and evolution of stroke and multiple sclerosis are highly different. Therefore, in this thesis, the statistical methods used for the study of the two neurological diseases are different.The first aim was the identification of the tissue at risk of infarction in patients with stroke. For this purpose, the classification methods (including machine learning methods) have been used on voxel-based imaging data. The data measured at hospital admission is performed to predict the infarction risk at one month. Next, the performances of the classification methods in identifying the tissue at a high risk of infarction were compared. The second aim was to cluster patients with multiple sclerosis using an unsupervised method based on individual clinical and imaging trajectories plotted over five 5 years. Clusters of trajectories would help identifying patients who may have an important progression; thus, to treat them with more effective drugs irrespective of the clinical subtypes. The third and final aim of this thesis was to develop a predictive model for individual evolution of patients with multiple sclerosis based on demographic, clinical, and imaging data taken at study onset. The heterogeneity of disease evolution in patients with multiple sclerosis is an important challenge for the clinicians who seek to predict the disease evolution and decide on an appropriate individual treatment. For this purpose, the latent class linear mixed model was used to predict disease evolution considering individual and unobserved subgroup' variability in multiple sclerosis
13

Approche formelle pour la simulation interactive de modèles mixtes / A formal approach for the interactive simulation of mixed models

Faure, Xavier 29 September 2014 (has links)
La simulation interactive du corps humain est un problème crucial en informatique médicale. Les approches sont multiples pour arriver à cet objectif. Diminuer le temps de calcul est le leitmotiv d'un grand nombre de travaux ces dernières années. Pour les recherches qui utilisent des modèles physiques inspirés de la Mécanique des Milieux Continus pour la simulation des objets déformables, ce sont principalement les forces internes et leurs dérivées qui font l'objet d'études pour l'amélioration des performances au niveau du temps de calcul. Nous avons choisi de développer la Méthode des Masses-Tenseurs, modèle physique souvent utilisé pour son bon compromis temps de calcul — précision. Notre première contribution est l'utilisation du calcul formel pour la génération des équations des forces internes et de leurs dérivées. Notre deuxième contribution est la parallélisation de ce modèle physique en calculant les équations générées sur le GPU. Notre troisième contribution est l'extension de ce modèle physique à d'autres types d'éléments : triangle, quadrangle, hexaèdre, prisme et pyramide. Tenir compte des déformations pour utiliser la loi de comportement la plus efficace en temps de calcul lorsque c'est possible, est une stratégie que nous avons mis en place. Dans la même idée, nous prenons en compte la géométrie du modèle à simuler pour utiliser des éléments plus complexes mais en nombre réduit. Pour utiliser ces stratégies, nous avons développé et utilisé des modèles mixtes en loi de comportement et en type d'éléments. Nos travaux se placent dans le contexte du projet ETOILE pour le développement d'un modèle biomécanique du système respiratoire / Interactive simulation of the human body is a crucial issue in medical computer sciences. There are many approaches to reach this goal. Reducing the computation time is the leitmotiv of a large number of efforts in recent years. For researches which use physical models derived from continuum mechanics for the simulation of deformable objects, it is primarily the internal forces and their derivatives which are the subject of study for improving computation time. We chose to develop the Tensor Mass Method, a physical model often used for its good computation time vs accuracy trade-off. Our first contribution is the use of computer algebra to generate the internal forces and their derivatives. Our second contribution is the parallelization of this physical model by computing the generated equations on the GPU. Our third contribution is an extension of this physical model to other elements : triangle, quandrangle , hexahedron, prism and pyramid. Considering deformations to use the most effective constitutive law in terms of computation time whenever possible is a good strategy that we started developing. In the same idea, we take the geometry of the simulated model into account to introduce more complex elements, albeit in reduced numbers. To use these strategies, we have developed mixed models in constitutive laws and elements. Our research was performed in the framework of the ETOILE project, to develop a biomechanical model of the respiratory system
14

Structuration de surfaces au moyen d'un traitement laser femtoseconde : applications à la fonctionnalisation de surface du polypropylène en vue de sa métallisation

Belaud, Vanessa 16 January 2014 (has links)
Ce présent travail de thèse porte sur l’étude du potentiel d’un traitement de surface par laser femtoseconde comme étape de substitution aux traitements réalisés actuellement lors de la métallisation de polymère. Pour cela, l’étude des modifications chimiques et morphologiques induites par traitement laser femtoseconde ainsi que leurs influences respectives sur les propriétés d’adhérences et de mouillabilités de la surface polypropylène sont présentées. Une revue bibliographique met en évidence la faisabilité d’une modification contrôlée de la surface du polypropylène après traitement laser femtoseconde. De plus, ces modifications engendrent une évolution démontrée des propriétés de mouillage qui peuvent répondre à certaines demandes industrielles. Après traitement laser femtoseconde, la surface traitée répond de différentes manières à la sollicitation en fonction de ses propriétés intrinsèques. Les expériences d’impacts localisés et de surfaces nous ont conduits à observer trois stades de modifications topographiques pour les conditions étudiées : un phénomène d’incubation, d’accumulation et d’ablation. Ce dernier a fait l’objet d’une étude plus approfondie. De manière générale, on observe deux régimes d’ablation linéaires pour l’ensemble des densités de puissance étudiées lorsque l’on étudie la profondeur d’ablation en fonction du nombre d’impulsion et le volume d’ablation en fonction de la densité de puissance cumulée. Enfin, nous montrons que les liaisons présentes en surface après traitement sont dépendantes de deux facteurs ; la densité de puissance cumulée utilisée et l’environnement de travail. Sachant que les modifications topographiques obtenues sont de types multi-échelles, les résultats ont été analysés sur la base des modèles de Wenzel (1936) et de Cassie-Baxter (1944) relatifs à la théorie du mouillage de surfaces rugueuses. Les résultats expérimentaux et leurs corrélations avec les paramètres de rugosités 3D calculés à différentes échelles ont été traités par une analyse statistique. On observe alors un comportement mixte avec un contact intime de la goutte sur les sommets des aspérités (modèle de Wenzel) et un contact hétérogène (airpolypropylène) à une échelle mésoscopique (état « fakir » décrit par le modèle de Cassie-Baxter). Toutefois, la situation où la goute repose sur le sommet des structures (CB) n’est pas toujours stable. Nous avons étudié la transition de l’état CB à l’état W par des expériences d’évaporation. On observe que cette transition est fortement dépendante de la chimie de surface dont la contribution est prépondérante sur les propriétés d’adhérence métal/PP. En contrôlant cette propriété, il est alors possible de répondre à une problématique industrielle de galvanoplastie (adhérence augmenté par le traitement laser) ou d’électroformage (adhérence faible permettant une réplication de bonne qualité des motifs). / This work presents the potential of a femtosecond laser surface treatment as an alternative step of pretreatments during the metallization of polymer. To do this, the study of chemical and morphological modification induced by femtosecond laser treatment and their respective influences on the properties of adhesion and wettability of polypropylene surface are presented. A literature review highlights the feasibility of a controlled surface modification after femtosecond laser treatment of polypropylene (PP). In addition, it is known that these modifications changes the wetting properties and can be used to meet industrial applications development. After femtosecond laser treatment, the treated surface responds to the solicitation with different morphological comportment according to its intrinsic properties. Experiences of localized impacts and surfaces us to observe three stages of topographic changes to the conditions studied: an incubation phenomenon of accumulation and ablation. The ablation phenomenon is further study. Generally, two linear ablation regime is observed for all power densities examined when considering the depth of ablation as a function of the pulse number and the ablation volume according to the accumulated power density. Finally, we show that the bonds present on the surface after treatment are dependent on two factors: the accumulated power density used and the working environment. Knowing that topographic obtained is multi-scales, the results were analyzed on the basis of models Wenzel (W)(1936) and Cassie–Baxter (CB) (1944) which explain the theory of wetting of rough surfaces. The experimental results and their correlations with 3D roughness parameters calculated at different scales were treated by statistical analysis. We observe a mixed model behavior with intimate contact of the drop on the tops of the asperities (Wenzel model) and a heterogeneous contact (air - PP) in a mesoscopic scale (state " fakir " described by the Cassie -Baxter model). However, this situation where the drop sits on the top of asperities (CB) is not always the most stable. We have studied the transition between the CB state and the W state by evaporation experiments. It is observed that this transition is strongly dependent on the surface chemistry whose contribution is much greater than the adhesion properties metal / PP. If controlling this property, it is possible to obtain two industrial applications: electroplating (increased adhesion by laser treatment) or electroforming (low adherence to replicate the topography).
15

Cognitive Computational Models of Pronoun Resolution / Modèles cognitifs et computationnels de la résolution des pronoms

Seminck, Olga 23 November 2018 (has links)
La résolution des pronoms est le processus par lequel un pronom anaphorique est mis en relation avec son antécédent. Les humains en sont capables sans efforts notables en situation normale. En revanche, les systèmes automatiques ont une performance qui reste loin derrière, malgré des algorithmes de plus en plus sophistiqués, développés par la communauté du Traitement Automatique des Langues. La recherche en psycholinguistique a montré à travers des expériences qu'au cours de la résolution de nombreux facteurs sont pris en compte par les locuteurs. Une question importante se pose : comment les facteurs interagissent et quel poids faut-il attribuer à chacun d'entre eux ? Une deuxième question qui se pose alors est comment les théories linguistiques de la résolution des pronoms incorporent tous les facteurs. Nous proposons une nouvelle approche à ces problématiques : la simulation computationnelle de la charge cognitive de la résolution des pronoms. La motivation pour notre approche est double : d'une part, l'implémentation d'hypothèses par un système computationnel permet de mieux spécifier les théories, d’autre part, les systèmes automatiques peuvent faire des prédictions sur des données naturelles comme les corpus de mouvement oculaires. De cette façon, les modèles computationnels représentent une alternative aux expériences classiques avec des items expérimentaux construits manuellement. Nous avons fait plusieurs expériences afin d'explorer les modèles cognitifs computationnels de la résolution des pronoms. D'abord, nous avons simulé la charge cognitive des pronoms en utilisant des poids de facteurs de résolution appris sur corpus. Ensuite, nous avons testé si les concepts de la Théorie de l’Information sont pertinents pour prédire la charge cognitive des pronoms. Finalement, nous avons procédé à l’évaluation d’un modèle psycholinguistique sur des données issues d’un corpus enrichi de mouvements oculaires. Les résultats de nos expériences montrent que la résolution des pronoms est en effet multi-factorielle et que l’influence des facteurs peut être estimée sur corpus. Nos résultats montrent aussi que des concepts de la Théorie de l’Information sont pertinents pour la modélisation des pronoms. Nous concluons que l’évaluation des théories sur des données de corpus peut jouer un rôle important dans le développement de ces théories et ainsi amener dans le futur à une meilleure prise en compte du contexte discursif. / Pronoun resolution is the process in which an anaphoric pronoun is linked to its antecedent. In a normal situation, humans do not experience much cognitive effort due to this process. However, automatic systems perform far from human accuracy, despite the efforts made by the Natural Language Processing community. Experimental research in the field of psycholinguistics has shown that during pronoun resolution many linguistic factors are taken into account by speakers. An important question is thus how much influence each of these factors has and how the factors interact with each-other. A second question is how linguistic theories about pronoun resolution can incorporate all relevant factors. In this thesis, we propose a new approach to answer these questions: computational simulation of the cognitive load of pronoun resolution. The motivation for this approach is two-fold. On the one hand, implementing hypotheses about pronoun resolution in a computational system leads to a more precise formulation of theories. On the other hand, robust computational systems can be run on uncontrolled data such as eye movement corpora and thus provide an alternative to hand-constructed experimental material. In this thesis, we conducted various experiments. First, we simulated the cognitive load of pronouns by learning the magnitude of impact of various factors on corpus data. Second, we tested whether concepts from Information Theory were relevant to predict the cognitive load of pronoun resolution. Finally, we evaluated a theoretical model of pronoun resolution on a corpus enriched with eye movement data. Our research shows that multiple factors play a role in pronoun resolution and that their influence can be estimated on corpus data. We also demonstrate that the concepts of Information Theory play a role in pronoun resolution. We conclude that the evaluation of hypotheses on corpus data enriched with cognitive data ---- such as eye movement data --- play an important role in the development and evaluation of theories. We expect that corpus based methods will lead to a better modelling of the influence of discourse structure on pronoun resolution in future work.
16

Modélisation statistique de l'intensité des expositions prolongées en étiologie du cancer : application au tabac, à l'amiante, au cancer du poumon, et au mésothéliome pleural / Statistical modelling of the intensity of protracted exposures in etiology of cancer : application to smoking, asbestos, lung cancer and pleural mesothelioma

Leveque, Emilie 07 December 2018 (has links)
L'association entre le tabac et le cancer du poumon ou entre l'exposition professionnelle à l'amiante et le mésothéliome pleural ont largement été étudiées. Cependant, comme pour de nombreuses autres relations expositions prolongées-cancer, le rôle de l'intensité d'exposition tout au long de la vie a été peu étudié. La prise en compte de la variation de l'intensité au cours de la vie et de son effet dépendant du temps dans les analyses statistiques des données cas-témoins pose en effet quelques défis méthodologiques. Les objectifs de la thèse étaient 1) d'étudier l'effet dépendant du temps de l'intensité d'exposition au cours de la vie sur le risque de cancer et 2) d'identifier les profils de trajectoires d'intensité d'exposition sur la vie entière et comparer les risques de cancer associés. Pour répondre à ces deux objectifs, nous avons utilisé un indice cumulé d'exposition pondéré flexible déjà existant et nous avons développé un nouveau modèle conjoint à classes latentes, pour analyser les données de deux études cas-témoins françaises sur le mésothéliome pleural et le cancer du poumon. Les résultats montrent la contribution importante de l'intensité de la consommation de tabac récente pour le cancer du poumon et des expositions professionnelles anciennes à l'amiante pour les deux cancers. Ils confirment l'importance de considérer l'aspect temporel des expositions pour évaluer l'association avec le risque de cancer et illustrent l'intérêt des approches statistiques considérées. / The association between smoking and lung cancer or between occupational exposure to asbestos and pleural mesothelioma have been extensively investigated. Nevertheless, as for many protracted exposures-cancer relationships, the role of exposure intensity over lifetime has been rarely addressed. Accounting for individual variation of intensity over lifetime and investigating time-dependent effect in the statistical analysis of case-control data indeed raise several methodological issues. The thesis objectives were 1) to study the time-dependent effect of exposure intensity over lifetime on the risk of cancer and 2) to identify lifetime profiles of exposure intensities and to compare their associated risks of cancer. To address these objectives, we used an existing flexible weighted cumulative index of exposure and we developed a new joint latent class mixed model, to analyze the data from two French case-control studies on lung cancer and pleural mesothelioma. The results show the important contribution of recent smoking intensity for lung cancer and distant intensity of exposure to asbestos for both cancers. They confirm the importance of the timing of exposure in the association with the risk of cancer and illustrate the relevance of the proposed statistical approaches.

Page generated in 0.0435 seconds