• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 72
  • 37
  • 9
  • 1
  • 1
  • Tagged with
  • 119
  • 119
  • 51
  • 47
  • 42
  • 16
  • 13
  • 13
  • 13
  • 10
  • 10
  • 10
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Inventaire des ressources minières du val d'Aoste (Italie) : prospection alluvionnaire, géochimique et minéralogique : reconnaissance de quelques anomalies

Moreau, Guy 31 October 1984 (has links) (PDF)
Très tôt, le Val d'Aoste a interessé les industries minières, par le nombre des indices minéralisés qui présentent, dans leurs variétés, un cadre métallogénique d'un grand intérêt . Les méthodes récentes d'investigation permettent de compléter, et de mettre à jour les inventaires des ressources du sous-sol, dressés dès le XIXe siècle, en fonction des connaissances actuelles sur ces sujets. Parmi ces méthodes, la prospection en lits vifs, géochimique multi-élémentaire (stream-sediment), associée à une prospection alluvionnaire plus classique (batée), donne une bonne image de la répartition des secteurs minéralisés, ou ceux plus favorables à des recherches plus rapprochées. Le relief escarpé de la région valdôtaine, et les grandes variations lithologiques des différentes structures géologiques et tectoniques, posent de nombreux problèmes d'hétérogénéités des échantillons, pour la détermination de secteurs anomaux. Cependant, grâce aux traitements statistiques multi-variés, de la cartographie automatique de leurs résultats, et par comparaison avec les connaissances géologiques de la région, nous avons pu définir des seuils d'anomalies, permettant d'isoler des secteurs mêtallogêniquement plus favorables aux recherches minières. A partir de ces résultats, complétés par quelques reconnais sances ponctuelles sur le terrain, des recherches plus spécifi ques à chaque secteur anomal peuvent être proposées pour une exploitation éventuelle.
52

étude de la symétrie bilatérale en imagerie cérébrale volumique

Prima, Sylvain 07 March 2001 (has links) (PDF)
Le cerveau humain est une structure anatomique à symétrie bilatérale : il existe un plan, appelé plan médian sagittal, par rapport auquel il est (approximativement) symétrique. Certaines structures ou aires cérébrales sont pourtant systématiquement asymétriques. L'étude de ces asymétries et de leurs anomalies est d'un intérêt majeur pour la compréhension de certaines pathologies comme la schizophrénie. Dans cette thèse, nous présentons une méthode permettant de quantifier ces déviations locales par rapport à une symétrie bilatérale parfaite et d'en effectuer une analyse statistique dans des populations de sujets. En raison du positionnement arbitraire de la tête dans l'appareil d'acquisition, le plan médian sagittal est rarement situé au centre des images médicales tridimensionnelles anatomiques (IRM, scanner) ou fonctionnelles (TESP, TEP). Nous proposons une définition objective de ce plan, fondée sur un critère mathématique robuste de type moindres carrés tamisés. Ensuite, après calcul et réalignement du plan médian sagittal, nous montrons comment obtenir en chaque point de l'image un vecteur caractéristique de l'asymétrie de la structure anatomique sous-jacente. Ce champ d'asymétrie est obtenu au moyen d'un outil de recalage non-rigide, qui est également utilisé pour fusionner dans un référentiel géométrique commun les champs calculés sur une population d'individus. Des techniques statistiques classiques (de type test de Hotteling) permettent alors d'étudier l'asymétrie d'une population ou de comparer l'asymétrie entre deux populations. Un problème spécifique aux IRM est celui des variations lentes des intensités de l'image, induites par les interactions du sujet avec le champ magnétique, et qui ne reflétent pas les propriétés physiques des tissus sous-jacents. La structure géométrique de ce champ de biais est elle-même asymétrique, et perturbe substantiellement le calcul de l'asymétrie anatomique. Nous proposons différents algorithmes pour corriger ce biais, fondés sur des modélisations mathématiques du processus d'acquisition de l'image.
53

Modélisation paramétrique des petits terminaux et antennes multi-bandes ou ultra large bande

Yousuf, Muhammad Amir 29 September 2011 (has links) (PDF)
Depuis le lancement systèmes des communications d'ultra large bande (ULB) en courtes distances les facteurs comme la miniaturisation d'appareil et haut débit créer des grands défis pour les concepteurs d'antennes. Une façon de faire le travail de conception facile est du modéliser statistiquement la variabilité de comportement de rayonnement de l'antenne en fonction de sa géométrie. Tel effort est également utile pour la meilleure utilisation du canal de communication si on combine le modèle d'antenne avec ça. Cette thèse est une tentative vers la modélisation statistique des antennes ULB. Le sujet est confronté à deux défis majeurs, la création de la population statistiques considérable d'une classe(s) d'antenne et la modélisation du diagramme de rayonnement de l'antenne qui est composé de grand nombre de paramètres complexes. Dans cette thèse, nous essayons de répondre le premier en proposant une approche de conception générique pour les antennes planaires ULB et le second en présentant l'utilisation de technique l'ultra-compressé de modélisation paramétrique. L'approche de conception générique est basé sur des formes trapézoïdales et offre une grande flexibilité et polyvalence dans la conception des antennes ULB diverses. Cette approche montre une facilité importante dans l'optimisation d'antennes (également pour la création de la population), car elle réduit le nombre de paramètres qui contrôle la géométrie de l'antenne, sans compromettre le degré de liberté. Ultra-compressé modélisation paramétrique est basée sur deux méthodes de synthèse d'antenne, la méthode d'expansion singularité (SEM) et sphériques méthode d'expansion de mode (SMEM) qui permettent de réduire le nombre de paramètres complexes requis pour le diagramme de rayonnement de 99,9%, permettant à l'effort de modélisation possibles. Un modèle statistique de l'antenne biconique basé sur cette technique a été présenté
54

Automatisation et optimisation de l'analyse d'images anatomo-fonctionnelles de cerveaux de souris par atlas numérique 3D

Lebenberg, Jessica 14 December 2010 (has links) (PDF)
La résolution des images de cerveau du petit animal acquises in vivo est encore limitée au regard de la taille des structures observées. Les modalités d'imagerie post mortem (coupes histologiques et autoradiographiques) restent encore aujourd'hui la référence pour une étude anatomo-fonctionnelle précise, bien que la cohérence 3D de l'organe soit perdue. Ces images 2D étant analysées par segmentation manuelle de régions d'intérêt (RDI), ce qui requiert du temps et une expertise en neuroanatomie, le nombre de coupes et de RDI étudiées est limité. Pour s'a ranchir de la perte de la cohérence 3D de l'organe et traiter un grand nombre de données, il est nécessaire de reconstruire des images 3D à partir de séries de coupes 2D et d'automatiser et d'optimiser l'analyse de ces volumes de données. Des travaux ont été réalisés pour restaurer la cohérence 3D de l'organe. L'objectif atteint de ce travail de thèse a donc été de proposer une méthode d'analyse de ces images 3D. Pour cela, nous avons recalé un atlas numérique 3D sur des images 3D de cerveaux de souris pour mener une étude de celles-ci grâce aux RDI de l'atlas. L'analyse par atlas à l'échelle des RDI, bien que able et rapide, met di cilement en évidence des variations fonctionnelles se produisant dans des zones de petite dimension par rapport à la taille des RDI. Ces di érences peuvent en revanche apparaître grâce à une analyse statistique réalisée à l'échelle du pixel. L'interprétation de ces résultats étant complexe chez la Souris, nous avons proposé d'utiliser l'atlas pour superviser cette analyse a n de coupler les avantages des méthodes. Un travail préliminaire a ensuite été réalisé pour évaluer la faisabilité d'analyser par atlas des images TEP acquises chez la Souris. Une perspective de ces travaux est d'utiliser l'atlas numérique 3D comme outil unique pour analyser conjointement des images acquises in vivo et post mortem sur les mêmes sujets et ainsi recouper les informations extraites de ces images.
55

Caractérisation des sols latéritiques utilisés en construction routière : cas de la région de l'Agneby (Côté d'Ivoire)

Bohi, Zondjé Poanguy Bernadin 24 November 2008 (has links) (PDF)
L'étude des sols latéritiques de la région de l'Agnéby en Côte d'Ivoire a été effectuée sur les données géotechniques des rapports d'étude de dix sections de routes construites en utilisant des graveleux latéritiques dans la structure de chaussée. Ces données comportaient des courbes granulométriques, des limites de consistance pour la fraction fine, des résultats d'essais Proctor modifié et d'essais CBR. Ces données ont fait l'objet de traitements statistiques classiques (caractérisation de la variabilité de chaque paramètre géotechnique, recherche de corrélations entre paramètres) et d'une analyse factorielle en composantes principales de l'ensemble des données (188 prélèvements). L'étude conclut que les échantillons de sols latéritiques analysés ont des propriétés assez voisines pour que l'on ne puisse pas les différencier clairement par analyse statistique. Elle conclut qu'il serait utile de prolonger l'étude en couvrant un territoire suffisamment grand (pays, partie du continent africain) pour qu'on y trouve les différents types de sols latéritiques décrits dans la littérature, notamment des latérites de forêt comme celles de l'Agnéby, des latérites de savane et des latérites de cuirasses anciennes. Le mémoire propose une méthodologie pour cette étude plus générale. Le mémoire comprend six chapitres, une introduction et une conclusion générales et donne en annexe l'ensemble des valeurs des données géotechniques utilisées.
56

Formation à la statistique par la pratique d'enquêtes par questionnaires et la simulation : étude didactique d'une expérience d'enseignement dans un département d'IUT

Oriol, Jean-Claude 17 November 2007 (has links) (PDF)
Notre travail est une étude sur l'enseignement de la statistique en IUT, le statut et la mise en place d'une part d'enquêtes par questionnaires réalisées par les étudiants et d'autre part de simulations d'expériences aléatoires construites par les étudiants.<br />Il expose que l'enseignement de la statistique porte en lui une césure à la fois primitive et épistémologique, entre d'une part la collecte et le traitement des données, et d'autre part une approche fondée sur le calcul des probabilités plus ou moins éloignée des pratiques sociales, et que la réalisation d'enquêtes est un moyen d'atténuer la trace de cet écart primitif, permettant au sujet de construire le sens de ses apprentissages. D'une façon complémentaire nous étudierons comment la construction de simulations par les apprenants leur permet de dégager des invariants de la variabilité présente dans toute situation statistique.<br />Notre travail s'appuie sur les travaux de Gérard Vergnaud concernant la conceptualisation, sur la théorie des situations didactiques de Guy Brousseau, et sur la transposition didactique exposée par Yves Chevallard, ainsi que sur les travaux de Jean-Claude Régnier concernant la didactique de la statistique et le tâtonnement expérimental de l'apprenant, tout en essayant de déterminer la fonction de l'alternance ainsi que la dialectique entre projet et processus.<br />En termes d'ingénierie pédagogique notre exposé présentera un certain nombre de situations didactiques et désignera les divers obstacles rencontrés ; nous présenterons également deux enquêtes utilisant l'analyse statistique implicative (Régis Gras).
57

Réponse sismique de la croûte terrestre à un changement de contrainte : application aux doublets de séismes

Daniel, Guillaume 17 December 2007 (has links) (PDF)
Nous présentons une analyse des variations du taux de sismicité liées aux doublets de forts séismes. Cette étude se concentre sur la zone des répliques du 1er séisme, et cherche à estimer l'impact du 2nd choc principal sur cette activité. Nous nous sommes penchés sur deux cas de doublets de séismes : la séquence turque des séismes d'Izmit et de Düzce en 1999, et le doublet sud-islandais de juin 2000. Ces deux exemples nous apprennent que la réactivation de sismicité induite par le 2nd séisme d'un doublet n'est pas forcément corrélée avec les régions d'augmentation de la contrainte statique, et qu'elle s'établit avec prédilection sur les sites d'une activité géothermale. Sa décroissance temporelle n'est pas systématiquement conforme à la loi d'Omori, puisque des apaisements de ce taux peuvent apparaître avec un délai de quelques jours à quelques mois. Nous avons également investigué les propriétés des doublets de séismes à l'échelle globale, et nous montrons que ceux-ci peuvent être simplement décrits par les lois habituelles gouvernant la sismicité, la loi d'Omori-Utsu et la loi de Gutenberg-Richter. Enfin, contrairement aux résultats obtenus à partir de catalogues régionaux, il semblerait que la production moyenne de répliques consécutive aux 2nds séismes des doublets soit équivalente à la superposition des productions de deux séismes isolés de magnitudes similaires. Cette dernière remarque mérite toutefois d'être étayée par une analyse plus fine des catalogues régionaux, au vu du manque de résolution d'un tel catalogue global pour les séismes de petite magnitude.
58

Modèles physiologiques et statistiques du cœur guidés par imagerie médicale : application à la tétralogie de Fallot

Mansi, Tommaso 10 September 2010 (has links) (PDF)
Les travaux de cette thèse sont consacrés à la quantification de cardiopathies, la prédiction de leur évolution et la planification de thérapies, avec pour application principale la tétralogie de Fallot, une malformation congénitale grave du cœur. L'idée sous-jacente est d'utiliser des modèles informatiques sophistiqués combinant traitement d'images, statistique et physiologie, pour assister la gestion clinique de ces patients. Dans un premier temps, nous proposons une nouvelle méthode de recalage d'images plus précise pour estimer la déformation cardiaque à partir d'images médi- cales anatomiques, où seulement le mouvement apparent du cœur est visible. L'algorithme proposé s'appuie sur la méthode dite des démons, que l'on contraint de manière rigoureuse à être élastique et incompressible grâce à une nouvelle justification de l'étape de régularisation de l'algorithme. Les expériences réalisées sur des images synthétiques et réelles ont démontré que l'ajout de ces contraintes améliore de manière significative la précision des déformations estimées. Nous étudions ensuite la croissance du cœur par une approche statistique basée sur les "courants". Une analyse en composantes principales permet d'identifier des altérations morphologiques dues à la pathologie. L'utilisation conjointe de la méthode PLS (moindres carrés partiels) et de l'analyse des corrélations canoniques permet de créer un modèle statistique moyen de croissance du cœur. L'analyse du ventricule droit de 32 patients avec tétralogie de Fallot a révélé une dilatation du ventricule, une déformation de sa base et un élargissement de son apex, caractéristiques que l'on retrouve dans la littérature clinique. Le modèle de croissance montre qu'elles apparaissent progressivement au fil du temps. Enfin, nous adaptons un modèle électromécanique du cœur pour simuler la fonction cardiaque chez des patients et tester diverses stratégies de pose de valves pulmonaires. Le modèle électromécanique simule les caractéristiques principales de la fonction cardiaque. Une fois personnalisé, le modèle est utilisé pour prédire les effets postopératoires de la pose de valves chez le patient. Le modèle a été ainsi capable de reproduire, de manière qualitative, la fonction cardiaque de deux patients. Comme attendu, la fonction simulée du ventricule droit est améliorée après pose de valves, ainsi que celle du ventricule gauche, suggérant une relation étroite entre les deux ventricules du cœur. Les méthodes de traitement d'images médicales, d'analyses statistiques et de modèles de la physiologie du cœur forment un cadre puissant pour le développe- ment d'une médecine plus personnalisée et assistée par ordinateur.
59

Developpement d'outils bioinformatiques et statistiques pour l'analyse du transcriptome hepatique humain par puces a ADN : application a la reponse inflammatoire aigue systemique.

Lefebvre, Gregory 17 November 2006 (has links) (PDF)
La phase aigue de l'inflammation sytemique est une periode de transition subsequente au trauma, coordonnee par des mediateurs telles les cytokines. Ces dernieres ciblent ma joritairement le foie, lequel regule alors principalement la production des APPs et des APRIPs. <br />Ce travail montre d'abord la creation d'une plate-forme a puces a ADN dediee a l'etude du transriptome hepatique humain et fondee d'une part sur le developpement de la puce elle-meme par la designation des sondes ADNc qui la definissent, d'autre part sur la creation d'une base de donnees standardisee et ́egalement sur l'ecritre de programmes d'analyse statistique. <br />Il montre enfin comment cette plate-forme a permis de mettre en evidence d'une part une correlation entre 134 transcripts et le degre de l'inflammation et d'autre part une liste de genes repartis en 12 groupes fonctionnels subissant une alteration de leur transcription, de leur stabilite post-transcriptionnelle et de leur traduction durant la phase aigue de linflammation.
60

Analyse morphologique 3D de particules de forme complexes: application aux intermétalliques dans les alliages d'aluminium

Parra-Denis, Estelle 12 February 2007 (has links) (PDF)
Le matériau étudié dans cette thèse est un alliage d'aluminium 5182 contenant des particules intermétalliques de deux types : Alx(Fe,Mn) et Mg2Si. Au cours du laminage industriel, les particules sont brisées et redistribuées dans le volume de la tôle. Or, les particules intermétalliques contrôlent à la fois l'aspect de surface et la formabilité de la tôle finale.<br />Le travail présenté dans la thèse s'articule autour de deux problématiques : mettre en évidence la distribution volumique des particules intermétalliques dans le volume de la tôle, et caractériser leur forme tridimensionnelle complexe au cours du laminage. Ainsi, des échantillons prélevés à différentes étapes du laminage sont observés par micro tomographie aux rayons X (réalisé à l'ESRF). Les images tridimensionnelles obtenues sont segmentées par la méthode de segmentation multi classe. Elle permet d'extraire chaque type de particule de l'alliage. Une base de donnée contenant chaque particule individualisée est créée. Elle permet de reconstruire l'image binaire du matériau et de travailler particule à particule.<br />La dispersion des particules est mise en évidence par l'étude du graphe des distances et de la covariance. Puis l'analyse de l'érosion linéaire et de la covariance permet de modéliser le matériau par un modèle probabiliste de type schéma Booléen à grains primaires sphériques.<br />Une batterie de paramètres morphologiques caractérise la forme tridimensionnelle complexe des particules. Une analyse en composantes principales est ensuite réalisée pour synthétiser l'information. Dans l'espace obtenu, les particules sont classées en cinq familles de forme. Enfin, leur évolution au cours du laminage est étudiée.

Page generated in 0.0969 seconds