• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 503
  • 220
  • 97
  • 4
  • 3
  • 1
  • Tagged with
  • 825
  • 342
  • 198
  • 126
  • 121
  • 120
  • 109
  • 95
  • 91
  • 90
  • 87
  • 83
  • 80
  • 76
  • 74
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Une nouvelle famille de modèles linéaires généralisés (GLMs) pour l'analyse de données catégorielles ; application à la structure et au développement des plantes.

Peyhardi, Jean 09 December 2013 (has links) (PDF)
Le but de cette thèse est de proposer une nouvelle classe de GLMs pour une variable réponse catégorielle structurée hiérarchiquement, comme une variable partiellement ordonnée par exemple. Une première étape a été de mettre en évidence les différences et les point communs entre les GLMs pour variables réponses nominale et ordinale. Sur cette base nous avons introduit une nouvelle spécification des GLMs pour variable réponse catégorielle, qu'elle soit ordinale ou nominale, basée sur trois composantes : le ratio de probabilitées r, la fonction de répartition F et la matrice de design Z. Ce cadre de travail nous a permis de définir une nouvelle famille de modèles pour données nominales, comparable aux familles de modèles cumulatifs, séquentiels et adjacents pour données ordinales. Puis nous avons défini la classe des modèles linéaires généralisés partitionnés conditionnels (PCGLMs) en utilisant des arbres orientés et la specification (r,F,Z). Dans notre contexte biologique, les données sont des séquences multivariées composées d'une variable réponse catégorielle (le type de production axillaire) et de variables explicatives (longueur de l'entre-noeud par exemple). Dans les combinaisons semi-markoviennes de modèles linéaires généralisés partitionnés conditionnés (SMS-PCGLM) estimées sur la base de ces séquences, la semi-chaîne de Markov sous-jacente représente la succession et les longueurs des zones de ramification, tandis que les PCGLMs représentent, l'influence des variables explicatives de croissance sur les productions axillaires dans chaque zone de ramification. En utilisant ces modèles statistiques intégratifs, nous avons montré que la croissance de la pousse influençait des événements de ramification particuliers.
42

Analyse des disparités provinciales dans l'application des lois sur les drogues au Canada de 1977 à 2000

Dion, Guy Ati January 2003 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
43

Désagrégation spatiale des données de mobilité du recensement de la population appliquée à l'Ile-de-France / Disaggregation spatial of census mobility data apply to region Ile-de-France

Pivano, Cyril 20 October 2016 (has links)
En cours / En cours
44

Développement d'algorithmes de métrologie dédiés à la caractérisation de nano-objets à partir d'informations hétérogènes / Development of nano-object characterization algorithms from heterogeneous data

Derville, Alexandre 20 December 2018 (has links)
Ces travaux de thèse s’inscrivent dans le contexte technico/économique des nanomatériaux notamment les nanoparticules et les copolymères. Aujourd’hui, une révolution technologique est en cours avec l’introduction de ces matériaux dans des matrices plus ou moins complexes présentes dans notre quotidien (santé, cosmétique, bâtiment, agroalimentaire...). Ces matériaux confèrent à ces produits des propriétés uniques (mécanique, électrique, chimique, thermique, ...). Cette omniprésence associée aux enjeux économiques engendre deux problématiques liées au contrôle des procédés de fabrication et à la métrologie associée. La première est de garantir une traçabilité de ces nanomatériaux afin de prévenir tout risque sanitaire et environnemental et la seconde est d’optimiser le développement des procédés afin de pérenniser des filières économiques rentables. Pour cela, les deux techniques les plus courantes de métrologie utilisées sont : la microscopie électronique à balayage (MEB) et la microscopie à force atomique (AFM).Le premier volet des travaux est consacré au développement d’une méthodologie de fusion de données permettant d’analyser automatiquement les données en provenance de chaque microscope et d’utiliser leurs points forts respectifs afin de réduire les incertitudes de mesure en trois dimensions. Une première partie a été consacrée à la correction d’un défaut majeur d’asservissement de l’AFM qui génère des dérives et/ou sauts dans les signaux. Nous présentons une technique dirigée par les données permettant une correction de ces signaux. La méthode présentée a l’avantage de ne pas faire d’hypothèses sur les objets et leurs positions. Elle peut être utilisée en routine automatique pour l’amélioration du signal avant l’analyse des objets.La deuxième partie est consacrée au développement d’une méthode d’analyse automatique des images de nanoparticules sphériques en provenance d’un AFM ou d’un MEB. Dans le but de développer une traçabilité en 3D, il est nécessaire d’identifier et de mesurer les nanoparticules identiques qui ont été mesurées à la fois sur l’AFM et sur le MEB. Afin d’obtenir deux estimations du diamètre sur la même particule physique, nous avons développé une technique qui permet de mettre en correspondance les particules. Partant des estimations pour les deux types de microscopie, avec des particules présentes dans les deux types d'images ou non, nous présentons une technique qui permet l'agrégation d’estimateurs sur les populations de diamètres afin d'obtenir une valeur plus fiable des propriétés du diamètre des particules.Le second volet de cette thèse est dédié à l’optimisation d’un procédé de fabrication de copolymères à blocs (structures lamellaires) afin d’exploiter toutes les grandeurs caractéristiques utilisées pour la validation du procédé (largeur de ligne, période, rugosité, taux de défauts) notamment à partir d’images MEB afin de les mettre en correspondance avec un ensemble de paramètres de procédé. En effet, lors du développement d’un nouveau procédé, un plan d’expériences est effectué. L’analyse de ce dernier permet d’estimer manuellement une fenêtre de procédé plus ou moins précise (estimation liée à l’expertise de l’ingénieur matériaux). L’étape est réitérée jusqu’à l’obtention des caractéristiques souhaitées. Afin d’accélérer le développement, nous avons étudié une façon de prédire le résultat du procédé de fabrication sur l’espace des paramètres. Pour cela, nous avons étudié différentes techniques de régression que nous présentons afin de proposer une méthodologie automatique d’optimisation des paramètres d’un procédé alimentée par les caractéristiques d’images AFM et/ou MEB.Ces travaux d’agrégations d’estimateurs et d’optimisation de fenêtre de procédés permettent d’envisager le développement d’une standardisation d’analyse automatique de données issues de MEB et d’AFM en vue du développement d’une norme de traçabilité des nanomatériaux. / This thesis is included in the technical and economical context of nanomaterials, more specifically nanoparticles and block copolymer. Today, we observe a technological revolution with the introduction of these materials into matrices more or less complex present in our daily lives (health, cosmetics, buildings, food ...). These materials yield unique properties to these products (mechanical, electrical, chemical, thermal ...). This omnipresence associated with the economic stakes generates two problems related to the process control and associated metrology. The first is to ensure traceability of these nanomaterials in order to prevent any health and environmental risks and the second is to optimize the development of processes in order to sustain profitable economic sectors. For this, the two most common metrology techniques used are: scanning electron microscopy (SEM) and atomic force microscopy (AFM).The first phase of the work is devoted to the development of a data fusion methodology that automatically analyzes data from each microscope and uses their respective strengths to reduce measurement uncertainties in three dimensions. A first part was dedicated to the correction of a major defect of the AFM which generates drifts and / or jumps in the signals. We present a data-driven methodology, fast to implement and which accurately corrects these deviations. The proposed methodology makes no assumption on the object locations and can therefore be used as an efficient preprocessing routine for signal enhancement before object analysis.The second part is dedicated to the development of a method for automatic analysis of spherical nanoparticle images coming from an AFM or a SEM. In order to develop 3D traceability, it is mandatory to identify and measure the identical nanoparticles that have been measured on both AFM and SEM. In order to obtain two estimations of the diameter on the same physical particle, we developed a technique that allows to match the particles. Starting from estimates for both types of microscopy, with particles present in both kinds of images or not, we present a technique that allows the aggregation of estimators on diameter populations in order to obtain a more reliable value of properties of the particle diameter.The second phase of this thesis is dedicated to the optimization of a block copolymer process (lamellar structures) in order to capitalize on all the characteristic quantities used for the validation of the process (line width, period, roughness, defects rate) in particular from SEM images for the purpose of matching them with a set of process parameters.Indeed, during the development of a new process, an experimental plan is carried out. The analysis of the latter makes it possible to manually estimate a more or less precise process window (estimate related to the expertise of the materials engineer). The step is reiterated until the desired characteristics are obtained. In order to accelerate the development, we have studied a way of predicting the result of the process on the parameter space. For this, we studied different regression techniques that we present to propose an automatic methodology for optimizing the parameters of a process powered by AFM and / or SEM image characteristics.This work of estimator aggregation and process window optimization makes it possible to consider the development of a standardization of automatic analysis of SEM and AFM data for the development of a standard for traceability of nanomaterials.
45

Prise en compte de la dépendance spatiotemporale des séries temporelles de coordonnées GNSS pour une meilleure détermination des plaques tectoniques majeures par rapport au centre de la Terre / Taking into account spatio-temporal correlations of GNSS coordinate time series to improve the determination of majotr tectonic plates compared to Earth center

Benoist, Clément 28 September 2018 (has links)
Tout positionnement global précis nécessite un repère de référence tel le repère international de référence terrestre (ITRF). La détermination de l’ITRF s’appuie sur des séries temporelles de positions d’instruments géodésiques, en particulier des stations GNSS permanentes. Les séries temporelles de positions de stations GNSS sont corrélées temporellement et spatialement. De nombreuses études ont caractérisé la dépendance temporelle de ces séries et son impact sur la détermination de repères de référence. En revanche, les corrélations spatiales (entre stations proches) des séries GNSS n’ont jusqu’à présent jamais été prises en compte dans le calcul de repères de référence. L’objectif de cette thèse est donc de proposer une méthodologie pour la prise en compte de ces corrélations spatiales et d’évaluer son apport.Les dépendances spatiales entre les séries de 195 stations GNSS sont tout d’abord évaluées à l’aide de variogrammes empiriques confirmant l’existence de corrélations jusqu’à des distances d’environ 5000 km. Des modèles de covariance exponentielle ne dépendant que de la distance inter-stations sont ajustés sur ces variogrammes empiriques.Une méthodologie basée sur un filtre de Kalman est ensuite développée pour prendre en compte les dépendances spatiales des séries GNSS dans le calcul d’un repère de référence. Trois modèles de dépendance spatiale sont proposés : un modèle ne tenant pas compte de la dépendance spatiale (cas actuel du calcul de l’ITRF), un modèle basé sur les covariances empiriques entre séries de différentes stations, et un modèle basé sur les fonctions de covariance exponentielle mentionnées ci-dessus. Ces différents modèles sont appliqués à trois jeux tests d’une dizaine de stations chacun situés en Europe, aux Caraïbes et sur la côte est des États-Unis. Les trois modèles sont évalués à l’aune d’un critère de validation croisée, c’est-à-dire sur leur capacité à prédire les positions des stations en l’absence de données. Les résultats sur les jeux tests d’Europe et des États-Unis montrent une amélioration considérable de cette capacité prédictive lorsque la dépendance spatiale des séries est prise en compte. Cette amélioration est maximale lorsque le modèle de covariance exponentielle est utilisé. L’amélioration est nettement moindre, mais toujours présente sur le jeu test des Caraïbes.Les trois modèles sont également évalués sur leur capacité à déterminer des vitesses de déplacement exactes à partir de séries temporelles de positions courtes. L’impact de la prise en compte de la dépendance spatiale des séries sur l’exactitude des vitesses estimées est significatif. Comme précédemment, l’amélioration est maximale lorsque le modèle de covariance exponentielle est utilisé.Cette thèse démontre ainsi l’intérêt de la prise en compte des dépendances spatiales entre séries GNSS pour la détermination de repères de référence. La méthodologie développée pourra être utilisée pour le calcul de futures versions de l’ITRF. / Any global and precise positioning requires a reference frame such as the International Terrestrial Reference Frame (ITRF). The determination of the ITRF relies on the position time series of various geodetic instruments, including in particular permanent GNSS stations. GNSS station position time series are known to be temporally and spatially correlated. Many authors have studied the temporal dependency of GNSS time series and its impact on the determination of terrestrial reference frames. On the other hand, the spatial correlations (i.e., between nearby stations) of GNSS time series have so far never been taken into account in the computation of terrestrial reference frames. The objective of this thesis is therefore to develop a methodology to account for the spatial correlations of GNSS time series, and evaluate its benefits.The spatial dependencies between the position time series of 195 GNSS stations are first evaluated by means of empirical variograms, which confirm the existence of correlations up to distances of about 5000 km. Exponential covariance models, depending only on the distance between stations, are adjusted to these empirical variograms.A methodology based on a Kalman filter is then developed to take into account the spatial dependencies of GNSS time series in the computation of a terrestrial reference frame. Three models of spatial dependency are proposed: a model which does not account for the spatial dependency between GNSS time series (current case of the ITRF computation), a model based on the empirical covariances between the time series of different stations, and a model based on the exponential covariance functions mentioned above.These different models are applied to three test cases of ten stations each, located in Europe, in the Caribbean, and along the east coast of the US. The three models are evaluated with regard to a cross-validation criterion, i.e., on their capacity to predict station positions in the absence of observations. The results obtained with the Europe and US test cases demonstrate a significant improvement of this predictive capacity when the spatial dependency of the series is taken into account. This improvement is highest when the exponential covariance model is used. The improvement is much lower, but still present with the Caribbean test case.The three models are also evaluated with regard to their capacity to determine accurate station velocities from short position time series. The impact of accounting for the spatial dependency between series on the accuracy of the estimated velocities is again significant. Like previously, the improvement is highest when the exponential covariance model is used.This thesis thus demonstrates the interest of accounting for the spatial dependency of GNSS station position time series in the determination of terrestrial reference frames. The developed methodology could be used in the computation of future ITRF versions.
46

De la nature de quelques types de chroniques environnementales. Conséquences pour leur traitement statistique.

Manté, Claude 06 June 2008 (has links) (PDF)
Ce mémoire se compose d'un document de synthèse et de 4 articles publiés dans des revues internationales ; il comporte 5 chapitres dont 4 fondamentaux.<br />Le chapitre 1, intitulé « Aspects géométriques de l'Analyse en Composantes Principales », est essentiellement consacré aux techniques actuellement populaires d'analyse des données fonctionnelles. <br />La première section est consacrée à l'analyse dans l'espace des fréquences d'un signal multidimensionnel, re-codé par sa transformée de Fourier discrète, puis soumis à une Analyse en composantes principale (ACP). On montre l'intérêt de cette méthode pour filtrer des signaux non-stationnaires, dans les domaines de l'acoustique sous-marine et de l'analyse d'images.<br />Dans la deuxième section, on introduit un point de vue géométrique, au sens où « les propriétés géométriques sont caractérisées par leur invariance par rapport à un groupe de transformations » (K. Klein). Cela nous permet d'introduire l'ACP invariante sous l'action d'un groupe d'isométries (translations, p.ex.), qui montre son efficacité pour le traitement de données acoustiques.<br />Le chapitre 2, intitulé « Une petite théorie statistique de la rareté » est directement associé aux préoccupations des écologues. Il est motivé par les difficultés rencontrées lors de l'utilisation de méthodes factorielles dans le contexte d'études de longues séries d'observations d'espèces benthiques. C'est autour d'un l'article joint, intitulé : Methods for selecting dominant species in ecological series. Application to marine macrobenthic communities from the english channel que s'articule le discours. Il est bien connu que les méthodes classiques d'Analyse en Composantes Principales et des Correspondances portant sur des tableaux d'effectifs sont très sensibles à la faible importance de nombreux effectifs observés. L'auteur consacre une partie de ce chapitre à des définitions précises de la rareté, afin de pouvoir séparer ce qui est rare de ce qui est commun ou dominant. Cela permet de simplifier l'interprétation de l'ACP de longues séries d'observations, en supprimant les espèces rares. On propose une méthode automatique de sélection des espèces pour l'ACP, mais aussi des test portant sur la rareté globale (c'est-à-dire dans tous les relevés) des espèces recensées.<br /> <br />Le chapitre 3 est intitulé « Analyse en composantes principales de mesures absolument continues: applications en sédimentologie et en écologie ». On y présente des résultats statistiques théoriques obtenus dans deux articles (joints) publiés récemment, et illustrés par des applications à l'écologie et la sédimentologie. <br /> Il s'agit d'abord, dans un premier article intitulé The use of regularization methods in computing Radon-Nikodym derivatives. Application to grain-size distributions, de résoudre un problème d'approximation de densités pour résoudre un problème de sédimentologie. Dans le second article, intitulé Principal components analysis of measures, with special emphasis on grain-size curves, on propose une méthodologie originale pour réaliser des ACP de granulométries, utilisant le cadre fonctionnel mis en place dans l'article précédent. Ce travail est illustré par l'élaboration de plusieurs cartographies sédimentaires de l'étang de Berre, en fonction de la mesure de référence choisie.<br /> <br />Comme l'indique son titre : « La turbulence et le plancton », le chapitre 4 met en relation l'Ecologie et l'Océanographie Physique. Au cœur de ce chapitre se trouve le « paradoxe du plancton » : pourquoi y a-t-il une telle biodiversité dans les océans, alors qu'il s'y trouve si peu de ressources ' Pour certains chercheurs, l'explication de ce paradoxe réside dans la turbulence, qui favoriserait l'apport de nutriments aux cellules phytoplanctoniques. Afin de valider numériquement un modèle de croissance du phytoplancton basé sur cette hypothèse et incorporant la turbulence, il est nécessaire de simuler celle-ci. Nous proposons de la modéliser par une puissance d'un processus stochastique à longue portée. Afin d'estimer le principal paramètre de ce processus (son exposant de Hurst) à partir de données disponibles, nous avons proposé des améliorations méthodologiques, qui on fait l'objet d'un article joint: Application of resampling and linear spline methods to spectral and dispersional analyses of long-memory processes. Les améliorations attendues sont testées sur des données simulées et sur les données classiques de l'historique du niveau d'eau du Nil, ainsi que sur la chronique de l'Oscillation Nord-Atlantique (NAO).
47

Modèles du champ électromagnétique aléatoire pour le calcul du couplage sur un équipement électronique en chambre réverbérante à brassage de modes et validation expérimentale

Fiachetti, Cécile 13 November 2002 (has links) (PDF)
Cette thèse a pour but d'analyser le couplage électromagnétique sur les systèmes électroniques linéiaires testés en chambre réverbérante à brassage de modes (CRBM).
48

Reconnaissance Biométrique par Fusion Multimodale du Visage et de l'Iris

Morizet, Nicolas 18 March 2009 (has links) (PDF)
La biométrie se réfère à la reconnaissance automatique des individus basée sur leurs caractéristiques physiologiques et/ou comportementales. Les systèmes biométriques unimodaux permettent de reconnaître une personne en utilisant une seule modalité biométrique, mais ne peuvent pas garantir avec certitude une bonne identification. De plus, ces systèmes sont sensibles au bruit introduit par l'unique capteur, à la non-universalité et au manque d'individualité de la modalité biométrique choisie ainsi qu'aux tentatives d'intrusion. La plupart de ces problèmes peuvent être réduits par la mise en place de systèmes biométriques multimodaux utilisant plusieurs signatures biométriques d'une même personne. Dans cette thèse, nous abordons plusieurs points importants concernant la biométrie multimodale. Tout d'abord, après avoir dressé un état de l'art en fusion multimodale, nous faisons le lien entre le fonctionnement du cerveau et certains algorithmes fondamentaux utilisés en reconnaissance faciale. Ensuite, nous mettons en avant l'utilisation des ondelettes à divers niveaux du système biométrique multimodal. Enfin, l'exploration de nouvelles techniques de fusion de signatures biométriques issues du visage (modalité naturelle et non intrusive) et de l'iris (une des modalités les plus précises) ainsi que des analyses statistiques à grande échelle des scores de similarité provenant de chaque modalité ont permis de mettre au point une méthode originale de fusion adaptative combinant l'utilisation des ondelettes et des moments statistiques.
49

Propriétés théoriques et applications en statistique et en simulation de processus et de champs aléatoires stationnaires

Truquet, Lionel 10 December 2008 (has links) (PDF)
Ce travail doctoral étudie les propriétés théoriques et asymptotiques des processus et des champs aléatoires stationnaires dont se déduisent des applications en statistique et en simulation. Une premi ère partie (Chapitres 2, 3 et 4) a pour objectif de construire des nouveaux modèles de champs aléatoires de type autorégressifs, sous forme de schémas de Bernoulli, et de donner des résultats au sujet de leur théorie limite. Des notions de dépendance faible sont utilisées, plus générale que les notions bien connues de mélange fort ou d'association. Nous envisagerons un principe d'invariance, faible et fort, pour les champs aléatoires considérés. Dans un deuxième temps, nous nous intéressons à quelques problèmes d'estimation dans deux contextes de dépendance bien précis. Nous étudions au Chapitre 5 un problème de simulation de textures dans un contexte de rééchantillonnage pour des champs de Markov fortement mélangeants dans un cadre non paramétrique. Le Chapitre 6 est consacré à la construction et à l'estimation des paramètres d'une nouvelle série chronologique à valeurs entières de type ARCH. La construction est établie en utilisant des arguments de contraction établis dans le cadre des champs aléatoires et le comportement asymptotique des estimateurs des paramètres, obtenus par quasi-maximum de vraisemblance gaussien est fondée sur des arguments de type différence de martingales. Enfin nous présentons au Chapitre 7 une nouvelle méthode d'estimation des paramètres pour des modèles ARCH de type markoviens, mé- thode obtenue en lissant la quasi vraisemblance gaussienne et nous appliquons cette méthode à une série hétéroscedastique de type LARCH pour laquelle les faibles valeurs de la variance conditionnelle rendent dificile l'utilisation de la méthode classique du quasi maximum de vraisemblance
50

Statistiques spatiales appliquées à l'étude de la végétation : un lien entre structure et processus dynamiques

Couteron, Pierre 03 May 2005 (has links) (PDF)
Les travaux présentés pour cette HdR s'intéressent à la façon dont l'analyse statistique des structures spatiales peut contribuer à la compréhension et à la modélisation spatialement explicite des processus dynamiques qui façonnent les différents aspects de la végétation terrestre. Cette thématique fait d'abord l'objet d'une mise en perspective historique avant d'être illustrée par des travaux menés sur l'émergence de structures spatiales périodiques dans les végétations semi-arides d'Afrique occidentale. Elle constitue ensuite la trame d'un programme de recherches, visant à caractériser l'organisation spatiale à grande échelle (macro-écologie) de la biodiversité végétale des forêts tropicales, sur la base de synergies novatrices entre télédétection, modélisation de l'architecture de la forêt et modèles d'assemblages d'espèces. L'auteur présente ensuite ses contributions récentes à ce programme (caractérisation des textures de canopée, analyse et modélisation des assemblages d'espèces), puis évoque les perspectives de développements méthodologiques dans ces domaines

Page generated in 0.06 seconds