• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 504
  • 220
  • 99
  • 4
  • 3
  • 1
  • Tagged with
  • 828
  • 342
  • 198
  • 126
  • 122
  • 120
  • 109
  • 95
  • 91
  • 90
  • 89
  • 83
  • 80
  • 76
  • 74
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Comportement des interfaces fragiles des ouvrages hydroélectriques

Rousseau, Baptiste January 2010 (has links)
In Quebec, the concrete dams over fifty years are systematically studied since the Saguenay earthquake (1988, 6.2 on the Richter scale) because they were not sized for such hazards. For calculation of the reliability codes for Hydro-Quebec structures, different parameters on the morphology of structure and the physical and mechanical parameters are needed. Among these, the shear strength of interfaces (concrete-concrete, concrete-rock, rock-rock) is particularly important because it determines the safety factor in large part. Moreover, it is commonly accepted that the roughness of the surfaces of rock discontinuities determines the mechanical behavior in shear. This study is divided into two parts: a study of taking samples from two dams of Hydro-Quebec and the conception of an artificial rock-concrete contact. Firstly, from shear tests realized under constant normal load, achieved on contacts from two dams, the principal component study of mechanical and roughness parameters was conducted to determine the parameters dominate (Z[subscript 2], Z[subscript 4], Extent).In addition, a field classification of discontinuities is proposed. The latter depends on various parameters such as the angularity of the surface, filling or oxidation of the surfaces of the discontinuity. Artificial rock-concrete contact has been studied in its entirety by various statistical and geostatistical methods in order to describe as precisely as possible its surface roughness. Once the last known, a map of coring with a 150 mm diameter core sampler has been decided. The collected areas are those with features of roughness, for example, a high angularity. Once the coring performed, samples were tested for shear resistance under a constant normal load It follows a study of mechanical and roughness parameter and an underline of scale effect.
42

Le catalogue des Éditions Hurtubise HMH (1960-2003) analyse quantitative, approche historique et modèle d'analyse combinée

Doré, Martin January 2009 (has links)
Au 20e siècle, les sciences sociales ont pris une place déterminante dans la compréhension des faits sociaux. Des outils de recherche ont été développés et ont permis de cerner des réalités méconnues ou ignorées jusque-là. L'un de ces outils a été l'analyse quantitative qui repose sur les statistiques dont l'importance n'a cessé de croître tout au long du siècle. L'État contemporain avait besoin d'un tel outil à partir du moment où il intervenait de plus en plus dans la société et où il voulait que cette intervention repose sur une connaissance rationnelle et scientifique. Du coup, la recherche en a été favorisée. La présente thèse prend appui sur ce tournant épistémologique et social. Elle propose d'examiner le domaine du livre et de l'édition en plaçant sa problématique à un moment du développement du marché et de la recherche où domine la massification des phénomènes culturels. Elle analyse le catalogue d'une maison d'édition, Hurtubise HMH, entre 1960 et 2003, en considérant cet objet comme l'indice d'une stratégie qui vise à correspondre au marché dans le but de développer l'entreprise. Disposant d'une base de données sur le contenu du catalogue construite par son auteur, faisant reposer initialement son analyse sur une mise en statistiques de ces données, cette thèse valide l'analyse quantitative du catalogue en positionnant ce dernier en fonction d'une synthèse sur le développement du marché éditorial québécois pendant la période étudiée. De plus, elle recadre résultats et validation en fonction d'une synthèse théorique sur l'utilisation des méthodes quantitatives au sein des sciences sociales et de l'histoire. Par sa démarche, sa structure et son contenu, cette thèse vise à l'élaboration d'un modèle interprétatif.
43

Exemples d'utilisation d'un calculateur en statistique

Hisleur, G. 11 February 1969 (has links) (PDF)
.
44

Une nouvelle famille de modèles linéaires généralisés (GLMs) pour l'analyse de données catégorielles ; application à la structure et au développement des plantes.

Peyhardi, Jean 09 December 2013 (has links) (PDF)
Le but de cette thèse est de proposer une nouvelle classe de GLMs pour une variable réponse catégorielle structurée hiérarchiquement, comme une variable partiellement ordonnée par exemple. Une première étape a été de mettre en évidence les différences et les point communs entre les GLMs pour variables réponses nominale et ordinale. Sur cette base nous avons introduit une nouvelle spécification des GLMs pour variable réponse catégorielle, qu'elle soit ordinale ou nominale, basée sur trois composantes : le ratio de probabilitées r, la fonction de répartition F et la matrice de design Z. Ce cadre de travail nous a permis de définir une nouvelle famille de modèles pour données nominales, comparable aux familles de modèles cumulatifs, séquentiels et adjacents pour données ordinales. Puis nous avons défini la classe des modèles linéaires généralisés partitionnés conditionnels (PCGLMs) en utilisant des arbres orientés et la specification (r,F,Z). Dans notre contexte biologique, les données sont des séquences multivariées composées d'une variable réponse catégorielle (le type de production axillaire) et de variables explicatives (longueur de l'entre-noeud par exemple). Dans les combinaisons semi-markoviennes de modèles linéaires généralisés partitionnés conditionnés (SMS-PCGLM) estimées sur la base de ces séquences, la semi-chaîne de Markov sous-jacente représente la succession et les longueurs des zones de ramification, tandis que les PCGLMs représentent, l'influence des variables explicatives de croissance sur les productions axillaires dans chaque zone de ramification. En utilisant ces modèles statistiques intégratifs, nous avons montré que la croissance de la pousse influençait des événements de ramification particuliers.
45

Analyse des disparités provinciales dans l'application des lois sur les drogues au Canada de 1977 à 2000

Dion, Guy Ati January 2003 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
46

Désagrégation spatiale des données de mobilité du recensement de la population appliquée à l'Ile-de-France / Disaggregation spatial of census mobility data apply to region Ile-de-France

Pivano, Cyril 20 October 2016 (has links)
En cours / En cours
47

Développement d'algorithmes de métrologie dédiés à la caractérisation de nano-objets à partir d'informations hétérogènes / Development of nano-object characterization algorithms from heterogeneous data

Derville, Alexandre 20 December 2018 (has links)
Ces travaux de thèse s’inscrivent dans le contexte technico/économique des nanomatériaux notamment les nanoparticules et les copolymères. Aujourd’hui, une révolution technologique est en cours avec l’introduction de ces matériaux dans des matrices plus ou moins complexes présentes dans notre quotidien (santé, cosmétique, bâtiment, agroalimentaire...). Ces matériaux confèrent à ces produits des propriétés uniques (mécanique, électrique, chimique, thermique, ...). Cette omniprésence associée aux enjeux économiques engendre deux problématiques liées au contrôle des procédés de fabrication et à la métrologie associée. La première est de garantir une traçabilité de ces nanomatériaux afin de prévenir tout risque sanitaire et environnemental et la seconde est d’optimiser le développement des procédés afin de pérenniser des filières économiques rentables. Pour cela, les deux techniques les plus courantes de métrologie utilisées sont : la microscopie électronique à balayage (MEB) et la microscopie à force atomique (AFM).Le premier volet des travaux est consacré au développement d’une méthodologie de fusion de données permettant d’analyser automatiquement les données en provenance de chaque microscope et d’utiliser leurs points forts respectifs afin de réduire les incertitudes de mesure en trois dimensions. Une première partie a été consacrée à la correction d’un défaut majeur d’asservissement de l’AFM qui génère des dérives et/ou sauts dans les signaux. Nous présentons une technique dirigée par les données permettant une correction de ces signaux. La méthode présentée a l’avantage de ne pas faire d’hypothèses sur les objets et leurs positions. Elle peut être utilisée en routine automatique pour l’amélioration du signal avant l’analyse des objets.La deuxième partie est consacrée au développement d’une méthode d’analyse automatique des images de nanoparticules sphériques en provenance d’un AFM ou d’un MEB. Dans le but de développer une traçabilité en 3D, il est nécessaire d’identifier et de mesurer les nanoparticules identiques qui ont été mesurées à la fois sur l’AFM et sur le MEB. Afin d’obtenir deux estimations du diamètre sur la même particule physique, nous avons développé une technique qui permet de mettre en correspondance les particules. Partant des estimations pour les deux types de microscopie, avec des particules présentes dans les deux types d'images ou non, nous présentons une technique qui permet l'agrégation d’estimateurs sur les populations de diamètres afin d'obtenir une valeur plus fiable des propriétés du diamètre des particules.Le second volet de cette thèse est dédié à l’optimisation d’un procédé de fabrication de copolymères à blocs (structures lamellaires) afin d’exploiter toutes les grandeurs caractéristiques utilisées pour la validation du procédé (largeur de ligne, période, rugosité, taux de défauts) notamment à partir d’images MEB afin de les mettre en correspondance avec un ensemble de paramètres de procédé. En effet, lors du développement d’un nouveau procédé, un plan d’expériences est effectué. L’analyse de ce dernier permet d’estimer manuellement une fenêtre de procédé plus ou moins précise (estimation liée à l’expertise de l’ingénieur matériaux). L’étape est réitérée jusqu’à l’obtention des caractéristiques souhaitées. Afin d’accélérer le développement, nous avons étudié une façon de prédire le résultat du procédé de fabrication sur l’espace des paramètres. Pour cela, nous avons étudié différentes techniques de régression que nous présentons afin de proposer une méthodologie automatique d’optimisation des paramètres d’un procédé alimentée par les caractéristiques d’images AFM et/ou MEB.Ces travaux d’agrégations d’estimateurs et d’optimisation de fenêtre de procédés permettent d’envisager le développement d’une standardisation d’analyse automatique de données issues de MEB et d’AFM en vue du développement d’une norme de traçabilité des nanomatériaux. / This thesis is included in the technical and economical context of nanomaterials, more specifically nanoparticles and block copolymer. Today, we observe a technological revolution with the introduction of these materials into matrices more or less complex present in our daily lives (health, cosmetics, buildings, food ...). These materials yield unique properties to these products (mechanical, electrical, chemical, thermal ...). This omnipresence associated with the economic stakes generates two problems related to the process control and associated metrology. The first is to ensure traceability of these nanomaterials in order to prevent any health and environmental risks and the second is to optimize the development of processes in order to sustain profitable economic sectors. For this, the two most common metrology techniques used are: scanning electron microscopy (SEM) and atomic force microscopy (AFM).The first phase of the work is devoted to the development of a data fusion methodology that automatically analyzes data from each microscope and uses their respective strengths to reduce measurement uncertainties in three dimensions. A first part was dedicated to the correction of a major defect of the AFM which generates drifts and / or jumps in the signals. We present a data-driven methodology, fast to implement and which accurately corrects these deviations. The proposed methodology makes no assumption on the object locations and can therefore be used as an efficient preprocessing routine for signal enhancement before object analysis.The second part is dedicated to the development of a method for automatic analysis of spherical nanoparticle images coming from an AFM or a SEM. In order to develop 3D traceability, it is mandatory to identify and measure the identical nanoparticles that have been measured on both AFM and SEM. In order to obtain two estimations of the diameter on the same physical particle, we developed a technique that allows to match the particles. Starting from estimates for both types of microscopy, with particles present in both kinds of images or not, we present a technique that allows the aggregation of estimators on diameter populations in order to obtain a more reliable value of properties of the particle diameter.The second phase of this thesis is dedicated to the optimization of a block copolymer process (lamellar structures) in order to capitalize on all the characteristic quantities used for the validation of the process (line width, period, roughness, defects rate) in particular from SEM images for the purpose of matching them with a set of process parameters.Indeed, during the development of a new process, an experimental plan is carried out. The analysis of the latter makes it possible to manually estimate a more or less precise process window (estimate related to the expertise of the materials engineer). The step is reiterated until the desired characteristics are obtained. In order to accelerate the development, we have studied a way of predicting the result of the process on the parameter space. For this, we studied different regression techniques that we present to propose an automatic methodology for optimizing the parameters of a process powered by AFM and / or SEM image characteristics.This work of estimator aggregation and process window optimization makes it possible to consider the development of a standardization of automatic analysis of SEM and AFM data for the development of a standard for traceability of nanomaterials.
48

Prise en compte de la dépendance spatiotemporale des séries temporelles de coordonnées GNSS pour une meilleure détermination des plaques tectoniques majeures par rapport au centre de la Terre / Taking into account spatio-temporal correlations of GNSS coordinate time series to improve the determination of majotr tectonic plates compared to Earth center

Benoist, Clément 28 September 2018 (has links)
Tout positionnement global précis nécessite un repère de référence tel le repère international de référence terrestre (ITRF). La détermination de l’ITRF s’appuie sur des séries temporelles de positions d’instruments géodésiques, en particulier des stations GNSS permanentes. Les séries temporelles de positions de stations GNSS sont corrélées temporellement et spatialement. De nombreuses études ont caractérisé la dépendance temporelle de ces séries et son impact sur la détermination de repères de référence. En revanche, les corrélations spatiales (entre stations proches) des séries GNSS n’ont jusqu’à présent jamais été prises en compte dans le calcul de repères de référence. L’objectif de cette thèse est donc de proposer une méthodologie pour la prise en compte de ces corrélations spatiales et d’évaluer son apport.Les dépendances spatiales entre les séries de 195 stations GNSS sont tout d’abord évaluées à l’aide de variogrammes empiriques confirmant l’existence de corrélations jusqu’à des distances d’environ 5000 km. Des modèles de covariance exponentielle ne dépendant que de la distance inter-stations sont ajustés sur ces variogrammes empiriques.Une méthodologie basée sur un filtre de Kalman est ensuite développée pour prendre en compte les dépendances spatiales des séries GNSS dans le calcul d’un repère de référence. Trois modèles de dépendance spatiale sont proposés : un modèle ne tenant pas compte de la dépendance spatiale (cas actuel du calcul de l’ITRF), un modèle basé sur les covariances empiriques entre séries de différentes stations, et un modèle basé sur les fonctions de covariance exponentielle mentionnées ci-dessus. Ces différents modèles sont appliqués à trois jeux tests d’une dizaine de stations chacun situés en Europe, aux Caraïbes et sur la côte est des États-Unis. Les trois modèles sont évalués à l’aune d’un critère de validation croisée, c’est-à-dire sur leur capacité à prédire les positions des stations en l’absence de données. Les résultats sur les jeux tests d’Europe et des États-Unis montrent une amélioration considérable de cette capacité prédictive lorsque la dépendance spatiale des séries est prise en compte. Cette amélioration est maximale lorsque le modèle de covariance exponentielle est utilisé. L’amélioration est nettement moindre, mais toujours présente sur le jeu test des Caraïbes.Les trois modèles sont également évalués sur leur capacité à déterminer des vitesses de déplacement exactes à partir de séries temporelles de positions courtes. L’impact de la prise en compte de la dépendance spatiale des séries sur l’exactitude des vitesses estimées est significatif. Comme précédemment, l’amélioration est maximale lorsque le modèle de covariance exponentielle est utilisé.Cette thèse démontre ainsi l’intérêt de la prise en compte des dépendances spatiales entre séries GNSS pour la détermination de repères de référence. La méthodologie développée pourra être utilisée pour le calcul de futures versions de l’ITRF. / Any global and precise positioning requires a reference frame such as the International Terrestrial Reference Frame (ITRF). The determination of the ITRF relies on the position time series of various geodetic instruments, including in particular permanent GNSS stations. GNSS station position time series are known to be temporally and spatially correlated. Many authors have studied the temporal dependency of GNSS time series and its impact on the determination of terrestrial reference frames. On the other hand, the spatial correlations (i.e., between nearby stations) of GNSS time series have so far never been taken into account in the computation of terrestrial reference frames. The objective of this thesis is therefore to develop a methodology to account for the spatial correlations of GNSS time series, and evaluate its benefits.The spatial dependencies between the position time series of 195 GNSS stations are first evaluated by means of empirical variograms, which confirm the existence of correlations up to distances of about 5000 km. Exponential covariance models, depending only on the distance between stations, are adjusted to these empirical variograms.A methodology based on a Kalman filter is then developed to take into account the spatial dependencies of GNSS time series in the computation of a terrestrial reference frame. Three models of spatial dependency are proposed: a model which does not account for the spatial dependency between GNSS time series (current case of the ITRF computation), a model based on the empirical covariances between the time series of different stations, and a model based on the exponential covariance functions mentioned above.These different models are applied to three test cases of ten stations each, located in Europe, in the Caribbean, and along the east coast of the US. The three models are evaluated with regard to a cross-validation criterion, i.e., on their capacity to predict station positions in the absence of observations. The results obtained with the Europe and US test cases demonstrate a significant improvement of this predictive capacity when the spatial dependency of the series is taken into account. This improvement is highest when the exponential covariance model is used. The improvement is much lower, but still present with the Caribbean test case.The three models are also evaluated with regard to their capacity to determine accurate station velocities from short position time series. The impact of accounting for the spatial dependency between series on the accuracy of the estimated velocities is again significant. Like previously, the improvement is highest when the exponential covariance model is used.This thesis thus demonstrates the interest of accounting for the spatial dependency of GNSS station position time series in the determination of terrestrial reference frames. The developed methodology could be used in the computation of future ITRF versions.
49

De la nature de quelques types de chroniques environnementales. Conséquences pour leur traitement statistique.

Manté, Claude 06 June 2008 (has links) (PDF)
Ce mémoire se compose d'un document de synthèse et de 4 articles publiés dans des revues internationales ; il comporte 5 chapitres dont 4 fondamentaux.<br />Le chapitre 1, intitulé « Aspects géométriques de l'Analyse en Composantes Principales », est essentiellement consacré aux techniques actuellement populaires d'analyse des données fonctionnelles. <br />La première section est consacrée à l'analyse dans l'espace des fréquences d'un signal multidimensionnel, re-codé par sa transformée de Fourier discrète, puis soumis à une Analyse en composantes principale (ACP). On montre l'intérêt de cette méthode pour filtrer des signaux non-stationnaires, dans les domaines de l'acoustique sous-marine et de l'analyse d'images.<br />Dans la deuxième section, on introduit un point de vue géométrique, au sens où « les propriétés géométriques sont caractérisées par leur invariance par rapport à un groupe de transformations » (K. Klein). Cela nous permet d'introduire l'ACP invariante sous l'action d'un groupe d'isométries (translations, p.ex.), qui montre son efficacité pour le traitement de données acoustiques.<br />Le chapitre 2, intitulé « Une petite théorie statistique de la rareté » est directement associé aux préoccupations des écologues. Il est motivé par les difficultés rencontrées lors de l'utilisation de méthodes factorielles dans le contexte d'études de longues séries d'observations d'espèces benthiques. C'est autour d'un l'article joint, intitulé : Methods for selecting dominant species in ecological series. Application to marine macrobenthic communities from the english channel que s'articule le discours. Il est bien connu que les méthodes classiques d'Analyse en Composantes Principales et des Correspondances portant sur des tableaux d'effectifs sont très sensibles à la faible importance de nombreux effectifs observés. L'auteur consacre une partie de ce chapitre à des définitions précises de la rareté, afin de pouvoir séparer ce qui est rare de ce qui est commun ou dominant. Cela permet de simplifier l'interprétation de l'ACP de longues séries d'observations, en supprimant les espèces rares. On propose une méthode automatique de sélection des espèces pour l'ACP, mais aussi des test portant sur la rareté globale (c'est-à-dire dans tous les relevés) des espèces recensées.<br /> <br />Le chapitre 3 est intitulé « Analyse en composantes principales de mesures absolument continues: applications en sédimentologie et en écologie ». On y présente des résultats statistiques théoriques obtenus dans deux articles (joints) publiés récemment, et illustrés par des applications à l'écologie et la sédimentologie. <br /> Il s'agit d'abord, dans un premier article intitulé The use of regularization methods in computing Radon-Nikodym derivatives. Application to grain-size distributions, de résoudre un problème d'approximation de densités pour résoudre un problème de sédimentologie. Dans le second article, intitulé Principal components analysis of measures, with special emphasis on grain-size curves, on propose une méthodologie originale pour réaliser des ACP de granulométries, utilisant le cadre fonctionnel mis en place dans l'article précédent. Ce travail est illustré par l'élaboration de plusieurs cartographies sédimentaires de l'étang de Berre, en fonction de la mesure de référence choisie.<br /> <br />Comme l'indique son titre : « La turbulence et le plancton », le chapitre 4 met en relation l'Ecologie et l'Océanographie Physique. Au cœur de ce chapitre se trouve le « paradoxe du plancton » : pourquoi y a-t-il une telle biodiversité dans les océans, alors qu'il s'y trouve si peu de ressources ' Pour certains chercheurs, l'explication de ce paradoxe réside dans la turbulence, qui favoriserait l'apport de nutriments aux cellules phytoplanctoniques. Afin de valider numériquement un modèle de croissance du phytoplancton basé sur cette hypothèse et incorporant la turbulence, il est nécessaire de simuler celle-ci. Nous proposons de la modéliser par une puissance d'un processus stochastique à longue portée. Afin d'estimer le principal paramètre de ce processus (son exposant de Hurst) à partir de données disponibles, nous avons proposé des améliorations méthodologiques, qui on fait l'objet d'un article joint: Application of resampling and linear spline methods to spectral and dispersional analyses of long-memory processes. Les améliorations attendues sont testées sur des données simulées et sur les données classiques de l'historique du niveau d'eau du Nil, ainsi que sur la chronique de l'Oscillation Nord-Atlantique (NAO).
50

Modèles du champ électromagnétique aléatoire pour le calcul du couplage sur un équipement électronique en chambre réverbérante à brassage de modes et validation expérimentale

Fiachetti, Cécile 13 November 2002 (has links) (PDF)
Cette thèse a pour but d'analyser le couplage électromagnétique sur les systèmes électroniques linéiaires testés en chambre réverbérante à brassage de modes (CRBM).

Page generated in 0.0161 seconds