• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 83
  • 42
  • 9
  • Tagged with
  • 130
  • 130
  • 58
  • 39
  • 32
  • 31
  • 24
  • 22
  • 21
  • 20
  • 20
  • 19
  • 19
  • 19
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Dynamic stochastic block models, clustering and segmentation in dynamic graphs / Modèles à bloques stochastiques dynamiques pour la classification et la segmentation des graphes dynamiques

Corneli, Marco 17 November 2017 (has links)
Cette thèse porte sur l’analyse de graphes dynamiques, définis en temps discret ou continu. Nous introduisons une nouvelle extension dynamique du modèle a blocs stochastiques (SBM), appelée dSBM, qui utilise des processus de Poisson non homogènes pour modéliser les interactions parmi les paires de nœuds d’un graphe dynamique. Les fonctions d’intensité des processus ne dépendent que des classes des nœuds comme dans SBM. De plus, ces fonctions d’intensité ont des propriétés de régularité sur des intervalles temporels qui sont à estimer, et à l’intérieur desquels les processus de Poisson redeviennent homogènes. Un récent algorithme d’estimation pour SBM, qui repose sur la maximisation d’un critère exact (ICL exacte) est ici adopté pour estimer les paramètres de dSBM et sélectionner simultanément le modèle optimal. Ensuite, un algorithme exact pour la détection de rupture dans les séries temporelles, la méthode «pruned exact linear time» (PELT), est étendu pour faire de la détection de rupture dans des données de graphe dynamique selon le modèle dSBM. Enfin, le modèle dSBM est étendu ultérieurement pour faire de l’analyse de réseau textuel dynamique. Les réseaux sociaux sont un exemple de réseaux textuels: les acteurs s’échangent des documents (posts, tweets, etc.) dont le contenu textuel peut être utilisé pour faire de la classification et détecter la structure temporelle du graphe dynamique. Le modèle que nous introduisons est appelé «dynamic stochastic topic block model» (dSTBM). / This thesis focuses on the statistical analysis of dynamic graphs, both defined in discrete or continuous time. We introduce a new extension of the stochastic block model (SBM) for dynamic graphs. The proposed approach, called dSBM, adopts non homogeneous Poisson processes to model the interaction times between pairs of nodes in dynamic graphs, either in discrete or continuous time. The intensity functions of the processes only depend on the node clusters, in a block modelling perspective. Moreover, all the intensity functions share some regularity properties on hidden time intervals that need to be estimated. A recent estimation algorithm for SBM, based on the greedy maximization of an exact criterion (exact ICL) is adopted for inference and model selection in dSBM. Moreover, an exact algorithm for change point detection in time series, the "pruned exact linear time" (PELT) method is extended to deal with dynamic graph data modelled via dSBM. The approach we propose can be used for change point analysis in graph data. Finally, a further extension of dSBM is developed to analyse dynamic net- works with textual edges (like social networks, for instance). In this context, the graph edges are associated with documents exchanged between the corresponding vertices. The textual content of the documents can provide additional information about the dynamic graph topological structure. The new model we propose is called "dynamic stochastic topic block model" (dSTBM).Graphs are mathematical structures very suitable to model interactions between objects or actors of interest. Several real networks such as communication networks, financial transaction networks, mobile telephone networks and social networks (Facebook, Linkedin, etc.) can be modelled via graphs. When observing a network, the time variable comes into play in two different ways: we can study the time dates at which the interactions occur and/or the interaction time spans. This thesis only focuses on the first time dimension and each interaction is assumed to be instantaneous, for simplicity. Hence, the network evolution is given by the interaction time dates only. In this framework, graphs can be used in two different ways to model networks. Discrete time […] Continuous time […]. In this thesis both these perspectives are adopted, alternatively. We consider new unsupervised methods to cluster the vertices of a graph into groups of homogeneous connection profiles. In this manuscript, the node groups are assumed to be time invariant to avoid possible identifiability issues. Moreover, the approaches that we propose aim to detect structural changes in the way the node clusters interact with each other. The building block of this thesis is the stochastic block model (SBM), a probabilistic approach initially used in social sciences. The standard SBM assumes that the nodes of a graph belong to hidden (disjoint) clusters and that the probability of observing an edge between two nodes only depends on their clusters. Since no further assumption is made on the connection probabilities, SBM is a very flexible model able to detect different network topologies (hubs, stars, communities, etc.).
62

Algorithmes et Bornes minimales pour la Synchronisation Temporelle à Haute Performance : Application à l’internet des objets corporels / Algorithms and minimum bounds for high performance time synchronization : Application to the wearable Internet of Things

Nasr, Imen 23 January 2017 (has links)
La synchronisation temporelle est la première opération effectuée par le démodulateur. Elle permet d'assurer que les échantillons transmis aux processus de démodulation puissent réaliser un taux d'erreurs binaires le plus faible.Dans cette thèse, nous proposons l'étude d'algorithmes innovants de synchronisation temporelle à haute performance.D'abord, nous avons proposé des algorithmes exploitant l'information souple du décodeur en plus du signal reçu afin d'améliorer l'estimation aveugle d'un retard temporel supposé constant sur la durée d'observation.Ensuite, nous avons proposé un algorithme original basé sur la synchronisation par lissage à faible complexité.Cette étape a consisté à proposer une technique opérant dans un contexte hors ligne, permettant l'estimation d'un retard aléatoire variable dans le temps via les boucles d'aller-retour sur plusieurs itération. Les performances d'un tel estimateur dépassent celles des algorithmes traditionnels.Afin d'évaluer la pertinence de tous les estimateurs proposés, pour des retards déterministe et aléatoire, nous avons évalué et comparé leurs performances à des bornes de Cramèr-Rao que nous avons développées pour ce cadre. Enfin, nous avons évalué les algorithmes proposés sur des signaux WBAN. / Time synchronization is the first function performed by the demodulator. It ensures that the samples transmitted to the demodulation processes allow to achieve the lowest bit error rate.In this thesis we propose the study of innovative algorithms for high performance time synchronization.First, we propose algorithms exploiting the soft information from the decoder in addition to the received signal to improve the blind estimation of the time delay. Next, we develop an original algorithm based on low complexity smoothing synchronization techniques. This step consisted in proposing a technique operating in an off-line context, making it possible to estimate a random delay that varies over time on several iterations via Forward- Backward loops. The performance of such estimators exceeds that of traditional algorithms. In order to evaluate the relevance of all the proposed estimators, for deterministic and random delays, we evaluated and compared their performance to Cramer-Rao bounds that we developed within these frameworks. We, finally, evaluated the proposed algorithms on WBAN signals.
63

Modélisation statistique d'événements récurrents. Exploration empirique des estimateurs, prise en compte d'une covariable temporelle et application aux défaillances des réseaux d'eau / Statistical modeling of recurrent events. Empirical assessment of estimators’ properties, accounting for time-dependent covariate and application to failures of water networks

Babykina, Evgénia 08 December 2010 (has links)
Dans le contexte de la modélisation aléatoire des événements récurrents, un modèle statistique particulier est exploré. Ce modèle est fondé sur la théorie des processus de comptage et est construit dans le cadre d'analyse de défaillances dans les réseaux d'eau. Dans ce domaine nous disposons de données sur de nombreux systèmes observés durant une certaine période de temps. Les systèmes étant posés à des instants différents, leur âge est utilisé en tant qu'échelle temporelle dans la modélisation. Le modèle tient compte de l'historique incomplet d'événements, du vieillissement des systèmes, de l'impact négatif des défaillances précédentes sur l'état des systèmes et des covariables. Le modèle est positionné parmi d'autres approches visant à l'analyse d'événements récurrents utilisées en biostatistique et en fiabilité. Les paramètres du modèle sont estimés par la méthode du Maximum de Vraisemblance (MV). Une covariable dépendante du temps est intégrée au modèle. Il est supposé qu'elle est extérieure au processus de défaillance et constante par morceaux. Des méthodes heuristiques sont proposées afin de tenir compte de cette covariable lorsqu'elle n'est pas observée. Des méthodes de simulation de données artificielles et des estimations en présence de la covariable temporelle sont proposées. Les propriétés de l'estimateur (la normalité, le biais, la variance) sont étudiées empiriquement par la méthode de Monte Carlo. L'accent est mis sur la présence de deux directions asymptotiques : asymptotique en nombre de systèmes n et asymptotique en durée d'observation T. Le comportement asymptotique de l'estimateur MV constaté empiriquement est conforme aux résultats théoriques classiques. Il s'agit de l'asymptotique en n. Le comportement T-asymptotique constaté empiriquement n'est pas classique. L'analyse montre également que les deux directions asymptotiques n et T peuvent être combinées en une unique direction : le nombre d'événements observés. Cela concerne les paramètres classiques du modèle (les coefficients associés aux covariables fixes et le paramètre caractérisant le vieillissement des systèmes). Ce n'est en revanche pas le cas pour le coefficient associé à la covariable temporelle et pour le paramètre caractérisant l'impact négatif des défaillances précédentes sur le comportement futur du système. La méthodologie développée est appliquée à l'analyse des défaillances des réseaux d'eau. L'influence des variations climatiques sur l'intensité de défaillance est prise en compte par une covariable dépendante du temps. Les résultats montrent globalement une amélioration des prédictions du comportement futur du processus lorsque la covariable temporelle est incluse dans le modèle. / In the context of stochastic modeling of recurrent events, a particular model is explored. This model is based on the counting process theory and is built to analyze failures in water distribution networks. In this domain the data on a large number of systems observed during a certain time period are available. Since the systems are installed at different dates, their age is used as a time scale in modeling. The model accounts for incomplete event history, aging of systems, negative impact of previous failures on the state of systems and for covariates.The model is situated among other approaches to analyze the recurrent events, used in biostatistics and in reliability. The model parameters are estimated by the Maximum Likelihood method (ML). A method to integrate a time-dependent covariate into the model is developed. The time-dependent covariate is assumed to be external to the failure process and to be piecewise constant. Heuristic methods are proposed to account for influence of this covariate when it is not observed. Methods for data simulation and for estimations in presence of the time-dependent covariate are proposed. A Monte Carlo study is carried out to empirically assess the ML estimator's properties (normality, bias, variance). The study is focused on the doubly-asymptotic nature of data: asymptotic in terms of the number of systems n and in terms of the duration of observation T. The asymptotic behavior of the ML estimator, assessed empirically agrees with the classical theoretical results for n-asymptotic behavior. The T-asymptotics appears to be less typical. It is also revealed that the two asymptotic directions, n and T can be combined into one unique direction: the number of observed events. This concerns the classical model parameters (the coefficients associated to fixed covariates, the parameter characterizing aging of systems). The presence of one unique asymptotic direction is not obvious for the time-dependent covariate coefficient and for a parameter characterizing the negative impact of previous events on the future behavior of a system.The developed methodology is applied to the analysis of failures of water networks. The influence of climatic variations on failure intensity is assessed by a time-dependent covariate. The results show a global improvement in predictions of future behavior of the process when the time-dependent covariate is included into the model.
64

Comparaison de quatre méthodes pour le traitement des données manquantes au sein d’un modèle multiniveau paramétrique visant l’estimation de l’effet d’une intervention

Paquin, Stéphane 03 1900 (has links)
Les données manquantes sont fréquentes dans les enquêtes et peuvent entraîner d’importantes erreurs d’estimation de paramètres. Ce mémoire méthodologique en sociologie porte sur l’influence des données manquantes sur l’estimation de l’effet d’un programme de prévention. Les deux premières sections exposent les possibilités de biais engendrées par les données manquantes et présentent les approches théoriques permettant de les décrire. La troisième section porte sur les méthodes de traitement des données manquantes. Les méthodes classiques sont décrites ainsi que trois méthodes récentes. La quatrième section contient une présentation de l’Enquête longitudinale et expérimentale de Montréal (ELEM) et une description des données utilisées. La cinquième expose les analyses effectuées, elle contient : la méthode d’analyse de l’effet d’une intervention à partir de données longitudinales, une description approfondie des données manquantes de l’ELEM ainsi qu’un diagnostic des schémas et du mécanisme. La sixième section contient les résultats de l’estimation de l’effet du programme selon différents postulats concernant le mécanisme des données manquantes et selon quatre méthodes : l’analyse des cas complets, le maximum de vraisemblance, la pondération et l’imputation multiple. Ils indiquent (I) que le postulat sur le type de mécanisme MAR des données manquantes semble influencer l’estimation de l’effet du programme et que (II) les estimations obtenues par différentes méthodes d’estimation mènent à des conclusions similaires sur l’effet de l’intervention. / Missing data are common in empirical research and can lead to significant errors in parameters’ estimation. This dissertation in the field of methodological sociology addresses the influence of missing data on the estimation of the impact of a prevention program. The first two sections outline the potential bias caused by missing data and present the theoretical background to describe them. The third section focuses on methods for handling missing data, conventional methods are exposed as well as three recent ones. The fourth section contains a description of the Montreal Longitudinal Experimental Study (MLES) and of the data used. The fifth section presents the analysis performed, it contains: the method for analysing the effect of an intervention from longitudinal data, a detailed description of the missing data of MLES and a diagnosis of patterns and mechanisms. The sixth section contains the results of estimating the effect of the program under different assumptions about the mechanism of missing data and by four methods: complete case analysis, maximum likelihood, weighting and multiple imputation. They indicate (I) that the assumption on the type of MAR mechanism seems to affect the estimate of the program’s impact and, (II) that the estimates obtained using different estimation methods leads to similar conclusions about the intervention’s effect.
65

Statistical potentials for evolutionary studies

Kleinman, Claudia L. 06 1900 (has links)
Les séquences protéiques naturelles sont le résultat net de l’interaction entre les mécanismes de mutation, de sélection naturelle et de dérive stochastique au cours des temps évolutifs. Les modèles probabilistes d’évolution moléculaire qui tiennent compte de ces différents facteurs ont été substantiellement améliorés au cours des dernières années. En particulier, ont été proposés des modèles incorporant explicitement la structure des protéines et les interdépendances entre sites, ainsi que les outils statistiques pour évaluer la performance de ces modèles. Toutefois, en dépit des avancées significatives dans cette direction, seules des représentations très simplifiées de la structure protéique ont été utilisées jusqu’à présent. Dans ce contexte, le sujet général de cette thèse est la modélisation de la structure tridimensionnelle des protéines, en tenant compte des limitations pratiques imposées par l’utilisation de méthodes phylogénétiques très gourmandes en temps de calcul. Dans un premier temps, une méthode statistique générale est présentée, visant à optimiser les paramètres d’un potentiel statistique (qui est une pseudo-énergie mesurant la compatibilité séquence-structure). La forme fonctionnelle du potentiel est par la suite raffinée, en augmentant le niveau de détails dans la description structurale sans alourdir les coûts computationnels. Plusieurs éléments structuraux sont explorés : interactions entre pairs de résidus, accessibilité au solvant, conformation de la chaîne principale et flexibilité. Les potentiels sont ensuite inclus dans un modèle d’évolution et leur performance est évaluée en termes d’ajustement statistique à des données réelles, et contrastée avec des modèles d’évolution standards. Finalement, le nouveau modèle structurellement contraint ainsi obtenu est utilisé pour mieux comprendre les relations entre niveau d’expression des gènes et sélection et conservation de leur séquence protéique. / Protein sequences are the net result of the interplay of mutation, natural selection and stochastic variation. Probabilistic models of molecular evolution accounting for these processes have been substantially improved over the last years. In particular, models that explicitly incorporate protein structure and site interdependencies have recently been developed, as well as statistical tools for assessing their performance. Despite major advances in this direction, only simple representations of protein structure have been used so far. In this context, the main theme of this dissertation has been the modeling of three-dimensional protein structure for evolutionary studies, taking into account the limitations imposed by computationally demanding phylogenetic methods. First, a general statistical framework for optimizing the parameters of a statistical potential (an energy-like scoring system for sequence-structure compatibility) is presented. The functional form of the potential is then refined, increasing the detail of structural description without inflating computational costs. Always at the residue-level, several structural elements are investigated: pairwise distance interactions, solvent accessibility, backbone conformation and flexibility of the residues. The potentials are then included into an evolutionary model and their performance is assessed in terms of model fit, compared to standard evolutionary models. Finally, this new structurally constrained phylogenetic model is used to better understand the selective forces behind the differences in conservation found in genes of very different expression levels.
66

Densités de copules archimédiennes hiérarchiques

Pham, David 04 1900 (has links)
Les copulas archimédiennes hiérarchiques ont récemment gagné en intérêt puisqu’elles généralisent la famille de copules archimédiennes, car elles introduisent une asymétrie partielle. Des algorithmes d’échantillonnages et des méthodes ont largement été développés pour de telles copules. Néanmoins, concernant l’estimation par maximum de vraisemblance et les tests d’adéquations, il est important d’avoir à disposition la densité de ces variables aléatoires. Ce travail remplie ce manque. Après une courte introduction aux copules et aux copules archimédiennes hiérarchiques, une équation générale sur les dérivées des noeuds et générateurs internes apparaissant dans la densité des copules archimédiennes hiérarchique. sera dérivée. Il en suit une formule tractable pour la densité des copules archimédiennes hiérarchiques. Des exemples incluant les familles archimédiennes usuelles ainsi que leur transformations sont présentés. De plus, une méthode numérique efficiente pour évaluer le logarithme des densités est présentée. / Nested Archimedean copulas recently gained interest since they generalize the well-known class of Archimedean copulas to allow for partial asymmetry. Sampling algorithms and strategies have been well investigated for nested Archimedean copulas. However, for likelihood based inference such as estimation or goodness-of-fit testing it is important to have the density. The present work fills this gap. After a short introduction on copula and nested Archimedean copulas, a general formula for the derivatives of the nodes and inner generators appearing in nested Archimedean copulas is developed. This leads to a tractable formula for the density of nested Archimedean copulas. Various examples including famous Archimedean families and transformations of such are given. Furthermore, a numerically efficient way to evaluate the log-density is presented.
67

The Double Pareto-Lognormal Distribution and its applications in actuarial science and finance

Zhang, Chuan Chuan 01 1900 (has links)
Le but de ce mémoire de maîtrise est de décrire les propriétés de la loi double Pareto-lognormale, de montrer comment on peut introduire des variables explicatives dans le modèle et de présenter son large potentiel d'applications dans le domaine de la science actuarielle et de la finance. Tout d'abord, nous donnons la définition de la loi double Pareto-lognormale et présentons certaines de ses propriétés basées sur les travaux de Reed et Jorgensen (2004). Les paramètres peuvent être estimés en utilisant la méthode des moments ou le maximum de vraisemblance. Ensuite, nous ajoutons une variable explicative à notre modèle. La procédure d'estimation des paramètres de ce mo-\\dèle est également discutée. Troisièmement, des applications numériques de notre modèle sont illustrées et quelques tests statistiques utiles sont effectués. / The purpose of this Master's thesis is to describe the double Pareto-lognormal distribution, show how the model can be extended by introducing explanatory variables in the model and present its large potential of applications in actuarial science and finance. First, we give the definition of the double Pareto-lognormal distribution and present some of its properties based on the work of Reed and Jorgensen (2004). The parameters could be estimated by using the method of moments or maximum likelihood. Next, we add an explanatory variable to our model. The procedure of estimation for this model is also discussed. Finally, some numerical applications of our model are illustrated and some useful statistical tests are conducted.
68

Caractérisation géométrique et morphométrique 3-D par analyse d'image 2-D de distributions dynamiques de particules convexes anisotropes. Application aux processus de cristallisation. / 3-D geomatrical and morphometrical characterization from 2-D images of dynamic distributions of anisotropic convex particles. Application to crystallization processes.

Presles, Benoît 09 December 2011 (has links)
La cristallisation en solution est un procédé largement utilisé dans l'industrie comme opération de séparation et de purification qui a pour but de produire des solides avec des propriétés spécifiques. Les propriétés concernant la taille et la forme ont un impact considérable sur la qualité finale des produits. Il est donc primordial de pouvoir déterminer la distribution granulométrique (DG) des cristaux en formation. En utilisant une caméra in situ, il est possible de visualiser en temps réel les projections 2D des particules 3D présentes dans la suspension. La projection d'un objet 3D sur un plan 2D entraîne nécessairement une perte d'informations : déterminer sa taille et sa forme à partir de ses projections 2D n’est donc pas aisé. C'est tout l'enjeu de ce travail: caractériser géométriquement et morphométriquement des objets 3D à partir de leurs projections 2D. Tout d'abord, une méthode basée sur le maximum de vraisemblance des fonctions de densité de probabilité de mesures géométriques projetées a été développée pour déterminer la taille d'objets 3D convexes. Ensuite, un descripteur de forme stéréologique basé sur les diagrammes de forme a été proposé. Il permet de caractériser la forme d'un objet 3D convexe indépendamment de sa taille et a notamment été utilisé pour déterminer les facteurs d'anisotropie des objets 3D convexes considérés. Enfin, une combinaison des deux études précédentes a permis d'estimer à la fois la taille et la forme des objets 3D convexes. Cette méthode a été validée grâce à des simulations, comparée à une méthode de la littérature et utilisée pour estimer des DGs d'oxalate d'ammonium qui ont été comparées à d’autres méthodes granulométriques. / Solution crystallization processes are widely used in the process industry as separation and purification operations and are expected to produce solids with desirable properties. The properties concerning the size and the shape are known to have a considerable impact on the final quality of products. Hence, it is of main importance to be able to determine the granulometry of the crystals (CSD) in formation. By using an in situ camera, it is possible to visualize in real time the 2D projections of the 3D particles in the suspension.The projection of a 3D object on a 2D plane necessarily involves a loss of information. Determining the size and the shape of a 3D object from its 2D projections is therefore not easy. This is the main goal of this work: to characterize geometrically and morphometrically 3D objects from their 2D projections. First of all, a method based on the maximum likelihood estimation of the probability density functions of projected geometrical measurements has been developed to estimate the size of 3D convex objects. Then, a stereological shape descriptor based on shape diagrams has been proposed. It enables to characterize the shape of a 3D convex object independently of its size and has notably been used to estimate the value of the anisotropy factors of the 3D convex objects. At last, a combination of the two previous studies has allowed to estimate both the size and the shape of the 3D convex objects. This method has been validated with simulated data, has been compared to a method from the literature and has been used to estimate size distributions of ammonium oxalate particles crystallizing in water that have been compared to other CSD methods.
69

Estimation of the Degree of Polarization in Polarimetric SAR Imagery : Principles and Applications / Traitement d’images polarimétriques SAR : application à la télédétection et à l’observation de la Terre

Shirvany, Réza 30 October 2012 (has links)
Les radars à synthèse d’ouverture (RSO) polarimétriques sont devenus incontournables dans le domaine de la télédétection, grâce à leur zone de couverture étendue, ainsi que leur capacité à acquérir des données dans n’importe quelles conditions atmosphériques de jour comme de nuit. Au cours des trois dernières décennies, plusieurs RSO polarimétriques ont été utilisés portant une variété de modes d’imagerie, tels que la polarisation unique, la polarisation double et également des modes dits pleinement polarimétriques. Grâce aux recherches récentes, d’autres modes alternatifs, tels que la polarisation hybride et compacte, ont été proposés pour les futures missions RSOs. Toutefois, un débat anime la communauté de la télédétection quant à l’utilité des modes alternatifs et quant au compromis entre la polarimétrie double et la polarimétrie totale. Cette thèse contribue à ce débat en analysant et comparant ces différents modes d’imagerie RSO dans une variété d’applications, avec un accent particulier sur la surveillance maritime (la détection des navires et de marées noires). Pour nos comparaisons, nous considérons un paramètre fondamental, appelé le degré de polarisation (DoP). Ce paramètre scalaire a été reconnu comme l’un des paramètres les plus pertinents pour caractériser les ondes électromagnétiques partiellement polarisées. A l’aide d’une analyse statistique détaillée sur les images polarimétriques RSO, nous proposons des estimateurs efficaces du DoP pour les systèmes d’imagerie cohérente et incohérente. Ainsi, nous étendons la notion de DoP aux différents modes d’imagerie polarimétrique hybride et compacte. Cette étude comparative réalisée dans différents contextes d’application dégage des propriétés permettant de guider le choix parmi les différents modes polarimétriques. Les expériences sont effectuées sur les données polarimétriques provenant du satellite Canadian RADARSAT-2 et le RSO aéroporté Américain AirSAR, couvrant divers types de terrains tels que l’urbain, la végétation et l’océan. Par ailleurs nous réalisons une étude détaillée sur les potentiels du DoP pour la détection et la reconnaissance des marées noires basée sur les acquisitions récentes d’UAVSAR, couvrant la catastrophe de Deepwater Horizon dans le golfe du Mexique. / Polarimetric Synthetic Aperture Radar (SAR) systems have become highly fruitful thanks to their wide area coverage and day and night all-weather capabilities. Several polarimetric SARs have been flown over the last few decades with a variety of polarimetric SAR imaging modes; traditional ones are linear singleand dual-pol modes. More sophisticated ones are full-pol modes. Other alternative modes, such as hybrid and compact dual-pol, have also been recently proposed for future SAR missions. The discussion is vivid across the remote sensing society about both the utility of such alternative modes, and also the trade-off between dual and full polarimetry. This thesis contributes to that discussion by analyzing and comparing different polarimetric SAR modes in a variety of geoscience applications, with a particular focus on maritime monitoring and surveillance. For our comparisons, we make use of a fundamental, physically related discriminator called the Degree of Polarization (DoP). This scalar parameter has been recognized as one of the most important parameters characterizing a partially polarized electromagnetic wave. Based on a detailed statistical analysis of polarimetric SAR images, we propose efficient estimators of the DoP for both coherent and in-coherent SAR systems. We extend the DoP concept to different hybrid and compact SAR modes and compare the achieved performance with different full-pol methods. We perform a detailed study of vessel detection and oil-spill recognition, based on linear and hybrid/compact dual-pol DoP, using recent data from the Deepwater Horizon oil-spill, acquired by the National Aeronautics and Space Administration (NASA)/Jet Propulsion Laboratory (JPL) Uninhabited Aerial Vehicle Synthetic Aperture Radar (UAVSAR). Extensive experiments are also performed over various terrain types, such as urban, vegetation, and ocean, using the data acquired by the Canadian RADARSAT-2 and the NASA/JPL Airborne SAR (AirSAR) system.
70

Commerce international et économie de la science : distances, agglomération, effets de pairs et discrimination / International trade and economics of science : distances, agglomeration, peer effects and discrimination

Bosquet, Clément 03 October 2012 (has links)
Cette thèse rassemble principalement des contributions en économie de la science à laquelle les deux premières parties sont consacrées. La première teste l'importance des choix méthodologiques dans la mesure de la production scientifique et étudie les canaux de diffusion de la connaissance. La deuxième s'intéresse aux déterminants individuels et locaux de la productivité des chercheurs et au différentiel de promotion entre hommes et femmes sur le marché du travail académique. Sont établis les résultats suivants : les choix méthodologiques dans la mesure de la production scientifique n'affectent que très peu les classements des institutions de recherche. Les citations et les poids associés à la qualité des journaux mesurent globalement la même productivité de la recherche. La localisation des chercheurs a un impact sur leur productivité dans la mesure où certaines universités génèrent davantage d'externalités que d'autres. Ces externalités sont plus importantes là où les chercheurs sont homogènes en terme de performances, où la diversité thématique est grande, et dans une moindre mesure dans les grands centres de recherche, lorsqu'il y a plus de femmes, de chercheurs âgés, de stars et là où les chercheurs sont connectés à des co-auteurs à l'étranger. Si les femmes sont moins souvent Professeur des Universités (par opposition à Maître de Conférences) que les hommes, ce n'est ni parce qu'elles sont discriminées dans le processus de promotion, ni que le coût de promotion (mobilité) est plus important pour elles, ni qu'elles ont des préférences différentes concernant le salaire et le prestige des institutions dans lesquelles elles travaillent. / The core of this thesis lies in the field of economics of science to which the two first parts are devoted. The first part questions the impact of methodological choices in the measurement of research productivity and studies the channels of knowledge diffusion. The second part studies the impact on individual publication records of both individual and departments' characteristics and analyse the gender gap in occupations on the academic labour market. The main results are the following: methodological choices in the measurement of research productivity do not impact the estimated hierarchy of research institutions. Citations and journal quality weights measure the same dimension of publication productivity. Location matters in the academic research activity: some departments generate more externalities than others. Externalities are higher where academics are homogeneous in terms of publication performance and have diverse research fields, and, to a lower extent, if the department is large, with more women, older academics, stars and co-authors connection to foreign departments. If women are less likely to be full Professor (with respect to Assistant Professor) than men, this is neither because they are discriminated against in the promotion process, neither because the promotion cost (mobility) is higher for them, nor because they have different preferences for salaries versus department prestige. A possible, but not tested, explanation is that women self-select themselves by participating less in or exerting lower effort during the promotion process.

Page generated in 0.0582 seconds