• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 96
  • 75
  • 30
  • 9
  • 8
  • 6
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • Tagged with
  • 269
  • 47
  • 34
  • 32
  • 24
  • 24
  • 22
  • 22
  • 22
  • 20
  • 20
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Régression logistique bayésienne : comparaison de densités a priori

Deschênes, Alexandre 07 1900 (has links)
La régression logistique est un modèle de régression linéaire généralisée (GLM) utilisé pour des variables à expliquer binaires. Le modèle cherche à estimer la probabilité de succès de cette variable par la linéarisation de variables explicatives. Lorsque l’objectif est d’estimer le plus précisément l’impact de différents incitatifs d’une campagne marketing (coefficients de la régression logistique), l’identification de la méthode d’estimation la plus précise est recherchée. Nous comparons, avec la méthode MCMC d’échantillonnage par tranche, différentes densités a priori spécifiées selon différents types de densités, paramètres de centralité et paramètres d’échelle. Ces comparaisons sont appliquées sur des échantillons de différentes tailles et générées par différentes probabilités de succès. L’estimateur du maximum de vraisemblance, la méthode de Gelman et celle de Genkin viennent compléter le comparatif. Nos résultats démontrent que trois méthodes d’estimations obtiennent des estimations qui sont globalement plus précises pour les coefficients de la régression logistique : la méthode MCMC d’échantillonnage par tranche avec une densité a priori normale centrée en 0 de variance 3,125, la méthode MCMC d’échantillonnage par tranche avec une densité Student à 3 degrés de liberté aussi centrée en 0 de variance 3,125 ainsi que la méthode de Gelman avec une densité Cauchy centrée en 0 de paramètre d’échelle 2,5. / Logistic regression is a model of generalized linear regression (GLM) used to explain binary variables. The model seeks to estimate the probability of success of this variable by the linearization of explanatory variables. When the goal is to estimate more accurately the impact of various incentives from a marketing campaign (coefficients of the logistic regression), the identification of the choice of the optimum prior density is sought. In our simulations, using the MCMC method of slice sampling, we compare different prior densities specified by different types of density, location and scale parameters. These comparisons are applied to samples of different sizes generated with different probabilities of success. The maximum likelihood estimate, Gelman’s method and Genkin’s method complement the comparative. Our simulations demonstrate that the MCMC method with a normal prior density centered at 0 with variance of 3,125, the MCMC method with a Student prior density with 3 degrees of freedom centered at 0 with variance of 3,125 and Gelman’s method with a Cauchy density centered at 0 with scale parameter of 2,5 get estimates that are globally the most accurate of the coefficients of the logistic regression.
112

Estimation Bayésienne de l’abondance par "removal sampling" en présence de variabilité du taux d’échantillonnage : application aux tiques Ixodes ricinus en quête d’hôtes / Bayesian estimation of abundance based on removal sampling with variability of the sampling rate : case study of questing Ixodes ricinus ticks

Bord, Séverine 17 June 2014 (has links)
L'estimation des abondances de population est essentielle pour comprendre les dynamiques de population, les interactions entre espèces et estimer les risques de transmission d'agents pathogènes dans les populations. Plusieurs méthodes d'échantillonnages, basées sur des hypothèses spécifiques permettent d'estimer ces abondances : les méthodes par comptages uniques, par « distance sampling », par échantillonnages successifs ou par capture marquage recapture. Nous nous sommes intéressés à l'abondance des tiques Ixodes ricinus, vecteurs de nombreux agents pathogènes. Cette abondance est classiquement estimée par le nombre de tiques capturées lors d'échantillonnages uniques réalisés sur différentes unités d'observation. Cependant, de nombreuses études remettent en cause cette hypothèse forte et suggèrent que le taux d'échantillonnage est variable selon les conditions d'échantillonnage (type de végétation,…) mais ne prennent pas en compte ce taux d'échantillonnage pour autant. A partir d'une méthode d'échantillonnage par « removal sampling » (RS), (i) nous avons montré que les conditions environnementales influençaient le taux d'échantillonnage et l'indicateur d'abondance usuel i.e. le nombre de tiques capturées lors d'un seul échantillonnage (ii) nous avons proposé une méthode pour détecter l'indicateur d'abondance, basés sur le nombre cumulé de capture, le moins soumis aux variations du taux ; (iii) par une approche Bayésienne hiérarchique, nous avons estimé simultanément l'abondance de tiques des unités d'observation et la valeur du taux d'échantillonnage en fonction du type de végétation et de l'heure d'échantillonnage. Nous avons montré que le taux d'échantillonnage sur des arbustes (entre 33,9 % et 47,4%) était significativement inférieur au taux d'échantillonnage sur des feuilles mortes (entre 53,6 % et 66,7%). De plus, nous avons montré que le modèle RS tend vers un modèle de Poisson iid lorsque la taille de la population N0 tend vers l'infini ce qui pose des problèmes d'indétermination pour estimer les paramètres N0 et τ, le taux d'échantillonnage. Nous avons également montré que (i) les estimateurs Bayésiens divergent lorsque les lois a priori sont des lois vagues ; (ii) les lois a priori β(a, b) avec a > 2 sur τ conduisaient à des estimateurs Bayésien convergents. Enfin, nous avons proposé des recommandations quant au choix des lois a priori pour τ afin d'obtenir de bonnes estimations pour N0 ou pour τ. Nous discutons de la pertinence des méthodes RS pour les tiques et des perspectives envisageables pour (i) estimer le risque acarologique représenté par la population de tiques potentiellement actives sur une unité d'observation, (ii) estimer un risque à l'échelle d'une parcelle, à savoir comment répartir l'effort d'échantillonnage entre le nombre d'unités d'observation et le nombre d'échantillonnages successifs par unités d'observation. / The estimation of animal abundance is essential to understand population dynamics, species interactions and disease patterns in populations and to estimate the risk of pathogens transmission. Several sampling methods such as single counts, distance sampling, removal sampling or capture mark recapture could be used to estimate abundance. In this study, we are investigated the abundance of Ixodes ricinus ticks, which are involved in the transmission of many pathogens. Tick abundance is commonly estimated by the number of nymphs captured during a single observation (a cloth dragged on a given surface). In this case, analyses of abundance patterns assumes that the probability of detecting a tick, hence the sampling rate, remains constant across the observations. In practice, however, this assumption is often not satisfied as the sampling rate may fluctuate between observation plots. The variation of sampling rate is never taken into account in estimations of tick abundance. Using a removal sampling design (RS), (i) we showed that the sampling rate and the usual abundance indicator (based on a single drag observation per spot) were both influenced by environmental conditions ; (ii) we proposed a method to determine the abundance indicator the least influenced by sampling rate variations ; (iii) using a hierarchical Bayesian model, we estimated simultaneously the abundance and the sampling rate according the type of vegetation, and the time of sampling. The sampling rate varied between 33,9 % and 47,4 % for shrubs and 53,6 % and 66,7 % for dead leaves. In addition, we show that the RS model tends to Poisson iid model when the population size N0 tends to infinite. This result conduct to infinite estimations for N0. We show that (i) Bayesian estimators were divergent for vague prior ; (ii) β(a, b) prior for a > 2 on τ conduct to convergent estimators. Then, we proposed recommendations for prior choice for τ parameter to give good estimations of N0 or τ. We discuss the relevance of RS for ticks and the possible perspectives to (i) estimate the acarologic risk associated to all potential active ticks for given spot, (ii) estimate the risk at the larger scale, i.e. how to distribute the sampling effort between number of spot and number of consecutive sampling by spot.
113

Towards scalable, multi-view urban modeling using structure priors / Vers une modélisation urbaine 3D extensible intégrant des à priori de structure géométrique

Bourki, Amine 21 December 2017 (has links)
Nous étudions dans cette thèse le problème de reconstruction 3D multi-vue à partir d’une séquence d’images au sol acquises dans des environnements urbains ainsi que la prise en compte d’a priori permettant la préservation de la structure sous-jacente de la géométrie 3D observée, ainsi que le passage à l’échelle de tels processus de reconstruction qui est intrinsèquement délicat dans le contexte de l’imagerie urbaine. Bien que ces deux axes aient été traités de manière extensive dans la littérature, les méthodes de reconstruction 3D structurée souffrent d’une complexité en temps de calculs restreignant significativement leur intérêt. D’autre part, les approches de reconstruction 3D large échelle produisent généralement une géométrie simplifiée, perdant ainsi des éléments de structures qui sont importants dans le contexte urbain. L’objectif de cette thèse est de concilier les avantages des approches de reconstruction 3D structurée à celles des méthodes rapides produisant une géométrie simplifiée. Pour ce faire, nous présentons “Patchwork Stereo”, un framework qui combine stéréoscopie photométrique utilisant une poignée d’images issues de points de vue éloignés, et un nuage de point épars. Notre méthode intègre une analyse simultanée 2D-3D réalisant une extraction robuste de plans 3D ainsi qu’une segmentation d’images top-down structurée et repose sur une optimisation par champs de Markov aléatoires. Les contributions présentées sont évaluées via des expériences quantitatives et qualitatives sur des données d’imagerie urbaine complexes illustrant des performances tant quant à la fidélité structurelle des reconstructions 3D que du passage à l’échelle / In this thesis, we address the problem of 3D reconstruction from a sequence of calibrated street-level photographs with a simultaneous focus on scalability and the use of structure priors in Multi-View Stereo (MVS).While both aspects have been studied broadly, existing scalable MVS approaches do not handle well the ubiquitous structural regularities, yet simple, of man-made environments. On the other hand, structure-aware 3D reconstruction methods are slow and scale poorly with the size of the input sequences and/or may even require additional restrictive information. The goal of this thesis is to reconcile scalability and structure awareness within common MVS grounds using soft, generic priors which encourage : (i) piecewise planarity, (ii) alignment of objects boundaries with image gradients and (iii) with vanishing directions (VDs), and (iv) objects co-planarity. To do so, we present the novel “Patchwork Stereo” framework which integrates photometric stereo from a handful of wide-baseline views and a sparse 3D point cloud combining robust 3D plane extraction and top-down image partitioning from a unified 2D-3D analysis in a principled Markov Random Field energy minimization. We evaluate our contributions quantitatively and qualitatively on challenging urban datasets and illustrate results which are at least on par with state-of-the-art methods in terms of geometric structure, but achieved in several orders of magnitude faster paving the way for photo-realistic city-scale modeling
114

Inverse Problems in Propagation-based X-ray Phase Contrast Imaging and Tomography: Stability Analysis and Reconstruction Methods

Maretzke, Simon 04 March 2019 (has links)
No description available.
115

Evaluation a priori des impacts et performances d'actions proposées dans le cadre de la démarche de responsabilité sociétale d'une entreprise de distribution / Impact and performance assessment of actions proposed by a retailer in the frame of its Corporate Social Responsability Approach

Dumoulinneuf, Sandrine 27 January 2014 (has links)
Le développement et l'internationalisation des entreprises de distribution dont le succès repose sur des techniques de vente en masse à bas coûts se sont accompagnés d’une prise de conscience des conséquences sociales et environnementales de ces activités. Parallèlement, l'émergence du concept de responsabilité sociétale incite les entreprises à contribuer aux objectifs de développement durable de la société. Ainsi, des démarches de responsabilité sociétale (RSE) sont mises en œuvre par un nombre croissant d'entreprises, et notamment par les distributeurs, pour intégrer ces enjeux dans leur business model.Mais comment évaluer la pertinence des actions mises en oeuvre au regard des enjeux RSE des distributeurs ? Comment évaluer leur contribution aux objectifs RSE de l’organisation ? Comment évaluer celles visant à réduire un impact environnemental ciblé mais générant d’autres impacts sociaux et environnementaux, positifs comme négatifs ? Comment tenir compte de la multitude de parties prenantes, d’enjeux, parfois difficilement quantifiables, empreint d'incertitude et évolutifs dans le temps ? Malgré le foisonnement des méthodes existantes, celles-ci ne permettent pas, à notre connaissance, d’identifier et d’évaluer ces enjeux de manière satisfaisante.Menés au sein de la direction Environnement d’une entreprise multinationale de distribution, ces travaux proposent une méthode d’évaluation des impacts RSE d'actions, selon une approche a priori, qualitative et quantitative, structurée autour des domaines d’actions ISO 26 000. Afin d'identifier les limites et les apports de cette approche, celle-ci a été testée sur des actions de remplacement d’installations frigorifiques. / The development and internationalization of retailers whose success is based on new sales techniques on a mass scale at low prices were accompanied by an awareness of the social and environmental impacts of these activities. Meanwhile, the emergence of the concept of corporate social responsibility encourages companies to contribute to sustainable development goals. Thus, corporate social responsibility (CSR) approaches are implemented by a growing number of companies, including retailers, to integrate these issues into their business model.But how to evaluate the relevance of the actions against retailers' CSR issues? How to assess their contribution to companies' CSR goals? How to assess the multiple potential positive and negative effects of actions that are initially proposed to reduce one specific environmental impact? How to account for the multitude of stakeholders and issues, sometimes difficult to quantify, subject to uncertainty and changing over time? Despite the numerous existing methods, they do not adequately enable the identification and the assessment of these issues.Conducted within the Environment Department of a multinational retailer, this work tries to overcome these limitations by providing a methodological approach for a prior assessment of social and environmental impacts of actions both qualitatively and quantitatively on the basis of issues listed in the ISO 26000 standard. To identify the limitations and benefits of this approach, it was tested on actions aimed at remplacing commercial refrigeration equipments.
116

Estimação de parâmetros de populações de plantas daninhas usando inferência Bayesiana / Estimation of the parameters of weeds population using Bayesian inference

Lopes, Marcel Rodrigues 20 April 2007 (has links)
O banco de sementes de plantas daninhas pode vir a ser um sério problema para a atividade agrícola por manter infestações por longos períodos. A dinâmica da população de plantas daninhas pode ser representada por modelos matemáticos que relaciona as densidades de sementes produzidas e de plântulas em áreas de cultivo. Os valores dos parâmetros dos modelos podem ser inferidos diretamente de experimentação e análise estatística. O presente trabalho tem por objetivo estimar parâmetros de populações das plantas daninhas anuais denominadas Digitaria ciliares, Panicum maximum e Euphorbia heterophylla e avaliar um modelo espacial com 2 e 3 parâmetros, a partir de um experimento conduzido em cultura de Zea mays (milho) usando inferência Bayesiana. / The seeds bank of weed could be a serious problem to the agricultural activity because it maintains infestations for long periods. The dynamics of weed populations can be described by mathematical models that relates the produced seeds and seedlings densities in areas of crop. The values of the parameters of the models can be inferred from experimentation and statistics analysis. The objective of this work is to estimate parameters of anual weed populations denoted Digitaria ciliares, Panicum maximum e Euphorbia heterophylla and evaluate a spatial model with 2 and 3 parameters from experimental data of Zea mays (corn) fields using Bayesian inference.
117

Multi-Label Latent Spaces with Semi-Supervised Deep Generative Models

Rastgoufard, Rastin 18 May 2018 (has links)
Expert labeling, tagging, and assessment are far more costly than the processes of collecting raw data. Generative modeling is a very powerful tool to tackle this real-world problem. It is shown here how these models can be used to allow for semi-supervised learning that performs very well in label-deficient conditions. The foundation for the work in this dissertation is built upon visualizing generative models' latent spaces to gain deeper understanding of data, analyze faults, and propose solutions. A number of novel ideas and approaches are presented to improve single-label classification. This dissertation's main focus is on extending semi-supervised Deep Generative Models for solving the multi-label problem by proposing unique mathematical and programming concepts and organization. In all naive mixtures, using multiple labels is detrimental and causes each label's predictions to be worse than models that utilize only a single label. Examining latent spaces reveals that in many cases, large regions in the models generate meaningless results. Enforcing a priori independence is essential, and only when applied can multi-label models outperform the best single-label models. Finally, a novel learning technique called open-book learning is described that is capable of surpassing the state-of-the-art classification performance of generative models for multi-labeled, semi-supervised data sets.
118

SOLUTIONS ENTIÈRES D'ÉQUATIONS HESSIENNES

Hossein, Mouhamad 12 May 2009 (has links) (PDF)
On étudie dans cette thèse l'existence et l'unicité de solutions entières, dans des espaces de Hölder à poids appropriés, d'équations hessiennes elliptiques dans Rn et Cn, invariantes par rotation.
119

Machines à Vecteurs de Support et Identification de Systèmes Hybrides

Lauer, Fabien 01 October 2008 (has links) (PDF)
La thèse s'intéresse à trois problèmes de modélisation non-linéaire : la classification (ou reconnaissance de formes), la régression (ou approximation de fonctions) et l'identification de systèmes hybrides. Parmi les approches existantes dans la littérature, les machines à vecteurs de support (Support Vector Machines, SVMs) fournissent un cadre général pour la classification et la régression non-linéaires. Ces méthodes récentes, issues de la théorie de l'apprentissage statistique, permettent d'obtenir des modèles boîtes noires, conduisant à de bonnes performances en généralisation, par optimisation convexe. L'étude se concentre dans un premier temps sur l'évolution de ces modèles vers des modèles de type boîte grise, permettant de bénéficier à la fois de la capacité d'approximation universelle des modèles boîtes noires et de connaissances disponibles a priori. Dans ce cadre, la thèse propose une approche générale, permettant d'inclure un grand nombre de connaissances diverses dans l'apprentissage SVM pour la régression, tout en conservant un apprentissage par optimisation convexe. La dernière partie de la thèse propose ensuite d'étendre les SVMs à l'identification de systèmes hybrides (systèmes commutant entre plusieurs modes de fonctionnement). Dans ce contexte, les problèmes de classification et de régression sont liés de manière indissociable. Une méthode basée sur l'optimisation non-convexe est proposée pour résoudre simultanément ces problèmes. Celle-ci permet notamment d'identifier des systèmes hybrides possédant des non-linéarités arbitraires et inconnues.
120

Un système dynamique d'ordre réduit basé sur une approche APR-POD pour l'étude de l'interaction écoulement turbulent-particules

Verdon, Nicolas 19 December 2007 (has links) (PDF)
Motivé par l'étude numérique de la dispersion de particules dans un écoulement turbulent, ce travail présente l'application et le développement de méthodes de réduction de modèles couplées à un système dynamique d'ordre bas pour les équations de Navier-Stokes. Ainsi, la première méthode appliquée est la décomposition orthogonale aux valeurs propres (POD). Couplée à un système dynamique d'ordre faible obtenu par projection de Galerkin des équations de Navier-Stokes sur la base POD, cette méthode montre son efficacité en terme de temps de simulation pour le calcul de la dispersion de particules. Cependant, la POD nécessite au préalable un échantillonage temporel de l'écoulement, ce qui est handicapant. Afin de palier ce problème, l'alternative envisagée dans ce travail est l'utilisation d'une méthode de réduction \emph{a priori}, l'APR, basée sur la construction itérative d'une base de l'écoulement.<br />La méthode APR est d'abord testée dans des cas modèles simples : l'équation de convection-diffusion 2D et les équations de Burgers 1D et 2D. Comparée aux méthodes de résolution classique, l'APR permet de diminuer fortement les temps de calcul tout en conservant une précision du même ordre de grandeur.<br />Les équations de Navier-Stokes sont ensuite résolues à l'aide d'un code volumes finis 2D, utilisant un découplage vitesse-pression de type Van Kahn. Un algorithme de réduction a priori adapté à l'algorithme de projection est alors présenté et appliqué pour le cas de la cavité entraînée 2D à Re=10000. Les résultats obtenus sur un court intervalle de temps sont assez encourageants. Enfin, une démarche d'avancement temporel basée sur le couplage d'APR et de systèmes dynamiques est présentée.

Page generated in 0.0559 seconds