• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 9
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 21
  • 21
  • 13
  • 12
  • 6
  • 6
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Approche calculatoire pour la déconvolution en aveugle : application à l'imagerie SIMS / A computational approach for blind deconvolution : application to SIMS images

Letierce, François 20 December 2007 (has links)
La Spectroscopie de Masse d'Ions Secondaires (SIMS) permet d'obtenir des images de distributions d'atomes à la surface d'un échantillon. La réponse impulsionnelle (RI) de l'instrument est inconnue. La déconvolution en aveugle a pour but d'enlever le flou associé. Ce problème mal conditionné est résolu en contraignant sa solution (régularisation). Le degré optimum de régularisation dépend d'un paramètre à déterminer. Il est trouvé, ainsi que ceux de la RI, par la méthode de validation croisée généralisée. Une étape de calibrage restreint l'espace de recherche des paramètres de la RI et les calculs sont accélérés en exploitant le modèle gaussien. L'image est déconvoluée en résolvant un grand système linéaire par la méthode du gradient conjugué. Un préconditionnement exploitant la séparabilité de la RI (isotrope ou anisotrope) en accélère la convergence. On montre comment utiliser plusieurs images d'un échantillon pour avoir une résolution plus fine (super-résolution). / Secondary Ion Mass Spectrometry (SIMS) creates images of atomic distributions on a sample's surface. The point spread function (PSF) is unknown. Blind deconvolution is used to remove the associated blur. This ill-conditionned problem is solved by constraining its solution (regularization). The optimum degree of regularization depends on a parameter to be determined. This parameter is found, as well as those of the PSF, by the generalized cross validation method. A calibration phase reduces the search space for the PSF parameters. The gaussian model used for the PSF is exploited to accelerate the computations. The image is deconvolved by solving a large linear system with the conjugate gradient method. A preconditionner making use of the PSF separability (isotropic or anisotropic) speeds up convergence.
2

投資人之從眾行為與股市崩盤之關係研究

陳執中 Unknown Date (has links)
近年來的股市崩盤,使得不少投資人的財富大為縮水,甚至畢生積蓄付之一炬。如果能夠建立一個初步的崩盤警示指標,便可使投資錯誤帶來的傷害降到最低。研究中使用CARA-Gaussian model為模型基礎,此原始模型對於市場上投資人收到訊息後的影響以及市場上訊息傳達的過程,做了良好的解釋。我們將投資人依收到的訊息不同分為(1)擁有私有訊息的投資者、(2)無私有訊息的投資者、(3)追漲殺跌的投資者、(4)雜訊投資者,並求出其需求函數。在代入實際資料後發現,追漲殺跌的投資者為股市崩盤的主要原因,他們的存在會影響整體投資人需求曲線的形狀。當市場上持續收到強大的負面訊息時,有可能會引起股價大幅度的滑落。 本研究挑選了1990年台灣泡沫經濟、1997年東南亞金融危機以及2000年總統大選這三段時期進行分析。在重大的金融危機事件中,我們雖然無法預測股市反轉前的最高點,但能夠在股價指數開始下滑後,檢視接下來是否有可能造成崩盤的危機。研究中受到最主要限制為如何確定各訊息對於市場的影響程度,以及公開訊息與私有訊息的分辨。如果能夠突破此一限制,此模型或許能夠更進一步預測投資人收到訊息後的股價變動。
3

Modélisation multi échelles de l'impact du trafic routier sur la qualité de l'air / Multi scale modeling of roadway traffic impact on air quality

Briant, Régis 16 November 2012 (has links)
Le trafic routier contribue à la pollution atmosphérique aussi bien à proximité des voies avec des polluants tels que le dioxyde d'azote (NO2), les particules (PM) et certains composés organiques volatils (COV) qu'à des échelles spatiales plus grandes (pollution de fond urbaine et régionale) avec des polluants formés dans l'atmosphère tels que l'ozone (O3) et la fraction secondaire des particules. Étant donné les interactions entre pollution de proximité et pollution de fond, il est souhaitable de combiner en un seul outil de calcul des modèles à échelles locale et régionale. Cette méthode de modélisation multi-échelles a été largement utilisée pour simuler l'impact des émissions de cheminées (sources ponctuelles) avec des modèles de panache traités en sous-maille d'un modèle eulérien tri-dimensionnel. Cependant, une telle méthode n'est pas applicable à un réseau routier en raison des temps de calcul prohibitifs associés à la discrétisation d'une source linéique en un ensemble de sources ponctuelles. Par conséquent, une nouvelle méthode de modélisation multi-échelles a été développée, qui traite les panaches émis par des sources linéiques en sous-maille d'un modèle eulérien. Tout d'abord, une formulation améliorée d'un modèle gaussien de panache linéique a été développée. Ce nouveau modèle à ensuite fait l'objet d'une évaluation détaillée avec des mesures en proximité de routes ainsi qu'avec d'autres modèles gaussiens. La combinaison de ce modèle gaussien et d'un modèle eulérien (Polair3D) a été implémentée dans la plate-forme de modélisation Polyphemus. Les performances (temps de calcul et précision) du nouveau modèle de panache en sous-maille ont été évaluées et comparées aux performances des modèles gaussien et eulérien seuls. Ce modèle multi-échelles traite la chimie des oxydes d'azote (NOx) et des principaux COV. Le traitement multi-échelles a un effet important sur les concentrations de certains polluants en termes de pollutions de proximité et de fond urbain / Roadway traffic contributes to atmospheric pollution near roads, with pollutants such as nitrogen dioxide (NO2), particles (PM) along with some volatile organic compounds (VOC), as well as at larger spatial scales (urban and regional background pollution) with pollutants formed in the atmosphere such as ozone (O3) and the secondary fraction of PM. Because of interactions between local and background pollutants, it is desirable to combine into a single computational tool, regional and local scale models. This multi-scale modeling method has been widely used to simulate the impact of chimney emissions (point sources) with a sub-grid treatment of plume or puff models instead within a 3-dimensional Eulerian model. However, such a method is not applicable to a road network because of the prohibitive computations associated with the line source discretization into a set of point sources. Thus, a new multi-scale modeling method was developed, which treats the plumes emitted from line sources as sub-grid components of an Eulerian model. First, an improved formulation of a Gaussian plume model for line sources was developed. This new model was then subject to a detailed evaluation with near roadway measurements along with other Gaussian models. The incorporation of the Gaussian plume model into an Eulerian model (Polair3D) was implemented as part of the modeling platform Polyphemus. The performance (computational effectiveness and precision) of the new multi-scale model (Plume-in-Grid) was evaluated and compared to those of a stand-alone Gaussian and Eulerian models. The multi-scale model treats nitrogen oxide (NOx) chemistry along with major VOC. The multi-scale treatment has an important effect on the concentration of some pollutants in terms of local and urban background pollution
4

Méthodes stochastiques pour la modélisation d'incertitudes sur les maillages non structurés / Stochastic methods for modeling uncertainties on unstructured grids

Zaytsev, Victor 12 September 2016 (has links)
La simulation des phénomènes physiques exige souvent l’utilisation d’une discrétisation du milieu sous forme de maillage. Un exemple de ce type de situation est la simulation d’écoulement de fluides et la simulation du stress géomécanique pour les gisements pétroliers. Dans ces cas, le milieu étudié n’est pas homogène et l'hypothèse sur l’homogénéité de ce milieu peut mener à des résultats incorrects. C’est pourquoi la simulation des hétérogénéités est très importante pour ce genre de problèmes.Cette thèse est consacrée à la simulation géostatistique des hétérogénéités sur les maillages non-structurés par les méthodes géostatistiques non-linéaires. Le but de cette thèse est la création d’algorithmes de simulation des hétérogénéités directement sur les maillages non-structurés, sans utiliser les maillages fins réguliers intermédiaires et de l’upscaling. On présente deux modèles théoriques pour les simulations des variables continues sur les maillages non-structurés qui sont les deux versions différentes du modèle Gaussien discret (DGM) - DGM 1 et DGM 2. Le modèle théorique utilisé dans cette thèse permet de convertir le problème de simulation sur un maillage non-structuré en un problème de simulation d’un vecteur Gaussien multivarié et l’application de fonctions de transformation adaptées pour chaque élément du vecteur. La simulation de faciès est aussi envisagée en utilisant une généralisation des modèles pluri-Gaussiens et Gaussien tronqués pour les maillages non-structurés.L’application des méthodes développées est illustrée sur un gisement pétrolier - le cas d’étude X (gisement du gaz offshore). / Simulations of physical phenomenon often require discretizing the medium with a mesh. An example of this type of simulation is the simulation of fluid flow through a porous medium and the evaluation of the geomechanical stress in the petroleum reservoir. The studied medium is often not homogeneous and applying a homogeneity hypothesis can lead to incorrect simulation results. That makes simulation of heterogeneities important for this kind of problems.This thesis is devoted to geostatistical simulations of heterogeneities on unstructured grids using methods of non-linear geostatistics. The objective of this work is the development of algorithms for simulating heterogeneities directly on unstructured grids without using intermediate fine scale regular grids and upscaling. We present two theoretical models for geostatistical simulations of continuous parameters on unstructured grids which are different generalizations of the Discrete Gaussian model (DGM) – DGM 1 and DGM 2. The proposed theoretical models enable converting the problem of geostatistical simulation on an unstructured grid into the well-studied problem of simulating multivariate Gaussian random vectors followed by application of block-dependent transformation functions. The problem of simulating facies is also addressed in this work, for which generalizations of pluri-Gaussian and truncated Gaussian simulation models for unstructured grids are proposed.An application of the proposed methods is demonstrated on a case study X, which is an offshore gas reservoir with a tartan-meshed grid.
5

Étude de la dispersion nocturne de polluants atmosphériques issus d’une décharge d’ordures ménagères. : Mise en évidence d’un îlot de chaleur urbain / Study of the nocturnal dispersion of air pollutants from an open lan : evidence of an urban heat island

Plocoste, Thomas 29 April 2013 (has links)
En 2003 des mesures au spectromètre IR à Transformée de Fourier (FTIR) ont permis d'identifier et de mesurer les COV émis par la décharge à ciel ouvert de la Gabarre, principale de l'île Guadeloupe, située entre une zone urbaine et une mangrove. Ces COV ont été retrouvés (2004) la nuit dans les cités, justifiant les plaintes des riverains. Dans le cadre de cette thèse, des mesures au spectromètre de masse portatif MS 200 ont validé ces résultats du FTIR. De nouvelles mesures au MS 200 ont été menées dans toute la zone de la décharge. Les cités concernées étant à l'opposé du flux synoptique d'Alizés-Est, les facteurs météorologiques permettant la dispersion et le transport des COV de la décharge vers la zone urbaine ont été recherchés. La diminution nocturne de l'intensité des Alizés au dessus de l'ile peut laisser place à des phénomènes locaux tels les brises. L'idée d'une brise terre-mer a été éliminée. Un maillage autou~ de la décharge (cités et mangrove) avec 8 thermomètres a révélé un îlot de chaleur urbain nocturnegénérant une brise thermique d'environ Ims- I (mesurée et calculée). Avec les radiosondages Météo France et un SODAR installé dans la décharge, une très forte stabilité dans les basses couches atmosphériques de la couche limite nocturne avec une inversion de surface d'environ 120mvv apparait. Ces facteurs expliquent la pollution des cités par les COV de la décharge, Un modèlevGaussien en tenant compte a été validé par les mesures de COV.vCette étude peut être étendue à d'autres décharges à ciel ouvert et à d'autres types de traitement de polluants de décharge. / In 2003, the VOC emissions coming from "La Gabarre", the main open landfill in Guadeloupe, located in-between an urban area and a mangrove, were identified and quantified with a portable FTIR spectrometer. In 2004, COVs found at nighttime in the urban area nearby confirmed why residents complain about. As part of this thesis, portable mass spectrometer MS 200 measurements validated these FTIR figures. New systematic SM measurements have been carried on around the landfill. Since the polluted urban area stands on the opposite way of the East Trade winds synoptic flux, aIl the weather factors likely to scatter and transport the dump COVs were scrutinized. At night, the strength of the Trade winds decreases over Guadeloupe, which may give way to local phenomena such as breezes. The occurrence of land/sea breeze was eliminated. A close surveying surrounding the landfill with 8 thermometers both in the projects and in the mangrove revealed an urban heat island causing thermal breezes of about lms-l (measured and calculated). Using soundings from Meteo France, and a SODAR inside the dump, we found a great stability of the night boundary layer with a surface inversion near 120m. Pollution of the nearby urban area with landfill COVs is elucidatcd by the above factors. A transport Gaussian model is in agreement with COV measurements. This study can be extended to different open landfills and different types of polluting matters processes in dumps
6

Réseaux de neurones profonds pour la séparation des sources et la reconnaissance robuste de la parole / Deep neural networks for source separation and noise-robust speech recognition

Aditya Arie Nugraha, . 05 December 2017 (has links)
Dans cette thèse, nous traitons le problème de la séparation de sources audio multicanale par réseaux de neurones profonds (deep neural networks, DNNs). Notre approche se base sur le cadre classique de séparation par algorithme espérance-maximisation (EM) basé sur un modèle gaussien multicanal, dans lequel les sources sont caractérisées par leurs spectres de puissance à court terme et leurs matrices de covariance spatiales. Nous explorons et optimisons l'usage des DNNs pour estimer ces paramètres spectraux et spatiaux. À partir des paramètres estimés, nous calculons un filtre de Wiener multicanal variant dans le temps pour séparer chaque source. Nous étudions en détail l'impact de plusieurs choix de conception pour les DNNs spectraux et spatiaux. Nous considérons plusieurs fonctions de coût, représentations temps-fréquence, architectures, et tailles d'ensembles d'apprentissage. Ces fonctions de coût incluent en particulier une nouvelle fonction liée à la tâche pour les DNNs spectraux: le rapport signal-à-distorsion. Nous présentons aussi une formule d'estimation pondérée des paramètres spatiaux, qui généralise la formulation EM exacte. Sur une tâche de séparation de voix chantée, nos systèmes sont remarquablement proches de la méthode de l'état de l'art actuel et améliorent le rapport source-interférence de 2 dB. Sur une tâche de rehaussement de la parole, nos systèmes surpassent la formation de voies GEV-BAN de l'état de l'art de 14%, 7% et 1% relatifs en terme d'amélioration du taux d'erreur sur les mots sur des données à 6, 4 et 2 canaux respectivement / This thesis addresses the problem of multichannel audio source separation by exploiting deep neural networks (DNNs). We build upon the classical expectation-maximization (EM) based source separation framework employing a multichannel Gaussian model, in which the sources are characterized by their power spectral densities and their source spatial covariance matrices. We explore and optimize the use of DNNs for estimating these spectral and spatial parameters. Employing the estimated source parameters, we then derive a time-varying multichannel Wiener filter for the separation of each source. We extensively study the impact of various design choices for the spectral and spatial DNNs. We consider different cost functions, time-frequency representations, architectures, and training data sizes. Those cost functions notably include a newly proposed task-oriented signal-to-distortion ratio cost function for spectral DNNs. Furthermore, we present a weighted spatial parameter estimation formula, which generalizes the corresponding exact EM formulation. On a singing-voice separation task, our systems perform remarkably close to the current state-of-the-art method and provide up to 2 dB improvement of the source-to-interference ratio. On a speech enhancement task, our systems outperforms the state-of-the-art GEV-BAN beamformer by 14%, 7%, and 1% relative word error rate improvement on 6-channel, 4-channel, and 2-channel data, respectively
7

Développement et application de méthodologies d'évaluation des expositions atmosphériques chroniques aux dioxines et au cadmium dans le cadre d'études épidémiologiques / Development and application of assessment methodologies for chronic airborne dioxin and cadmium exposures to be used in epidemiological studies

Coudon, Thomas 01 June 2018 (has links)
Un certain nombre d'études ont étudié le lien entre cancer du sein et exposition aux dioxines et au cadmium. Toutefois, les résultats de ces études ne sont pas concluants et présentent des limites méthodologiques. L'objectif principal de cette thèse était de développer un indicateur spatial permettant d'estimer les expositions atmosphériques chroniques aux dioxines et au cadmium des femmes issues de la cohorte E3N en France, entre 1990 et 2008. Nous avons créé une base de données de 2620 sources de dioxines et 2700 sources de cadmium et estimé et géolocalisé leurs émissions. L'estimation des émissions à la source et leur localisation ont servi de base pour la construction de l'indicateur spatial. Nous avons identifié une sélection de paramètres permettant d'obtenir un accord « substantiel » entre les classifications des expositions des femmes de la cohorte E3N, localisées à l'adresse de résidence, estimées avec l'indicateur, et avec le modèle gaussien SIRANE. En utilisant le modèle SIRANE, nous avons également étudié la variabilité spatio-temporelle (1990-2008) des concentrations de dioxines et de cadmium sur la métropole de Lyon. Pour la première fois des concentrations modélisées ont été comparées à des mesures de concentrations de dioxines en air ambiant. L'indicateur développé dans cette thèse a été utilisé pour estimer le risque de cancer du sein associé à l'exposition atmosphérique aux dioxines dans une étude cas-témoins niché au sein de la cohorte E3N. Il est utilisé actuellement dans une étude sur le lien entre exposition au cadmium et risque de cancer du sein, et pourra être appliqué dans de futures études portant sur d'autres polluants ou d'autres pathologies / A number of studies have examined the link between breast cancer and exposure to air pollution, including dioxins and cadmium. However, the results of these studies are inconclusive and present a number of methodological limitations. The main objective of this thesis was to develop a spatial indicator to assess chronic atmospheric exposure to dioxins and cadmium of women from the E3N cohort in France between 1990 and 2008. We first performed an inventory and created a database of 2620 dioxins and 2700 cadmium emitting sources in France between 1990 and 2008 and estimated and geolocated their annual emissions. The location of the sources and their estimated emissions were used as the basis for the construction of the indicator. Combination of additional spatial parameters, allowed us to obtain a "substantial" agreement between the dioxin and cadmium exposure classifications of the E3N subjects geolocalised at their residential address, using the estimated bythe indicator and exposures estimates derived from the Gaussian model. We also evaluated the spatial-temporal variability of dioxin and cadmium concentrations over nearly two decades in the Lyon metropolitan area, taking into account a wide variety of source types. This is the first study comparing concentrations predicted by a dispersion model to dioxin concentrations measured in ambient air. The exposure indicator was used in a case-control study within the E3N cohort to estimate the risk of breast cancer associated with atmospheric exposure to dioxins. It is currently being used in another study on cadmium exposure and breast cancer risk and may be applied in future studies on other pollutants or pathologies
8

Vers la résolution "optimale" de problèmes inverses non linéaires parcimonieux grâce à l'exploitation de variables binaires sur dictionnaires continus : applications en astrophysique / Towards an "optimal" solution for nonlinear sparse inverse problems using binary variables on continuous dictionaries : applications in Astrophysics

Boudineau, Mégane 01 February 2019 (has links)
Cette thèse s'intéresse à la résolution de problèmes inverses non linéaires exploitant un a priori de parcimonie ; plus particulièrement, des problèmes où les données se modélisent comme la combinaison linéaire d'un faible nombre de fonctions non linéaires en un paramètre dit de " localisation " (par exemple la fréquence en analyse spectrale ou le décalage temporel en déconvolution impulsionnelle). Ces problèmes se reformulent classiquement en un problème d'approximation parcimonieuse linéaire (APL) en évaluant les fonctions non linéaires sur une grille de discrétisation arbitrairement fine du paramètre de localisation, formant ainsi un " dictionnaire discret ". Cependant, une telle approche se heurte à deux difficultés majeures. D'une part, le dictionnaire provenant d'une telle discrétisation est fortement corrélé et met en échec les méthodes de résolution sous-optimales classiques comme la pénalisation L1 ou les algorithmes gloutons. D'autre part, l'estimation du paramètre de localisation, appartenant nécessairement à la grille de discrétisation, se fait de manière discrète, ce qui entraîne une erreur de modélisation. Dans ce travail nous proposons des solutions pour faire face à ces deux enjeux, d'une part via la prise en compte de la parcimonie de façon exacte en introduisant un ensemble de variables binaires, et d'autre part via la résolution " optimale " de tels problèmes sur " dictionnaire continu " permettant l'estimation continue du paramètre de localisation. Deux axes de recherches ont été suivis, et l'utilisation des algorithmes proposés est illustrée sur des problèmes de type déconvolution impulsionnelle et analyse spectrale de signaux irrégulièrement échantillonnés. Le premier axe de ce travail exploite le principe " d'interpolation de dictionnaire ", consistant en une linéarisation du dictionnaire continu pour obtenir un problème d'APL sous contraintes. L'introduction des variables binaires nous permet de reformuler ce problème sous forme de " programmation mixte en nombres entiers " (Mixed Integer Programming - MIP) et ainsi de modéliser de façon exacte la parcimonie sous la forme de la " pseudo-norme L0 ". Différents types d'interpolation de dictionnaires et de relaxation des contraintes sont étudiés afin de résoudre de façon optimale le problème grâce à des algorithmes classiques de type MIP. Le second axe se place dans le cadre probabiliste Bayésien, où les variables binaires nous permettent de modéliser la parcimonie en exploitant un modèle de type Bernoulli-Gaussien. Ce modèle est étendu (modèle BGE) pour la prise en compte de la variable de localisation continue. L'estimation des paramètres est alors effectuée à partir d'échantillons tirés avec des algorithmes de type Monte Carlo par Chaîne de Markov. Plus précisément, nous montrons que la marginalisation des amplitudes permet une accélération de l'algorithme de Gibbs dans le cas supervisé (hyperparamètres du modèle connu). De plus, nous proposons de bénéficier d'une telle marginalisation dans le cas non supervisé via une approche de type " Partially Collapsed Gibbs Sampler. " Enfin, nous avons adapté le modèle BGE et les algorithmes associés à un problème d'actualité en astrophysique : la détection d'exoplanètes par la méthode des vitesses radiales. Son efficacité sera illustrée sur des données simulées ainsi que sur des données réelles. / This thesis deals with solutions of nonlinear inverse problems using a sparsity prior; more specifically when the data can be modelled as a linear combination of a few functions, which depend non-linearly on a "location" parameter, i.e. frequencies for spectral analysis or time-delay for spike train deconvolution. These problems are generally reformulated as linear sparse approximation problems, thanks to an evaluation of the nonlinear functions at location parameters discretised on a thin grid, building a "discrete dictionary". However, such an approach has two major drawbacks. On the one hand, the discrete dictionary is highly correlated; classical sub-optimal methods such as L1- penalisation or greedy algorithms can then fail. On the other hand, the estimated location parameter, which belongs to the discretisation grid, is necessarily discrete and that leads to model errors. To deal with these issues, we propose in this work an exact sparsity model, thanks to the introduction of binary variables, and an optimal solution of the problem with a "continuous dictionary" allowing a continuous estimation of the location parameter. We focus on two research axes, which we illustrate with problems such as spike train deconvolution and spectral analysis of unevenly sampled data. The first axis focusses on the "dictionary interpolation" principle, which consists in a linearisation of the continuous dictionary in order to get a constrained linear sparse approximation problem. The introduction of binary variables allows us to reformulate this problem as a "Mixed Integer Program" (MIP) and to exactly model the sparsity thanks to the "pseudo-norm L0". We study different kinds of dictionary interpolation and constraints relaxation, in order to solve the problem optimally thanks to MIP classical algorithms. For the second axis, in a Bayesian framework, the binary variables are supposed random with a Bernoulli distribution and we model the sparsity through a Bernoulli-Gaussian prior. This model is extended to take into account continuous location parameters (BGE model). We then estimate the parameters from samples drawn using Markov chain Monte Carlo algorithms. In particular, we show that marginalising the amplitudes allows us to improve the sampling of a Gibbs algorithm in a supervised case (when the model's hyperparameters are known). In an unsupervised case, we propose to take advantage of such a marginalisation through a "Partially Collapsed Gibbs Sampler." Finally, we adapt the BGE model and associated samplers to a topical science case in Astrophysics: the detection of exoplanets from radial velocity measurements. The efficiency of our method will be illustrated with simulated data, as well as actual astrophysical data.
9

Bayesian Inference in Structural Second-Price Auctions

Wegmann, Bertil January 2011 (has links)
The aim of this thesis is to develop efficient and practically useful Bayesian methods for statistical inference in structural second-price auctions. The models are applied to a carefully collected coin auction dataset with bids and auction-specific characteristics from one thousand Internet auctions on eBay. Bidders are assumed to be risk-neutral and symmetric, and compete for a single object using the same game-theoretic strategy. A key contribution in the thesis is the derivation of very accurate approximations of the otherwise intractable equilibrium bid functions under different model assumptions. These easily computed and numerically stable approximations are shown to be crucial for statistical inference, where the inverse bid functions typically needs to be evaluated several million times. In the first paper, the approximate bid is a linear function of a bidder's signal and a Gaussian common value model is estimated. We find that the publicly available book value and the condition of the auctioned object are important determinants of bidders' valuations, while eBay's detailed seller information is essentially ignored by the bidders. In the second paper, the Gaussian model in the first paper is contrasted to a Gamma model that allows intrinsically non-negative common values. The Gaussian model performs slightly better than the Gamma model on the eBay data, which we attribute to an almost normal or at least symmetrical distribution of valuations. The third paper compares the model in the first paper to a directly comparable model for private values. We find many interesting empirical regularities between the models, but no strong and consistent evidence in favor of one model over the other. In the last paper, we consider auctions with both private-value and common-value bidders. The equilibrium bid function is given as the solution to an ordinary differential equation, from which we derive an approximate inverse bid as an explicit function of a given bid. The paper proposes an elaborate model where the probability of being a common value bidder is a function of covariates at the auction level. The model is estimated by a Metropolis-within-Gibbs algorithm and the results point strongly to an active influx of both private-value and common-value bidders. / <p>At the time of the doctoral defense, the following papers were unpublished and had a status as follows: Paper 1: Epub ahead of print. Paper 2: Manuscript. Paper 3: Manuscript. Paper 4: Manuscript.</p>
10

Modélisation probabiliste et inférence par l'algorithme Belief Propagation / Probabilistic Modelling and Inference using the Belief Propagation Algorithm

Martin, Victorin 23 May 2013 (has links)
On s'intéresse à la construction et l'estimation - à partir d'observations incomplètes - de modèles de variables aléatoires à valeurs réelles sur un graphe. Ces modèles doivent être adaptés à un problème de régression non standard où l'identité des variables observées (et donc celle des variables à prédire) varie d'une instance à l'autre. La nature du problème et des données disponibles nous conduit à modéliser le réseau sous la forme d'un champ markovien aléatoire, choix justifié par le principe de maximisation d'entropie de Jaynes. L'outil de prédiction choisi dans ces travaux est l'algorithme Belief Propagation - dans sa version classique ou gaussienne - dont la simplicité et l'efficacité permettent son utilisation sur des réseaux de grande taille. Après avoir fourni un nouveau résultat sur la stabilité locale des points fixes de l'algorithme, on étudie une approche fondée sur un modèle d'Ising latent où les dépendances entre variables réelles sont encodées à travers un réseau de variables binaires. Pour cela, on propose une définition de ces variables basée sur les fonctions de répartition des variables réelles associées. Pour l'étape de prédiction, il est nécessaire de modifier l'algorithme Belief Propagation pour imposer des contraintes de type bayésiennes sur les distributions marginales des variables binaires. L'estimation des paramètres du modèle peut aisément se faire à partir d'observations de paires. Cette approche est en fait une manière de résoudre le problème de régression en travaillant sur les quantiles. D'autre part, on propose un algorithme glouton d'estimation de la structure et des paramètres d'un champ markovien gaussien, basé sur l'algorithme Iterative Proportional Scaling. Cet algorithme produit à chaque itération un nouveau modèle dont la vraisemblance, ou une approximation de celle-ci dans le cas d'observations incomplètes, est supérieure à celle du modèle précédent. Cet algorithme fonctionnant par perturbation locale, il est possible d'imposer des contraintes spectrales assurant une meilleure compatibilité des modèles obtenus avec la version gaussienne de Belief Propagation. Les performances des différentes approches sont illustrées par des expérimentations numériques sur des données synthétiques. / In this work, we focus on the design and estimation - from partial observations - of graphical models of real-valued random variables. These models should be suited for a non-standard regression problem where the identity of the observed variables (and therefore of the variables to predict) changes from an instance to the other. The nature of the problem and of the available data lead us to model the network as a Markov random field, a choice consistent with Jaynes' maximum entropy principle. For the prediction task, we turn to the Belief Propagation algorithm - in its classical or Gaussian flavor - which simplicity and efficiency make it usable on large scale networks. After providing a new result on the local stability of the algorithm's fixed points, we propose an approach based on a latent Ising model, where dependencies between real-valued variables are encoded through a network of binary variables. To this end, we propose a definition of these variables using the cumulative distribution functions of the real-valued variables. For the prediction task, it is necessary to modify the Belief Propagation algorithm in order to impose Bayesian-like constraints on marginal distributions of the binary variables. Estimation of the model parameters can easily be performed using only pairwise observations. In fact, this approach is a way to solve the regression problem by working on quantiles.Furthermore, we propose a greedy algorithm for estimating both the structure and the parameters of a Gauss-Markov random field based on the Iterative Proportional Scaling procedure. At each iteration, the algorithm yields a new model which likelihood, or an approximation of it in the case of partial observations,is higher than the one of the previous model. Because of its local perturbation principle, this algorithm allows us to impose spectral constraints, increasing the compatibility with the Gaussian Belief Propagation algorithm. The performances of all approaches are empirically illustrated on synthetic data.

Page generated in 0.1437 seconds