• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 227
  • 86
  • 20
  • 1
  • Tagged with
  • 326
  • 174
  • 60
  • 43
  • 27
  • 21
  • 20
  • 20
  • 20
  • 19
  • 19
  • 17
  • 17
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

Prédiction de suites individuelles et cadre statistique classique : étude de quelques liens autour de la régression parcimonieuse et des techniques d'agrégation / Prediction of individual sequences and prediction in the statistical framework : some links around sparse regression and aggregation techniques

Gerchinovitz, Sébastien 12 December 2011 (has links)
Cette thèse s'inscrit dans le domaine de l'apprentissage statistique. Le cadre principal est celui de la prévision de suites déterministes arbitraires (ou suites individuelles), qui recouvre des problèmes d'apprentissage séquentiel où l'on ne peut ou ne veut pas faire d'hypothèses de stochasticité sur la suite des données à prévoir. Cela conduit à des méthodes très robustes. Dans ces travaux, on étudie quelques liens étroits entre la théorie de la prévision de suites individuelles et le cadre statistique classique, notamment le modèle de régression avec design aléatoire ou fixe, où les données sont modélisées de façon stochastique. Les apports entre ces deux cadres sont mutuels : certaines méthodes statistiques peuvent être adaptées au cadre séquentiel pour bénéficier de garanties déterministes ; réciproquement, des techniques de suites individuelles permettent de calibrer automatiquement des méthodes statistiques pour obtenir des bornes adaptatives en la variance du bruit. On étudie de tels liens sur plusieurs problèmes voisins : la régression linéaire séquentielle parcimonieuse en grande dimension (avec application au cadre stochastique), la régression linéaire séquentielle sur des boules L1, et l'agrégation de modèles non linéaires dans un cadre de sélection de modèles (régression avec design fixe). Enfin, des techniques stochastiques sont utilisées et développées pour déterminer les vitesses minimax de divers critères de performance séquentielle (regrets interne et swap notamment) en environnement déterministe ou stochastique. / The topics addressed in this thesis lie in statistical machine learning. Our main framework is the prediction of arbitrary deterministic sequences (or individual sequences). It includes online learning tasks for which we cannot make any stochasticity assumption on the data to be predicted, which requires robust methods. In this work, we analyze several connections between the theory of individual sequences and the classical statistical setting, e.g., the regression model with fixed or random design, where stochastic assumptions are made. These two frameworks benefit from one another: some statistical methods can be adapted to the online learning setting to satisfy deterministic performance guarantees. Conversely, some individual-sequence techniques are useful to tune the parameters of a statistical method and to get risk bounds that are adaptive to the unknown variance. We study such connections for several connected problems: high-dimensional online linear regression under a sparsity scenario (with an application to the stochastic setting), online linear regression on L1-balls, and aggregation of nonlinear models in a model selection framework (regression on a fixed design). We also use and develop stochastic techniques to compute the minimax rates of game-theoretic online measures of performance (e.g., internal and swap regrets) in a deterministic or stochastic environment.
322

Estimation non-paramétrique adaptative pour des modèles bruités / Nonparametric adaptive estimation in measurement error models

Mabon, Gwennaëlle 26 May 2016 (has links)
Dans cette thèse, nous nous intéressons au problème d'estimation de densité dans le modèle de convolution. Ce cadre correspond aux modèles avec erreurs de mesures additives, c'est-à-dire que nous observons une version bruitée de la variable d'intérêt. Pour mener notre étude, nous adoptons le point de vue de l'estimation non-paramétrique adaptative qui repose sur des procédures de sélection de modèle développées par Birgé & Massart ou sur les méthodes de Lepski. Cette thèse se divise en deux parties. La première développe des méthodes spécifiques d'estimation adaptative quand les variables d'intérêt et les erreurs sont des variables aléatoires positives. Ainsi nous proposons des estimateurs adaptatifs de la densité ou encore de la fonction de survie dans ce modèle, puis de fonctionnelles linéaires de la densité cible. Enfin nous suggérons une procédure d'agrégation linéaire. La deuxième partie traite de l'estimation adaptative de densité dans le modèle de convolution lorsque la loi des erreurs est inconnue. Dans ce cadre il est supposé qu'un échantillon préliminaire du bruit est disponible ou que les observations sont disponibles sous forme de données répétées. Les résultats obtenus pour des données répétées dans le modèle de convolution permettent d'élargir cette méthodologie au cadre des modèles linéaires mixtes. Enfin cette méthode est encore appliquée à l'estimation de la densité de somme de variables aléatoires observées avec du bruit. / In this thesis, we are interested in nonparametric adaptive estimation problems of density in the convolution model. This framework matches additive measurement error models, which means we observe a noisy version of the random variable of interest. To carry out our study, we follow the paradigm of model selection developped by Birgé & Massart or criterion based on Lepski's method. The thesis is divided into two parts. In the first one, the main goal is to build adaptive estimators in the convolution model when both random variables of interest and errors are distributed on the nonnegative real line. Thus we propose adaptive estimators of the density along with the survival function, then of linear functionals of the target density. This part ends with a linear density aggregation procedure. The second part of the thesis deals with adaptive estimation of density in the convolution model when the distribution is unknown and distributed on the real line. To make this problem identifiable, we assume we have at hand either a preliminary sample of the noise or we observe repeated data. So, we can derive adaptive estimation with mild assumptions on the noise distribution. This methodology is then applied to linear mixed models and to the problem of density estimation of the sum of random variables when the latter are observed with an additive noise.
323

Optimization framework for large-scale sparse blind source separation / Stratégies d'optimisation pour la séparation aveugle de sources parcimonieuses grande échelle

Kervazo, Christophe 04 October 2019 (has links)
Lors des dernières décennies, la Séparation Aveugle de Sources (BSS) est devenue un outil de premier plan pour le traitement de données multi-valuées. L’objectif de ce doctorat est cependant d’étudier les cas grande échelle, pour lesquels la plupart des algorithmes classiques obtiennent des performances dégradées. Ce document s’articule en quatre parties, traitant chacune un aspect du problème: i) l’introduction d’algorithmes robustes de BSS parcimonieuse ne nécessitant qu’un seul lancement (malgré un choix d’hyper-paramètres délicat) et fortement étayés mathématiquement; ii) la proposition d’une méthode permettant de maintenir une haute qualité de séparation malgré un nombre de sources important: iii) la modification d’un algorithme classique de BSS parcimonieuse pour l’application sur des données de grandes tailles; et iv) une extension au problème de BSS parcimonieuse non-linéaire. Les méthodes proposées ont été amplement testées, tant sur données simulées que réalistes, pour démontrer leur qualité. Des interprétations détaillées des résultats sont proposées. / During the last decades, Blind Source Separation (BSS) has become a key analysis tool to study multi-valued data. The objective of this thesis is however to focus on large-scale settings, for which most classical algorithms fail. More specifically, it is subdivided into four sub-problems taking their roots around the large-scale sparse BSS issue: i) introduce a mathematically sound robust sparse BSS algorithm which does not require any relaunch (despite a difficult hyper-parameter choice); ii) introduce a method being able to maintain high quality separations even when a large-number of sources needs to be estimated; iii) make a classical sparse BSS algorithm scalable to large-scale datasets; and iv) an extension to the non-linear sparse BSS problem. The methods we propose are extensively tested on both simulated and realistic experiments to demonstrate their quality. In-depth interpretations of the results are proposed.
324

Essay on firm dynamics, competition and International trade

Siwe, Guy Leonel 06 1900 (has links)
Le pouvoir de marché des entreprises a toujours été un sujet d’intérêt tant du point de vue du bien-être économique que de l’allocation des ressources. D’une part, le pouvoir de marché incite les entreprises à moins produire - réduisant le bien-être des consommateurs et d’autre part, la variation de la marge bénéficiaire entre les entreprises induit une friction sur l’allocation des intrants et diminue la productivité agrégée. Suite aux récents débats sur la concentration des parts de marché dans l’économie américaine par une minorité d’entreprises, la question du pouvoir de marché et ses implications ont été largement débattues. Cette thèse, divisée en trois chapitres, contribue à cette vaste littérature d’étude du pouvoir de marché de l’entreprise. Le premier chapitre examine les causes de la hausse des marges bénéficiaires aux États-Unis dans un environnement où les entreprises accumulent des actifs intangibles. En effet, au cours des quatre dernières décennies, l’économie américaine a connu une augmentation en moyenne des marges bénéficiaires par les entreprises et une augmen- tation de la concentration des parts de marché. Ces faits ont suscité des inquiétudes quant au pouvoir de marché détenu par certaines entreprises et à l’étendue de la concur- rence. Dans ce chapitre, nous proposons une nouvelle méthode d’agrégation des marges bénéficiaires des entreprises utilisant la distribution des parts de marché. Ensuite, nous documentons trois faits empiriques basés sur la distribution jointe des marges et des parts de marché des entreprises cotées en bourse. Premièrement, la hausse de la marge agrégée a été bien inferieure à celle suggerée par la moyenne. Deuxièmement, les plus grandes entreprises en termes de part de marché, appelées "superstars", ne possèdent pas les marges bénéficiaires les plus élevées et troisièmement, la hausse de la marge agrégée résulte principalement d’une réallocation des parts de marché, associée conjointement à une variation des marges des entreprises. Pour expliquer ces faits, nous proposons un modèle où les entreprises accumulent des actifs intangibles sous forme de base de clients le long de leur cycle de vie, en investissant une valeur fixe de leurs ventes. Une baisse dans la rentabilité des entreprises entrainent une réduction temporaire des marges, afin que ces dernières fixent des prix bas et attirent de nouveaux clients. Une hausse des investissements en base de clientèle profite aux entreprises ayant de fortes opportunités de croissance, leur permettant d’accroitre les parts de vente et d’augmenter davantage leur marge bénéficiaire. Ainsi, l’augmentation des investissements en base de clientèle au cours des quatre dernières décennies explique de moitié l’augmentation globale des marges bénéficiaires aux États-Unis. Le deuxième chapitre examine les implications d’une variation endogène des marges bénéficiaires sur la productivité des usines le long de leur cycle de vie. En effet, la variation des marges bénéficiaires est une potentiel source d’inefficience dans l’allocation des ressources, réduisant la productivité globale. En utilisant l’enquête annuelle sur le secteur manufacturé en Colombie, nous montrons une diminution de la dispersion des marges bénéficiaires avec l’âge, suggérant une convergence des marges bénéficiaires des usines avec l’âge. Nous expliquons et testons cette dynamique à travers d’une théorie d’apprentissage de la demande le long du cycle de vie (à l’exemple de la formation d’une base de la clientèle). Les nouvelles usines obtiennent une productivité et une de demande dès leur entrée et apprenent de leur demande en ajustant leur marge bénéficiaire. Au cours de leur vie, elles accumulent leur demande, ce qui entraine leur croissance et une hausse de leur marge bénéficiaire. La convergence résulte d’une inadéquation entre l’échelle optimale qu’une usine souhaite opérer compte tenu de sa productivité et son échelle de production actuel. Le modèle prédit que la grande dispersion des marges bénéficiaires à l’entrée du marché, entraine une inefficience dans l’allocation des ressources productives et reduit la productivité moyenne à des nouvelles usines. Au fur et à mesure que l’usine prend de l’age, cette friction à l’allocation diminue et contribue à augmenté la productivité moyenne des usines agées. Dans le troisième chapitre, j’étudie les gains de bien-être associés à des nouveaux investissements en infrastructures de transport. Il s’agit d’un travail de recherche con- joint avec Mathilde Lebrand de la Banque mondiale. En effet, de nombreux travaux ne prennent pas en compte la demande de services de transport lors de l’étude des gains associés à de nouveaux projets d’investissements en infrastructures. Nous développons ainsi un modèle Ricardien multi-pays, multisectoriel avec un secteur des transports dont l’équilibre est déterminer de manière endogène et qui présente deux caractéristiques prin- cipales : une diversité de modes de transport et l’absence de concurrence dans le secteur de transport. Les predictions nous montre que une hausse des investissements en in- frastructures réduisent les coûts d’expédition selon trois marges : une réduction du coût marginal des transporteurs, une diminution de la marge de profit des transporteurs et une reallocation des parts de marché vers les modes de transport les plus bénefiques. Ces deux dernières marges sont particulièrement affectées par les préférences des importateurs en matière de choix de mode de transport. / Firms’ market power has always been a topic of interest in terms of welfare and resource allocations analysis. On the one hand, market power reduces the firms’ incentive to produce, reducing consumer welfare. On the other hand, the variation in firms’ markup induces friction to input allocation and lowers aggregate productivity. With the ongoing debate on sales concentration in the US economy by a few firms, there is a lot of question concerning the causes and implications of market power. This thesis, divided into three chapters, contributes to this vast literature of studying the firm’s market power. The first chapter discusses the causes of US markup rise in an environment where firms are building intangibles assets. Indeed, over the last four decades, both the average price markups charged by firms and market shares concentration have increased. This raised concerns about market power and the extent of competition. I develop a new method to aggregate firm-level markups using the sales shares distribution. I then document three facts based on the joint distribution of markups and sales shares among publicly listed firms. First, the rise in the aggregate markup has been much less than that suggested by average markups. Second, the largest sales firms-called "superstar firms" are not at the top of the markups distribution and third, the rise in US markup has been driven by a reallocation of sales shares, jointly associated with a change in firm-level markup. To explain these trends, I develop a model where firms accumulate customers base over their life cycle by investing a fixed share of their sales. Changes in firm profitability lead to a temporary reduction in markups as firms attract new customers. An exogenous increase in the share of investment into the customer base benefits firms with high growth oppor- tunities, allowing them to gain more sales share and increase their markup. Therefore, I find that the rise in the share of investment into customer base over the last four decades explains half of the overall increase in US markup. The second chapter discusses the implications of an endogenous variation in markups to plant productivity over the life cycle. Indeed, markup varies across plants, inducing an inefficiency in allocating resources that lower the aggregate productivity. Using the Annual Columbia Manufacturing survey, I find a decrease in markup dispersion with age, suggesting a convergence of all plant-level markup with age in cross-sectional. I explain and test this dynamic through active learning on demand by plants over the life cycle (e.g. customer base formation). New plants draw a productivity shock and demand shock at entry and actively learn about their demand by adjusting their markup. Over their life, they build their demand and growth in both size and markup. This convergence results from a mismatch between the optimal scale a plant desire to operate and its current scale for a given level of productivity. The model predicts that the high variation in markups at entry induces inefficient input allocation, lowering the average productivity. Along with age, the declines in markups dispersion reduce the allocative inefficiency and foster productivity growth over the life cycle. In the third chapter, I study the welfare gain from new infrastructures investments. It is joint work with Mathilde Lebrand from the World Bank. Indeed, many frameworks don’t take into account the demand for transport services when studying trade policies. We develop a multi-countries and multi-sectoral Ricardian model with an endogenous transport sector. We introduce two main features for endogeneity: the multi-modality and a lack of competition in the transport sector. New infrastructure investments reduce the shipping cost along three margins: a transporters marginal cost reduction, a decline in the transporters profit margins and a reallocation of market shares across shipping modes. The two last margins are driven by the shipping mode preference for a good.
325

Luminogènes-AIE à base de ligands hydroxyamidines : synthèse, caractérisation et application comme pigments pour dispositifs

Castro, Jessica Julieth 08 1900 (has links)
No description available.
326

Un modèle de prise de décision basé sur la performace des procesus métiers collaboratifs / Dynamic decision model based on the performance of collaborative business processes

Hachicha, Maroua 03 April 2017 (has links)
Cette thèse se focalise sur l’amélioration de l’évaluation de performance des processus métiers collaboratifs. Il s’agit de poursuivre l’évolution de la collaboration entre l’entreprise et ses partenaires. Trois niveaux d’abstraction ont été d’abord identifiés : Métier, fonctionnel et applicatif. Ensuite, nous avons développé une approche descendante allant du niveau métier au niveau applicatif. Dans le niveau métier, des différents d’indicateurs clés de performance ont été proposés à travers la méthodeECOGRAI. Dans le niveau applicatif, nous avons proposé un référentiel d’analyse contenant des indicateurs techniques fonctionnels tels que la durée, l’input, l’output, et non-fonctionnels notamment la maturité, le risque, l’interopérabilité à partir des traces d’exécution. Nous avons proposé ainsi un modèle ontologique en vue de capitaliser et enrichir la sémantique de la performance de ces processus. Nous avons proposé un modèle ascendant pour l’agrégation des indicateurs technique au niveaumétier. Le principal objectif de cette agrégation est la corrélation entre le comportement de l’application métier agrégé à partir de l’exécution et l’évolution des indicateurs métiers. Un autre modèle de gestion des événements métiers a été également proposé pour consolider le processus d’apprentissage de notre approche. Par ailleurs, pour assurer la convergence de la performance, nous avons combiné entre la gestion des traces et la gestion des évènements métiers. Cette combinaison permet d’accompagner l’évolution des processus métiers collaboratifs pendant leur exécution. L’accompagnement évoqué avant favorise l’obtention d’un diagnostic sur la performance pour servir à la prise de décision. Cette dernière est liée étroitement à la détection des alertes et particulièrement à l’anticipation des déviations de la performance le plus rapidement possible. Pour valider lacontribution scientifique de cette thèse, une étude de cas a été réalisée sur un processus de création de devis dans le cadre du projet européen FITMAN. / This thesis focuses on improving the performance evaluation of collaborative business processes. It is about pursuing the evolution of the collaboration between the company and its partners. In the beginning, three abstraction levels were identified: Business, functional and application. Then, we developed a top-down approach from the business level to the application level. In the business level, different key performance indicators have been proposed through the ECOGRAI method. In the application level, we proposed an analytical repository containing functional technical indicators such as duration, input, output, and non-functional, including maturity, risk, and interoperability based on execution traces. We have thus proposed an ontological model in order to capitalize and enrich the semantics of the performance of these processes. We proposed a bottom-up model for the aggregation of technical indicators at the business level. The main objective of this aggregation is the correlation between the behavior of the aggregated business application from the execution and the evolution of the business indicators. Another business event management model was also proposed to consolidate the learning process of our approach. Moreover, to ensure the convergence of performance, we have combined traces management and business event management. This combination allows to accompany the evolution of the collaborative business processes during their execution. The aforementionedaccompaniment favors the obtaining of a diagnosis on performance to be used for decision-making. The latter is closely linked to the detection of alerts and particularly to the anticipation of deviations in performance as quickly as possible. To validate the scientific contribution of this thesis, a case study was carried out on a process of creation of quote within the framework of the European project FITMAN.

Page generated in 0.1099 seconds