• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 37
  • 20
  • 2
  • Tagged with
  • 57
  • 24
  • 16
  • 15
  • 10
  • 9
  • 8
  • 8
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Extraction and analysis of knowledge for automatic software repair / Extraction et analyse de connaissance pour la réparation automatique de bugs

Martinez, Matias 10 October 2014 (has links)
La correction d'un bogue est une activité fréquente fait dans le cycle de vie du logiciel. L'activité vise à éliminer l'écart entre le comportement attendu d'un programme et ce qu'il fait réellement. Dans les dernières années, plusieurs approches automatiques de réparation de logiciels ont vu le jour pour synthétiser automatiquement des corrections de bugs. Malheureusement, la correction de bugs pourrait être encore difficile et coûteux pour les approches automatiques programme de réparation. Par exemple, pour réparer un bogue, une approche pourrait passer un temps infini à trouver une solution auprès d'un grand nombre de candidats. Dans cette thèse, nous visons à améliorer la réparabilité de bogues: augmenter le nombre de bogues réparés par des approches de réparation. Nous visons à ajouter réparation approches des stratégies pour optimiser la recherche de solutions. Nous présentons une stratégie qui consomme informations extraites de réparations effectuées par les développeurs. Ensuite, nous nous concentrons sur l'évaluation des méthodes de réparation automatique. Nous visons à introduire des procédures pour avoir significative évaluations d'approches.Nous définissons d'abord une méthode pour définir des jeux de données de défauts qui réduisent au minimum la possibilité de résultats biaisés. La manière dont un jeu de données est construite impacts sur le résultat d'une évaluation de l'approche. Nous présentons un jeu de données qui comprend un type particulier de défaut: les défauts instructions conditionnelles. Ensuite, nous cherchons à mesurer la réparabilité de ce type de défaut en évaluant trois approches de réparation automatique du logiciel. / Bug fixing is a frequent activity done in the software life cycle. The activity aims at removing the gap between the expected behavior of a program and what it actually does. In the recent years, several automatic software repair approaches have emerged to automatically synthesize bug fixes. Unfortunately, bug fixing could be even hard and expensive for automatic program repair approaches. For example, to repair a given bug, a repair technique could spend infinite time to find a fix among a large number of candidate fixes. In this thesis, we aim at improving repairability of bugs. That is, to increase the number of bugs repaired by repair approaches. First, we concentrate on the study of repair search spaces i.e., all possible solutions for the fix. We aim at adding repair approaches strategies to optimize the search of solutions in the repair search space. We present a strategy to reduce the time to find a fix. The strategy consumes information extracted from repairs done by developers. Then, we focus on the evaluation of automatic repair approaches. We aim at introducing methodologies and evaluation procedures to have meaningful repair approach evaluations.We first define a methodology to define defect datasets that minimize the possibility of biased results. The way a dataset is built impacts on the result of an approach evaluation. We present a dataset that includes a particular kind of defect: if conditional defects. Then, we aim at measuring the repairability of this kind of defect by evaluating three state-of-the-art automatic software repair approaches.
2

Empirical processes of multiple mixing data / Processus empiriques de données à mélange multiple

Tusche, Marco 29 November 2013 (has links)
Cette thèse étudie la convergence en loi des processus empiriques de données à mélange multiple. Son contenu correspond aux articles : Durieu et Tusche (2012), Dehling, Durieu, et Tusche (2012), et Dehiing, Durieu et Tusche (2013). Nous suivons l’approche par approximation introduite dans Dehling, Durieu, et Vo1n (2009) et Dehling and Durieu (2011), qui ont établi des théorèmes limite centraux empiriques pour des variables aléatoires dépendants à valeurs dans R ou RAd, respectivement. En développant leurs techniques, nous généralisons leurs résultats à des espaces arbitraires et à des processus empiriques indexés par des classes de fonctions. De plus, nous étudions des processus empiriques séquentiels. Nos résultats s’appliquent aux chaînes de Markov B-géométriquement ergodiques, aux modèles itératifs lipschitziens, aux systèmes dynamiques présentant un trou spectral pour l’opérateur de Perron-Frobenius associé, ou encore, aux automorphismes du tore. Nous établissons des conditions garantissant la convergence du processus empirique de tels modèles vers un processus gaussien. / The present thesis studies weak convergence of empirical processes of multiple mixing data. It is based on the articles Durieu and Tusche (2012), Dehling, Durieu, and Tusche (2012), and Dehling, Durieu, and Tusche (2013). We follow the approximating class approach introduced by Dehling, Durieu, and Voln (2009)and Dehling and Durieu (2011), who established empirical central limit theorems for dependent R- and R”d-valued random variables, respectively. Extending their technique, we generalize their results to arbitrary state spaces and to empirical processes indexed by classes of functions. Moreover we study sequential empirical processes. Our results apply to B-geometrically ergodic Markov chains, iterative Lipschitz models, dynamical systems with a spectral gap on the Perron—Frobenius operator, and ergodic toms automorphisms. We establish conditions under which the empirical process of such processes converges weakly to a Gaussian process.
3

Le CAPM augmenté conditionnel à moments supérieurs : Étude empirique de la coupe transversale des rendements moyens

Blanchet, Philippe-Olivier January 2016 (has links)
La présente recherche propose de revisiter cinq modèles d’évaluation d’actifs, soit ceux de Sharpe (1964), Carhart (1997), de Jagannathan et Wang (1996), de Ferson et Harvey (1999) et de Kraus et Litzenberger (1976). Afin de mettre l’accent sur le côté économétrique, les modèles sont évalués indépendamment selon deux méthodes, soit la régression de Fama et Macbeth (1973) et la méthode des moments généralisée de Hansen (1982). Par la suite, l’étude propose l’évaluation empirique d'un modèle multifactoriel conditionnel à moments supérieurs pour évaluer les rendements moyens en coupe transversale, nommé CAPM-ACS. Ce modèle est une tentative de combiner les principaux éléments des cinq modèles précédents. L’évaluation de ces modèles est portée sur les rendements provenant d’un échantillon de 80 portefeuilles de titres américains classés par anomalies de marché et par industrie sur la période du 1er janvier 1972 au 1er décembre 2014. Nos résultats supportent le conditionnement des bêtas des facteurs de marché, des moments supérieurs et du capital humain plutôt que le conditionnement des alphas. Les modèles conditionnels performent mieux que les modèles traditionnels et empiriques tels que Fama et French (1993), mais le facteur de momentum de Carhart (1997) persiste en présence de l’ensemble des facteurs testés dans ce mémoire.À cet effet, nos résultats soulignent un lien entre le facteur d’asymétrie et le facteur de momentum, pouvant être expliqué par le caractère asymétrique des portefeuilles de titres perdants et gagnants. De plus, l’ajout du capital humain améliore significativement la performance des modèles à capturer les variations de rendements des portefeuilles classés par industrie. Par rapport aux outils économétriques, nous observons un impact significatif des méthodes sur l’inférence statistique. Plus précisément, les mesures d’inférences sont plus conservatrices lorsque l’approche du GMM de Hansen (1982) est utilisée.
4

Inférence rétrospective de réseaux de gènes à partir de données génomiques temporelles

Rau, Andrea 01 June 2010 (has links) (PDF)
Les réseaux de gènes régulateurs représentent un ensemble de gènes qui interagissent, directement ou indirectement, les uns avec les autres ainsi qu'avec d'autres produits cellulaires. Comme ces interactions réglementent le taux de transcription des gènes et la production subséquente de protéines fonctionnelles, l'identification de ces réseaux peut conduire à une meilleure compréhension des systèmes biologiques complexes. Les technologies telles que les puces à ADN (microarrays) et le séquençage à ultra-haut débit (RNA sequencing) permettent une étude simultanée de l'expression des milliers de gènes chez un organisme, soit le transcriptome. En mesurant l'expression des gènes au cours du temps, il est possible d'inférer (soit "reverse-engineer") la structure des réseaux biologiques qui s'impliquent pendant un processus cellulaire particulier. Cependant, ces réseaux sont en général très compliqués et difficilement élucidés, surtout vu le grand nombre de gènes considérés et le peu de répliques biologiques disponibles dans la plupart des données expérimentales.<br /> <br /> Dans ce travail, nous proposons deux méthodes pour l'identification des réseaux de gènes régulateurs qui se servent des réseaux Bayésiens dynamiques et des modèles linéaires. Dans la première méthode, nous développons un algorithme dans un cadre bayésien pour les modèles linéaires espace-état (state-space model). Les hyperparamètres sont estimés avec une procédure bayésienne empirique et une adaptation de l'algorithme espérance-maximisation. Dans la deuxième approche, nous développons une extension d'une méthode de Approximate Bayesian Computation basé sur une procédure de Monte Carlo par chaînes de Markov pour l'inférence des réseaux biologiques. Cette méthode échantillonne des lois approximatives a posteriori des interactions gène-à-gène et fournit des informations sur l'identifiabilité et le robustesse des structures sous-réseaux. La performance des deux approches est étudié via un ensemble de simulations, et les deux sont appliqués aux données transcriptomiques.
5

Lois limites uniformes et estimation non-paramétrique de la régression

Blondin, David 10 December 2004 (has links) (PDF)
Nous utilisons la théorie moderne des processus empiriques indicés par des classes de fonctions afin d'établir la vitesse exacte de convergence presque sûre d'une large classe d'estimateurs par la méthode du noyau de la fonction de régression dont les estimateurs par lissage polynomial local. Ces résultats prennent la forme de lois limites uniformes du logarithme dans le prolongement des travaux de Deheuvels et Mason (2004) et permettent la construction de bornes de confiance asymptotiquement optimales. La démonstration s'appuie principalement sur une inégalité exponentielle pour la déviation par rapport à l'espérance de la norme du supremum du processus empirique indexé par des classes de fonctions à nombre de recouvrement uniformément polynomial. Nous présentons également une loi limite uniforme du logarithme dans un cadre semi-paramétrique concernant l'estimateur du maximum de vraisemblance local lorsque la loi conditionnelle est paramétrée par une fonction.
6

Etude empirique, modélisation et applications des trades à limites multiples dans les carnets d'ordre

Pomponio, Fabrizio 14 December 2012 (has links) (PDF)
Cette thèse étudie certains évènements particuliers des carnets d'ordre - les "trades traversants". Dans le premier chapitre, on définit les trades traversants comme étant ceux qui consomment la liquidité présente dans le carnet d'ordres sur plusieurs limites, sans laisser le temps à la meilleure limite de se remplir par l'arrivée de nouveaux ordres limites. On étudie leurs propriétés empiriques en fournissant des statistiques de liquidité, de volume, de distribution de leurs temps d'arrivées, de clustering et de relaxation du spread. Leur impact de marché est supérieur à celui des trades classiques, et ce même à volume comparable : les trades traversants présentent donc un contenu informationnel plus grand. On propose deux applications au problème du lead-lag entre actifs/marchés, d'abord pour répondre à la question de savoir quel actif bouge en premier, et ensuite pour mesurer la force du signal des trades traversants dans le cadre d'une stratégie d'investissement basée sur le lead-lag entre actifs. Le chapitre suivant approfondit l'étude empirique du clustering de l'arrivée des trades traversants. On y modélise leur arrivée par des processus stochastiques auto-excités (les processus de Hawkes). Une étude statistique de la calibration obtenue avec des modèles à noyaux exponentiels pour la décroissance temporelle de l'impact est menée et assure une modélisation satisfaisante avec deux processus indépendants, un pour le bid et un pour l'ask. La classe de modèles proposée à la calibration est bien adaptée puisqu'il n'existe pas d'effet inhibiteur après l'arrivée d'un trade traversant. On utilise ces résultats pour calculer un indicateur d'intensité basé sur l'arrivée des trades traversants, et améliorer ainsi une stratégie d'investissement de type "momentum". Enfin, une calibration non-paramétrique du noyau de décroissance temporel d'impact fournit une décroissance empirique encore plus forte qu'une loi exponentielle, et davantage proche d'une loi-puissance. Le dernier chapitre rappelle une méthode générale de détection statistique de sauts dans des séries temporelles de prix/rendements qui soit robuste au bruit de microstructure. On généralise les résultats empiriques connus à de nouveaux indices financiers. On adapte cette méthode de détection statistique de sauts à des trajectoires intraday afin d'obtenir la distribution de la proportion de sauts détectés au cours de la journée. Les valeurs extrémales et les plus grandes variations de cette proportion se déroulent à des heures précises de la journée (14 :30, 15 :00 et 16 :30, heure de Paris), déjà rencontrées dans l'étude des trades traversants. Grâce à eux, on propose une explication des caractéristiques principales du profil intraday de la proportion de sauts détectés par le test, qui s'appuie sur une modification de la part relative de chacune des composantes de sauts dans la trajectoire des actifs considérés (la composante des mouvements continus et celle liée aux mouvements de sauts purs).
7

Contributions à l’usage des détecteurs de clones pour des tâches de maintenance logicielle / Contributions to the use of code clone detectors in software maintenance tasks

Charpentier, Alan 17 October 2016 (has links)
L’existence de plusieurs copies d’un même fragment de code (nommées des clones dans lalittérature) dans un logiciel peut compliquer sa maintenance et son évolution. La duplication decode peut poser des problèmes de consistance, notamment lors de la propagation de correction debogues. La détection de clones est par conséquent un enjeu important pour préserver et améliorerla qualité logicielle, propriété primordiale pour le succès d’un logiciel.L’objectif général de cette thèse est de contribuer à l’usage des détecteurs de clones dans destâches de maintenance logicielle. Nous avons centré nos contributions sur deux axes de recherche.Premièrement, la méthodologie pour comparer et évaluer les détecteurs de clones, i.e. les benchmarksde clones. Nous avons empiriquement évalué un benchmark de clones et avons montré queles résultats dérivés de ce dernier n’étaient pas fiables. Nous avons également identifié des recommandationspour fiabiliser la construction de benchmarks de clones. Deuxièmement, la spécialisationdes détecteurs de clones dans des tâches de maintenance logicielle.Nous avons développé uneapproche spécialisée dans un langage et une tâche (la réingénierie) qui permet aux développeursd’identifier et de supprimer la duplication de code de leurs logiciels. Nous avons mené des étudesde cas avec des experts du domaine pour évaluer notre approche. / The existence of several copies of a same code fragment—called code clones in the literature—in a software can complicate its maintenance and evolution. Code duplication can lead to consistencyproblems, especially during bug fixes propagation. Code clone detection is therefore a majorconcern to maintain and improve software quality, which is an essential property for a software’ssuccess.The general objective of this thesis is to contribute to the use of code clone detection in softwaremaintenance tasks. We chose to focus our contributions on two research topics. Firstly, themethodology to compare and assess code clone detectors, i.e. clone benchmarks. We perform anempirical assessment of a clone benchmark and we found that results derived from this latter arenot reliable. We also identified recommendations to construct more reliable clone benchmarks.Secondly, the adaptation of code clone detectors in software maintenance tasks. We developed aspecialized approach in one language and one task—refactoring—allowing developers to identifyand remove code duplication in their softwares. We conducted case studies with domain experts toevaluate our approach.
8

Essays in robust estimation and inference in semi- and nonparametric econometrics / Contributions à l'estimation et à l'inférence robuste en économétrie semi- et nonparamétrique

Guyonvarch, Yannick 28 November 2019 (has links)
Dans le chapitre introductif, nous dressons une étude comparée des approches en économétrie et en apprentissage statistique sur les questions de l'estimation et de l'inférence en statistique.Dans le deuxième chapitre, nous nous intéressons à une classe générale de modèles de variables instrumentales nonparamétriques. Nous généralisons la procédure d'estimation de Otsu (2011) en y ajoutant un terme de régularisation. Nous prouvons la convergence de notre estimateur pour la norme L2 de Lebesgue.Dans le troisième chapitre, nous montrons que lorsque les données ne sont pas indépendantes et identiquement distribuées (i.i.d) mais simplement jointement échangeables, une version modifiée du processus empirique converge faiblement vers un processus gaussien sous les mêmes conditions que dans le cas i.i.d. Nous obtenons un résultat similaire pour une version adaptée du processus empirique bootstrap. Nous déduisons de nos résultats la normalité asymptotique de plusieurs estimateurs non-linéaires ainsi que la validité de l'inférence basée sur le bootstrap. Nous revisitons enfin l'article empirique de Santos Silva et Tenreyro (2006).Dans le quatrième chapitre, nous abordons la question de l'inférence pour des ratios d'espérances. Nous trouvons que lorsque le dénominateur ne tend pas trop vite vers zéro quand le nombre d'observations n augmente, le bootstrap nonparamétrique est valide pour faire de l'inférence asymptotique. Dans un second temps, nous complétons un résultat d'impossibilité de Dufour (1997) en montrant que quand n est fini, il est possible de construire des intervalles de confiance qui ne sont pas pathologiques sont certaines conditions sur le dénominateur.Dans le cinquième chapitre, nous présentons une commande Stata qui implémente les estimateurs proposés par de Chaisemartin et d'Haultfoeuille (2018) pour mesurer plusieurs types d'effets de traitement très étudiés en pratique. / In the introductory chapter, we compare views on estimation and inference in the econometric and statistical learning disciplines.In the second chapter, our interest lies in a generic class of nonparametric instrumental models. We extend the estimation procedure in Otsu (2011) by adding a regularisation term to it. We prove the consistency of our estimator under Lebesgue's L2 norm.In the third chapter, we show that when observations are jointly exchangeable rather than independent and identically distributed (i.i.d), a modified version of the empirical process converges weakly towards a Gaussian process under the same conditions as in the i.i.d case. We obtain a similar result for a modified version of the bootstrapped empirical process. We apply our results to get the asymptotic normality of several nonlinear estimators and the validity of bootstrap-based inference. Finally, we revisit the empirical work of Santos Silva and Tenreyro (2006).In the fourth chapter, we address the issue of conducting inference on ratios of expectations. We find that when the denominator tends to zero slowly enough when the number of observations n increases, bootstrap-based inference is asymptotically valid. Secondly, we complement an impossibility result of Dufour (1997) by showing that whenever n is finite it is possible to construct confidence intervals which are not pathological under some conditions on the denominator.In the fifth chapter, we present a Stata command which implements estimators proposed in de Chaisemartin et d'Haultfoeuille (2018) to measure several types of treatment effects widely studied in practice.
9

Utilisation des ondelettes de Haar en estimation bayésienne

Leblanc, Alexandre January 2001 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
10

Sur la concentration, le bruit et l'estimation de l'entropie dans le systèmes dynamiques

Maldonado, Cesar 21 September 2012 (has links) (PDF)
Cette thèse est divisée en trois parties. Dans la prèmiere partie nous décrivons les systèmes dynamiques que l'on considère tout au long de la thèse. Nous donnons aussi des résultats connus sur les fluctuations d'observables dans les systèmes dynamiques tels comme la théorème central limite, les grands déviations et les inégalités de concentration. La deuxième partie de cette thèse est consacrée aux systèmes dynamiques perturbés par un bruit observationnel. Nous démontrons que si un système dynamique satisfait une inégalité de concentration alors le système perturbé satisfait lui aussi une inégalité de concentration adéquate. Ensuite nous appliquons ces inégalités pour obtenir des bornes sur la taille des fluctuations d'observables bruitées. Nous considérons comme observables la fonction d'auto-corrélation, la mesure empirique, l'estimateur à noyau de la densité de la mesure invariante et la dimension de corrélation. Nous étudions ensuite les travaux de S. Lalley sur le problème de débruitage d'une série temporelle. Etant donné une série temporelle générée par un système dynamique chaotique bruité, il est effectivement possible d'éliminer le bruit en moyenne en utilissant l'algorithme de Lalley. Un chapitre de cette thèse est consacré à la preuve de ce théorème. Nous finissons la deuxième partie avec une quête numérique pour les meilleurs paramètres de l'algorithme de Lalley. Dans la troisième partie, nous étudions le problème de l'estimation de l'entropie pour des mesures de Gibbs unidimensionnelles. Nous étudions les propriétés de deux estimateurs de l'entropie. Le premier est basé sur les fréquences des blocs typiques observés. Le second est basé sur les temps d'apparition de blocs typiques. Nous appliquons des inégalités de concentrations pour obtenir un contrôle sur les fluctuations de ces estimateurs.

Page generated in 0.0326 seconds