• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 74
  • 20
  • 3
  • 1
  • 1
  • Tagged with
  • 99
  • 99
  • 40
  • 20
  • 20
  • 16
  • 14
  • 14
  • 14
  • 12
  • 12
  • 11
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Apprentissage par renforcement pour la généralisation des approches automatiques dans la conception des systèmes de dialogue oral

Pinault, Florian 24 November 2011 (has links) (PDF)
Les systèmes de dialogue homme machine actuellement utilisés dans l'industrie sont fortement limités par une forme de communication très rigide imposant à l'utilisateur de suivre la logique du concepteur du système. Cette limitation est en partie due à leur représentation de l'état de dialogue sous la forme de formulaires préétablis.Pour répondre à cette difficulté, nous proposons d'utiliser une représentation sémantique à structure plus riche et flexible visant à permettre à l'utilisateur de formuler librement sa demande.Une deuxième difficulté qui handicape grandement les systèmes de dialogue est le fort taux d'erreur du système de reconnaissance vocale. Afin de traiter ces erreurs de manière quantitative, la volonté de réaliser une planification de stratégie de dialogue en milieu incertain a conduit à utiliser des méthodes d'apprentissage par renforcement telles que les processus de décision de Markov partiellement observables (POMDP). Mais un inconvénient du paradigme POMDP est sa trop grande complexité algorithmique. Certaines propositions récentes permettent de réduire la complexité du modèle. Mais elles utilisent une représentation en formulaire et ne peuvent être appliqués directement à la représentation sémantique riche que nous proposons d'utiliser.Afin d'appliquer le modèle POMDP dans un système dont le modèle sémantique est complexe, nous proposons une nouvelle façon de contrôler sa complexité en introduisant un nouveau paradigme : le POMDP résumé à double suivi de la croyance. Dans notre proposition, le POMDP maitre, complexe, est transformé en un POMDP résumé, plus simple. Un premier suivi de croyance (belief update) est réalisé dans l'espace maitre (en intégrant des observations probabilistes sous forme de listes nbest). Et un second suivi de croyance est réalisé dans l'espace résumé, les stratégies obtenues sont ainsi optimisées sur un véritable POMDP.Nous proposons deux méthodes pour définir la projection du POMDP maitre en un POMDP résumé : par des règles manuelles et par regroupement automatique par k plus proches voisins. Pour cette dernière, nous proposons d'utiliser la distance d'édition entre graphes, que nous généralisons pour obtenir une distance entre listes nbest.En outre, le couplage entre un système résumé, reposant sur un modèle statistique par POMDP, et un système expert, reposant sur des règles ad hoc, fournit un meilleur contrôle sur la stratégie finale. Ce manque de contrôle est en effet une des faiblesses empêchant l'adoption des POMDP pour le dialogue dans l'industrie.Dans le domaine du renseignement d'informations touristiques et de la réservation de chambres d'hôtel, les résultats sur des dialogues simulés montrent l'efficacité de l'approche par renforcement associée à un système de règles pour s'adapter à un environnement bruité. Les tests réels sur des utilisateurs humains montrent qu'un système optimisé par renforcement obtient cependant de meilleures performances sur le critère pour lequel il a été optimisé.
52

Measuring, Modeling, and Forecasting Volatility and Correlations from High-Frequency Data

Vander Elst, Harry-Paul 20 May 2016 (has links)
This dissertation contains four essays that all share a common purpose: developing new methodologies to exploit the potential of high-frequency data for the measurement, modeling and forecasting of financial assets volatility and correlations. The first two chapters provide useful tools for univariate applications while the last two chapters develop multivariate methodologies. In chapter 1, we introduce a new class of univariate volatility models named FloGARCH models. FloGARCH models provide a parsimonious joint model for low frequency returns and realized measures, and are sufficiently flexible to capture long memory as well as asymmetries related to leverage effects. We analyze the performances of the models in a realistic numerical study and on the basis of a data set composed of 65 equities. Using more than 10 years of high-frequency transactions, we document significant statistical gains related to the FloGARCH models in terms of in-sample fit, out-of-sample fit and forecasting accuracy compared to classical and Realized GARCH models. In chapter 2, using 12 years of high-frequency transactions for 55 U.S. stocks, we argue that combining low-frequency exogenous economic indicators with high-frequency financial data improves the ability of conditionally heteroskedastic models to forecast the volatility of returns, their full multi-step ahead conditional distribution and the multi-period Value-at-Risk. Using a refined version of the Realized LGARCH model allowing for time-varying intercept and implemented with realized kernels, we document that nominal corporate profits and term spreads have strong long-run predictive ability and generate accurate risk measures forecasts over long-horizon. The results are based on several loss functions and tests, including the Model Confidence Set. Chapter 3 is a joint work with David Veredas. We study the class of disentangled realized estimators for the integrated covariance matrix of Brownian semimartingales with finite activity jumps. These estimators separate correlations and volatilities. We analyze different combinations of quantile- and median-based realized volatilities, and four estimators of realized correlations with three synchronization schemes. Their finite sample properties are studied under four data generating processes, in presence, or not, of microstructure noise, and under synchronous and asynchronous trading. The main finding is that the pre-averaged version of disentangled estimators based on Gaussian ranks (for the correlations) and median deviations (for the volatilities) provide a precise, computationally efficient, and easy alternative to measure integrated covariances on the basis of noisy and asynchronous prices. Along these lines, a minimum variance portfolio application shows the superiority of this disentangled realized estimator in terms of numerous performance metrics. Chapter 4 is co-authored with Niels S. Hansen, Asger Lunde and Kasper V. Olesen, all affiliated with CREATES at Aarhus University. We propose to use the Realized Beta GARCH model to exploit the potential of high-frequency data in commodity markets. The model produces high quality forecasts of pairwise correlations between commodities which can be used to construct a composite covariance matrix. We evaluate the quality of this matrix in a portfolio context and compare it to models used in the industry. We demonstrate significant economic gains in a realistic setting including short selling constraints and transaction costs. / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished
53

Modélisation de la trajectoire criminelle de jeunes contrevenants à l'aide de modèles linéaires généralisés mixtes

Veilleux, Lucie 11 April 2018 (has links)
La régression linéaire est souvent utilisée en pratique afin de trouver une relation entre une variable réponse et une ou plusieurs variable(s) explicative(s). Une lacune de cette méthode est qu'elle est inappropriée si la variable réponse en est une de dénombrement. Dans un tel cas, la régression de Poisson doit être utilisée. Ce mémoire décrira de façon détaillée la régression de Poisson. Les propriétés de la loi de Poisson seront énoncées dans le but d'expliquer la régression de Poisson. Les équations d'estimation généralisées (GEE) seront ensuite introduites dans un éventuel but d'élargir la régression de Poisson dans les situations où les données sont corrélées (par exemple, les données longitudinales). Les modèles linéaires généralisés mixtes seront aussi considérés. Les modèles additifs généralisés seront ensuite brièvement expliqués et nous présenterons finalement une étude détaillée d'une base de données sur les trajectoires criminelles de jeunes contrevenants.
54

La régression non paramétrique multidimensionnelle. Théorie et application à une étude portant sur la densité mammaire

Vandal, Nathalie 11 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2005-2006 / La régression non paramétrique est un outil statistique permettant de décrire la relation entre une variable dépendante et une ou plusieurs variables explicatives, sans spécifier de forme stricte pour cette relation. Dans ce mémoire, on présente d'abord la théorie entourant la régression non paramétrique univariée ainsi que différentes méthodes d'estimation, en mettant l'accent sur les fonctions de lissage loess et les splines de régression. On traite ensuite de l'ajustement de relations multidimensionnelles, en s'intéressant plus particulièrement aux méthodes GAM, polyMARS et MARS. On ap- plique finalement ces dernières à une étude portant sur la relation entre la densité mammaire et deux facteurs de croissance analogues à l'insuline, IGF-I et IGFBP-3, ce qui permet de mettre en évidence les avantages de la régression non paramétrique, mais aussi les difficultés rencontrées lors de son application.
55

Geostatistical analysis of the troilus deposit : uncertainty and risk assessment of the mine planning strategy

Dubé, Pascal 20 April 2018 (has links)
Ce mémoire étudie l’effet de l’incertitude locale et spatiale sur les réserves du gisement d’or Troilus. Deux méthodes géostatistiques ont été utilisées, soit le krigeage des indicatrices et la simulation séquentielle des indicatrices. En premier lieu, une nouvelle interprétation géologique du gisement a été faite basée sur les trous de forage d’exploration. Pour chaque zone définie, une série de variogrames ont été calculés et un modèle de bloc a été interpolé par krigeage des indicatrices. La calibration de ce modèle a été faite en le comparant au modèle basé sur les trous de forage de production et aux données actuelles de production. L’incertitude reliée à la variabilité de la minéralization a été quantifiée par l’entremise de 25 simulations séquentielles. Une série de fosses optimales basées sur chaque simulation ont été réalisées afin d’analyser l’impact sur la valeur présente nette, le tonnage de minerai et le nombre d’onces d’or contenues. / This thesis examines the effect of local and spatial uncertainty of the mineral reserves estimates for the Troilus gold deposit. Two geostatistical methods have been used: indicator kriging and sequential indicator simulation. A new set of geological envelope has been defined based on the grade distribution of the exploration hole samples. For each zone, composites, statistics and variograms have been calculated based on gold assays coming from exploration holes (DDH) and production blastholes (BH). A recoverable reserve block model based on indicator kriging was created from the exploration holes and a grade control block model was produced from the production blastholes. The recoverable reserve model was calibrated based on the grade control model and the data from the mined out part of the orebody. Uncertainty related to the variability of the mineralization was assessed through 25 conditionally simulated block models. Open pit optimization Whittle software was used as a transfer function to compare each model. Elements such as ore tonnage, grade, ounces contained and discounted value (NPV) have been used to analyse the risk inherent to each model. Finally, reserve estimates within an already established pit design were used as a second method of comparison.
56

Adéquation du modèle de socialisation à la consommation appliquée au domaine de l'épargne et invariance selon le mode de collecte de données

Cloutier, Jacinthe 18 April 2018 (has links)
La venue de l'Internet engendre chez les chercheurs des préoccupations à l'égard de possibles biais liés au choix du mode de collecte de données. La présente recherche consiste à vérifier l'adéquation aux données du modèle de socialisation à la consommation (Moschis & Churchill, 1978) appliqué au domaine de l'épargne et d'effectuer une comparaison des résultats obtenus au selon le mode de collecte de données (téléphone ou Internet). Le modèle de socialisation à la consommation regroupe les influences de différentes variables socioéconomiques ainsi que d'agents de socialisation (parents, pairs, médias, école, etc.) sur l'apprentissage de connaissances, de comportements ou d'attitudes en matière de consommation chez les jeunes. Cette recherche comporte deux volets : (a) l'adéquation du modèle de socialisation à la consommation est vérifiée à l'aide d'analyses acheminatoires basées sur les équations structurelles et (b) des analyses par équations structurelles pour vérifier l'invariance du modèle selon le mode de collecte de données sont effectuées. Les données utilisées proviennent d'une étude plus large qui visait à mesurer différents concepts liés aux compétences en matière d'épargne. Un total de 1 366 jeunes adultes québécois âgés entre 18 et 29 ans a complété un questionnaire (téléphone : n = 400 [221 femmes, 179 hommes]; Internet : n = 966 [652 femmes, 314 hommes]). Les résultats obtenus au premier volet indiquent d'abord un bon ajustement du modèle de socialisation à la consommation aux données. Le niveau de compétence des jeunes adultes en matière d'épargne est défini en grande partie par leurs comportements. De plus, parmi les deux sources d'influence, ce sont celles non spécialisées (parents, amis, collègues) qui les incitent le plus à épargner. Au Volet 2, un seul lien diffère d'amplitude selon le mode de collecte de données, soit celui reliant les sources d'influence non spécialisées au facteur latent « compétence ». Une explication possible de ces variations selon le mode de collecte de données est qu'elles seraient causées par les différences observées sur le plan du profil des deux échantillons plutôt que par le modèle.
57

La réinsertion sociale et les besoins criminogènes des hommes adultes ayant commis des crimes de nature sexuelle

Togola, Kadidia 28 March 2022 (has links)
Guidée par le modèle théorique du risque du besoin et de la réceptivité (RBR) d'Andrews et Bonta, la présente étude s'est centrée sur les enjeux reliés à la réinsertion sociale des individus ayant commis des délits à caractère sexuel. Les besoins criminogènes, également appelés facteurs dynamiques ont fait l'objet d'une attention particulière puisqu'ils peuvent nous informer sur la réinsertion sociale. Dans le cadre de la recherche, des facteurs dynamiques associés à la récidive criminelle ont été sélectionnés afin d'évaluer s'ils avaient un impact sur la réinsertion sociale. Afin d'avoir un aperçu plus concret de ces enjeux, un échantillon de 300 contrevenants ayant commis des délits à caractère sexuel ont été comparés avec un autre groupe de 300 contrevenants ayant commis un délit qui n'était pas de nature sexuelle. L'outil actuariel de quatrième génération nommé LS/CMI a été utilisé dans le cadre de la recherche puisqu'il permet d'évaluer et de gérer le risque des personnes contrevenantes. Des analyses descriptives et bivariées ont été effectuées afin d'identifier si des similarités et des différences existent entre les deux groupes. Les résultats de l'étude ont mis en évidence que les dimensions en lien avec les fréquentations, les loisirs et les activités récréatives, les attitudes et orientations procriminelles et la famille et le couple étaient des besoins criminogènes à surveiller pour ces individus lors de leur réinsertion sociale. Les résultats de l'étude suggèrent également qu'une attention soit portée sur l'évaluation des besoins criminogènes liés à la réinsertion sociale et non seulement sur les facteurs dynamiques liés à la récidive sexuelle, car les besoins criminogènes informent aussi sur la réinsertion sociale. La réinsertion sociale des personnes ayant commis des délits à caractère sexuel est un sujet essentiel auquel il faut se pencher davantage dans la pratique du travail social. Le développement des connaissances sur cette population et les problématiques reliées pourront amener les travailleurs sociaux à être plus impliqués dans la sphère sociojudiciaire et y apporter leur savoir-faire dans la pratique.
58

Minimisation de la gigue d'échantillonnage d'un spectromètre à transformée de Fourier imageur à détecteur intégrateur en présence de perturbations mécaniques

Déry, Jean-Philippe 18 April 2018 (has links)
Le développement des spectromètres par transformée de Fourier (FTS) a connu un essor important en bénéficiant de l'attention de nombreux groupes de recherche à travers le monde depuis les années 1960 (bien que cet instrument existait déjà bien avant), résultant dans la connaissance approfondie que nous en avons aujourd'hui. Dans les années 1990 et 2000, l'augmentation grandissante des performances des caméras à intégration (de type «charge-coupled device» (CCD) ou autre) a permis la croissance accélérée de la technologie FTS imageur, combinant ainsi l'information spatiale à l'information spectrale, et ouvrant la porte à de nouvelles applications pour cet instrument de pointe. Mise à part la quantité phénoménale de données produite par un tel instrument, certains aspects fondamentaux de l'appareil, bien caractérisés pour les instruments mono-pixel, méritent une nouvelle analyse lorsqu'un détecteur de type intégrateur est utilisé. Ce mémoire de maîtrise se concentre sur l'un de ces éléments : la minimisation de la gigue d'échantillonnage des données acquises en présence de perturbations mécaniques. Cette gigue étant principalement due aux variations de vitesse du chariot du miroir en mouvement dans l'instrument, la qualité de l'information de position et de vitesse est tout d'abord améliorée afin d'obtenir un estimé plus précis de l'état du chariot. Puis, sur la base de cette connaissance fiable, deux approches générales sont analysées. Dans un premier temps, une approche de réduction de la gigue d'échantillonnage a priori (soit avant l'intégration intrinsèque à l'acquisition avec une caméra) est abordée et les performances de trois méthodes de génération des instants d'échantillonnage sont comparées, à la fois en simulation et via leur implantation dans un système réel. Dans un deuxième temps, deux algorithmes de ré-échantillonnage sont utilisés afin de corriger la grille d'échantillonnage a posteriori, soit avec la connaissance de la position d'échantillonnage du signal telle qu'estimée par le laser de référence. Pour terminer, l'analyse combinée des résultats fait ressortir la meilleure approche globale et les ressources technologiques requises pour l'implémenter.
59

Estimation de la variance et construction d'intervalles de confiance pour le ratio standardisé de mortalité avec application à l'évaluation d'un programme de dépistage du cancer

Talbot, Denis 17 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2010-2011 / L'effet d'un programme de dépistage de cancer peut être évalué par le biais d'un ratio standardisé de mortalité (SMR). Dans ce mémoire, nous proposons un estimateur de la variance du dénominateur du SMR, c'est-à-dire du nombre de décès attendus, dans le cas où ce dernier est calculé selon la méthode de Sasieni. Nous donnons d'abord une expression générale pour la variance, puis développons des cas particuliers où des estimateurs spécifiques de l'incidence de la maladie et de son temps de survie sont utilisés. Nous montrons comment ce nouvel estimateur de la variance peut être utilisé dans la construction d'intervalles de confiance pour le SMR. Nous étudions la couverture de différents types d'intervalles de confiance par le biais de simulations et montrons que les intervalles utilisant l'estimateur de variance proposé disposent des meilleures propriétés. Nous appliquons la méthode suggérée sur les données du Programme québécois de dépistage du cancer du sein.
60

Integrated Population Models and Habitat Metrics for Wildlife Management

Nowak, James 23 April 2018 (has links)
La gestion des espèces est entièrement dépendante de notre capacité à évaluer les décisions de gestion et de les corriger si nécessaire. Dans un monde idéal les gestionnaires auraient une connaissance extensive et mécanistique des systèmes qu’ils gèrent et ces connaissances seraient mises à jour de façon continue. Dans la réalité, les gestionnaires doivent gérer les populations et développer des objectifs de populations en dépit de leur connaissance imparfaites et des manques de données chronique. L’émergence de nouveaux outils statistiques ouvrent toutefois la porte à de nouvelles possibilités ce qui permet une gestion plus proactive de la faune. Dans le Chapitre 1, j’ai évalué l’efficacité de modèles intégrés de populations (MIP) à combler des lacunes dans notre connaissance en présence de données limitées et de modèles de populations mal spécifiés. J’ai démontré que les MIP peuvent maintenir une précision élevée et présenter un biais faible, et ce dans une large gamme de conditions. Dans le chapitre 2, j’ai développé une approche de MIP qui inclut des effets aléatoires entre les différentes populations. J’ai constaté que les effets aléatoires permettent améliorer considérablement les performances des algorithmes d'optimisation, produisent des estimations raisonnables et permettent même d'estimer les paramètres pour les populations avec des données très limitées. J’ai par la suite appliqué le modèle à 51 unités de gestion du Wapiti en Idaho, USA afin de démonter son application. La viabilité des populations à long terme est généralement réalisé à grâce à des manipulations d’habitat qui sont identifiées grâces à des méthodes de sélection des ressources. Les méthodes basées sur la sélection des ressources assume cependant que l’utilisation disproportionnée d’une partie du paysage reflète la volonté d’un individu de remplir une partie de son cycle biologique. Toutefois, dans le troisième chapitre j’ai démontré que des simples mesures d’habitat sont à mieux de décrire la variation dans la survie des Wapitis. Selon, mes résultats, la variation individuelle dans la sélection des habitats était le modèle qui expliquait le mieux la corrélation entre les habitats et le succès reproducteur et que les coefficients de sélection des ressources n’étaient pas corrélés à la survie. / Successful management of harvested species critically depends on an ability to predict the consequences of corrective actions. Ideally, managers would have comprehensive, quantitative and continuous knowledge of a managed system upon which to base decisions. In reality, wildlife managers rarely have comprehensive system knowledge. Despite imperfect knowledge and data deficiencies, a desire exists to manipulate populations and achieve objectives. To this end, manipulation of harvest regimes and the habitat upon which species rely have become staples of wildlife management. Contemporary statistical tools have potential to enhance both the estimation of population size and vital rates while making possible more proactive management. In chapter 1 we evaluate the efficacy of integrated population models (IPM) to fill knowledge voids under conditions of limited data and model misspecification. We show that IPMs maintain high accuracy and low bias over a wide range of realistic conditions. In recognition of the fact that many monitoring programs have focal data collection areas we then fit a novel form of the IPM that employs random effects to effectively share information through space and time. We find that random effects dramatically improve performance of optimization algorithms, produce reasonable estimates and make it possible to estimate parameters for populations with very limited data. We applied these random effect models to 51 elk management units in Idaho, USA to demonstrate the abilities of the models and information gains. Many of the estimates are the first of their kind. Short-term forecasting is the focus of population models, but managers assess viability on longer time horizons through habitat. Modern approaches to understanding large ungulate habitat requirements largely depend on resource selection. An implicit assumption of the resource selection approach is that disproportionate use of the landscape directly reflects an individual’s desire to meet life history goals. However, we show that simple metrics of habitat encountered better describe variations in elk survival. Comparing population level variation through time to individual variation we found that individual variation in habitat used was the most supported model relating habitat to a fitness component. Further, resource selection coefficients did not correlate with survival.

Page generated in 0.0946 seconds