• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2049
  • 978
  • 292
  • 8
  • 3
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 3291
  • 1475
  • 668
  • 664
  • 573
  • 554
  • 372
  • 319
  • 293
  • 275
  • 275
  • 248
  • 223
  • 214
  • 213
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
331

Coût de la transplantation de cornée pour la Régie de l'assurance maladie du Québec

Fournier-Roussy, Jean-Pascal January 2006 (has links)
No description available.
332

Contribution à l’économétrie spatiale et l’analyse de données fonctionnelles / Contribution to spatial econometric and functional data analysis

Gharbi, Zied 24 June 2019 (has links)
Ce mémoire de thèse touche deux champs de recherche importants en statistique inférentielle, notamment l’économétrie spatiale et l’analyse de données fonctionnelles. Plus précisément, nous nous sommes intéressés à l’analyse de données réelles spatiales ou spatio-fonctionnelles en étendant certaines méthodes inférentielles pour prendre en compte une éventuelle dépendance spatiale. Nous avons d’abord considéré l’estimation d’un modèle autorégressif spatiale (SAR) ayant une variable dépendante fonctionnelle et une variable réponse réelle à l’aide d’observations sur une unité géographique donnée. Il s’agit d’un modèle de régression avec la spécificité que chaque observation de la variable indépendante collectée dans un emplacement géographique dépend d’observations de la même variable dans des emplacements voisins. Cette relation entre voisins est généralement mesurée par une matrice carrée nommée matrice de pondération spatiale et qui mesure l’effet d’interaction entre les unités spatiales voisines. Cette matrice est supposée exogène c’est-à-dire la métrique utilisée pour la construire ne dépend pas des mesures de variables explicatives du modèle. L’apport de cette thèse sur ce modèle réside dans le fait que la variable explicative est de nature fonctionnelle, à valeurs dans un espace de dimension infinie. Notre méthodologie d’estimation est basée sur une réduction de la dimension de la variable explicative fonctionnelle, par l’analyse en composantes principales fonctionnelles suivie d’une maximisation de la vraisemblance tronquée du modèle. Des propriétés asymptotiques des estimateurs, des illustrations des performances des estimateurs via une étude de Monte Carlo et une application à des données réelles environnementales ont été considérées. Dans la deuxième contribution, nous reprenons le modèle SAR fonctionnel étudié dans la première partie en considérant une structure endogène de la matrice de pondération spatiale. Au lieu de se baser sur un critère géographique pour calculer les dépendances entre localisations voisines, nous calculons ces dernières via un processus endogène, c’est-à-dire qui dépend des variables à expliquées. Nous appliquons la même approche d’estimation à deux étapes décrite ci-dessus, nous étudions aussi les performances de l’estimateur proposé pour des échantillons à taille finie et discutons le cadre asymptotique. Dans la troisième partie de cette contribution, nous nous intéressons à l’hétéroscédasticité dans les modèles partiellement linéaires pour variables exogènes réelles et variable réponse binaire. Nous proposons un modèle Probit spatial contenant une partie non-paramétrique. La dépendance spatiale est introduite au niveau des erreurs (perturbations) du modèle considéré. L’estimation des parties paramétrique et non paramétrique du modèle est récursive et consiste à fixer d’abord les composants paramétriques et à estimer la partie non paramétrique à l’aide de la méthode de vraisemblance pondérée puis utiliser cette dernière estimation pour construire un profil de la vraisemblance pour estimer la partie paramétrique. La performance de la méthode proposée est étudiée via une étude Monte Carlo. La contribution finit par une étude empirique sur la relation entre la croissance économique et la qualité environnementale en Suède à l’aide d’outils de l’économétrie spatiale. / This thesis covers two important fields of research in inferential statistics, namely spatial econometrics and functional data analysis. More precisely, we have focused on the analysis of real spatial or spatio-functional data by extending certain inferential methods to take into account a possible spatial dependence. We first considered the estimation of a spatial autoregressive model (SAR) with a functional dependent variable and a real response variable using observations on a given geographical unit. This is a regression model with the specificity that each observation of the independent variable collected in a geographical location depends on observations of the same variable in neighboring locations. This relationship between neighbors is generally measured by a square matrix called the spatial weighting matrix, which measures the interaction effect between neighboring spatial units. This matrix is assumed to be exogenous, i.e. the metric used to construct it does not depend on the explanatory variable. The contribution of this thesis to this model lies in the fact that the explanatory variable is of a functional nature, with values in a space of infinite dimension. Our estimation methodology is based on a dimension reduction of the functional explanatory variable through functional principal component analysis followed by maximization of the truncated likelihood of the model. Asymptotic properties of the estimators, illustrations of the performance of the estimators via a Monte Carlo study and an application to real environmental data were considered. In the second contribution, we use the functional SAR model studied in the first part by considering an endogenous structure of the spatial weighting matrix. Instead of using a geographical criterion to calculate the dependencies between neighboring locations, we calculate them via an endogenous process, i.e. one that depends on explanatory variables. We apply the same two-step estimation approach described above and study the performance of the proposed estimator for finite or infinite-tending samples. In the third part of this thesis we focus on heteroskedasticity in partially linear models for real exogenous variables and binary response variable. We propose a spatial Probit model containing a non-parametric part. Spatial dependence is introduced at the level of errors (perturbations) of the model considered. The estimation of the parametric and non-parametric parts of the model is recursive and consists of first setting the parametric parameters and estimating the non-parametric part using the weighted likelihood method and then using the latter estimate to construct a likelihood profile to estimate the parametric part. The performance of the proposed method is investigated via a Monte-Carlo study. An empirical study on the relationship between economic growth and environmental quality in Sweden using some spatial econometric tools finishes the document.
333

Gestion de donnée complexes pour la modélisation de niche écologique / Complex data management for ecological niche modeling

Bame, Ndiouma 19 June 2015 (has links)
Cette thèse concerne la gestion de données de biodiversité à large échelle. Elle a pour objectifs d’optimiser les requêtes pour les chercheurs qui peuvent accéder gratuitement aux données mondiales de biodiversité. Ces données partagées par des laboratoires de recherche du monde entier, sont mises à disposition du GBIF qui les fédère et les rend accessibles aux chercheurs, décideurs, grand public. Avec une quantité importante et une croissance rapide des données et des utilisateurs qui expriment de nouveaux besoins, le GBIF est confronté à un double problème d’expressivité des requêtes et d’efficacité. Ainsi, nous proposons une solution décentralisée pour l’interrogation des données de biodiversité. La solution cumule les ressources de plusieurs machines éloignées et peu puissantes pour offrir la puissance de calcul et de stockage nécessaire pour garantir la réactivité du système pour les usagers. En outre, elle fournit une interface d’interrogation de haut niveau qui est plus expressif pour les usagers. Puis, nous mettons en œuvre un mécanisme de répartition dynamique des données à la demande. Cette approche qui est basée sur la structure des données de biodiversité et les spécificités des requêtes d’analyse des usagers, adapte dynamiquement les capacités des machines aux demandes des usagers. Ensuite, nous proposons une approche d’optimisation de requêtes qui adapte dynamiquement le placement des données et la charge de chaque machine en fonction de ses performances pour traiter les requêtes des usagers dans des délais impartis. Nous avons validé expérimentalement cette solution avec des données réelles du GBIF concernant 100 millions observations. / This thesis concerns large scale biodiversity data management. Its objectives are to optimize queries for researchers who have free access to biodiversity worldwide data. These data which are shared by worldwide research laboratories are federated in GBIF data warehouse. GBIF makes accessible its data to researchers, policy makers and general public. With a significant amount of data and a rapid growth of data and users that express new needs, the GBIF portal is facing a double problem of expressiveness of queries and of efficiency. Thus, we propose a decentralized solution for biodiversity data interrogation. Our solution combines the resources of several of remote and limited machines to provide the needed computing and storage power to ensure system responsiveness for users. It also provides high-level query interface which is more expressive for users. Then, we propose a dynamic data distribution on demand approach. This approach which is based on data properties and characteristics of users analysis queries adapts dynamically machines capacities to users demands. Then, we propose a queries optimization approach that adapts dynamically data placement and machines loads according to performances in order to process users queries within deadlines. We experimentally validated our solution with real GBIF data concerning 100 million observation data.
334

Interrogation des bases de données XML probabilistes / Querying probabilistic XML

Souihli, Asma 21 September 2012 (has links)
XML probabiliste est un modèle probabiliste pour les bases de données incertaines semi-structurées, avec des applications telles que l'intégration incertaine de données, l'extraction d'informations ou le contrôle probabiliste de versions. Nous explorons dans cette thèse une solution efficace pour l'évaluation des requêtes tree-pattern avec jointures sur ces documents, ou, plus précisément, pour l'approximation de la probabilité d'une requête booléenne sur un document probabiliste. L'approche repose sur, d'une part, la production de la provenance probabiliste de la requête posée, et, d'autre part, la recherche d'une stratégie optimale pour estimer la probabilité de cette provenance. Cette deuxième partie s'inspire des approches des optimiseurs de requêtes: l'exploration de différents plans d'évaluation pour différentes parties de la formule et l'estimation du coût de chaque plan, suivant un modèle de coût établi pour les algorithmes de calcul utilisés. Nous démontrons l'efficacité de cette approche sur des jeux de données utilisés dans des travaux précédents sur l'interrogation des bases de données XML probabilistes, ainsi que sur des données synthétiques. / Probabilistic XML is a probabilistic model for uncertain tree-structured data, with applications to data integration, information extraction, or uncertain version control. We explore in this dissertation efficient algorithms for evaluating tree-pattern queries with joins over probabilistic XML or, more specifically, for approximating the probability of each item of a query result. The approach relies on, first, extracting the query lineage over the probabilistic XML document, and, second, looking for an optimal strategy to approximate the probability of the propositional lineage formula. ProApproX is the probabilistic query manager for probabilistic XML presented in this thesis. The system allows users to query uncertain tree-structured data in the form of probabilistic XML documents. It integrates a query engine that searches for an optimal strategy to evaluate the probability of the query lineage. ProApproX relies on a query-optimizer--like approach: exploring different evaluation plans for different parts of the formula and predicting the cost of each plan, using a cost model for the various evaluation algorithms. We demonstrate the efficiency of this approach on datasets used in a number of most popular previous probabilistic XML querying works, as well as on synthetic data. An early version of the system was demonstrated at the ACM SIGMOD 2011 conference. First steps towards the new query solution were discussed in an EDBT/ICDT PhD Workshop paper (2011). A fully redesigned version that implements the techniques and studies shared in the present thesis, is published as a demonstration at CIKM 2012. Our contributions are also part of an IEEE ICDE
335

Machine-learning pour la prédiction des prix dans le secteur du tourisme en ligne / A data-mining approach to travel price forecasting

Wohlfarth, Till 17 December 2013 (has links)
Nous nous intéressons au problème de la prédiction de l’occurrence d’une baisse de prix pour fournir un conseil à l’achat immédiat ou reporté d’un voyage sur un site web de comparaison des prix. La méthodologie proposée repose sur l’apprentissage statistique d’un modèle d’évolution du prix à partir de l’information conjointe d’attributs du voyage considéré et d’observations passées du prix et de la "popularité" celui-ci. L’originalité principale consiste à représenter l’évolution des prix par le processus ponctuel inhomogène des sauts de celui-ci. A partir d’une base de données constituée par liligo.com, nous mettons en oeuvre une méthode d’apprentissage d’un modèle d’évolution des prix. Ce modèle permet de fournir un prédicteur de l’occurrence d’une baisse du prix sur une période future donnée et donc de prodiguer un conseil d’achat ou d’attente au client. / The goal of this paper is to consider the design of decision-making tools in the context of varying travel prices from the customer’s perspective. Based on vast streams of heterogeneous historical data collected through the internet, we describe here two approaches to forecasting travel price changes at a given horizon, taking as input variables a list of descriptive characteristics of the flight, together with possible features of the past evolution of the related price series. Though heterogeneous in many respects ( e.g. sampling, scale), the collection of historical prices series is here represented in a unified manner, by marked point processes (MPP). State-of-the-art supervised learning algorithms, possibly combined with a preliminary clustering stage, grouping flights whose related price series exhibit similar behavior, can be next used in order to help the customer to decide when to purchase her/his ticket.
336

Décrypter la réponse thérapeutique des tumeurs en intégrant des données moléculaires, pharmacologiques et cliniques à l’aide de méthodes statistiques et informatiques / Deciphering Tumor Therapeutic Response by Integrating Molecular, Pharmacological and Clinical Data Using Statistical and Computational Methods

Carene, Dimitri 19 December 2019 (has links)
Le cancer est la cause la plus fréquente de décès dans le monde, avec 8,2 millions de décès par an. Des études génomiques à grande échelle ont montré que chaque tumeur est caractérisée par un profil génomique unique, conduisant au développement de la médecine de précision, où le traitement est adapté aux altérations génomiques de la tumeur du patient. Dans le cancer du sein précoce HR+/HER2-, les caractéristiques clinicopathologiques des patientes, bien qu’elles aient une valeur pronostique claire, ne sont pas suffisantes pour expliquer entièrement le risque de rechute à distance. L'objectif principal de ce projet de thèse était de déterminer les altérations génomiques impliquées dans la rechute à distance, en plus des paramètres cliniques des patientes, en utilisant des méthodes statistiques et informatiques. Ce projet a été réalisé à partir de données cliniques et génomiques (nombre de copies et mutations) issues des études PACS04 et METABRIC.Dans la première partie de mon projet de thèse, j’ai tout d’abord évalué la valeur pronostique du nombre de copies de gènes prédéfinis (FGFR1, Fibroblast Growth Factor Receptor 1 ; CCND1, Cyclin D1 ; ZNF217, Zinc Finger protein 217 ; ERBB2 ou HER2, Humain Epidermal Growth Factor) ainsi qu’un panel de mutations de gènes « driver ». Les résultats de l’étude PACS04 ont montrés que l’amplification de FGFR1 augmente le risque de rechute à distance alors que les mutations de MAP3K1 diminuent le risque de rechute. Ensuite, un score génomique fondé sur FGFR1 et MAP3K1 a été créé et a permis de déceler trois niveaux de risques de rechute à distance : risque faible (patientes ayant une mutation du gène MAP3K1), risque modéré (patientes n’ayant pas d’altération du nombre de copies de FGFR1 et n’ayant pas de mutation de MAP3K1) et risque élevé (patientes ayant une amplification de FGFR1 et n’ayant pas de mutation de MAP3K1). Enfin, ce score génomique a été validé sur une base de données publique, METABRIC. Dans la seconde partie de mon projet de thèse, de nouveaux biomarqueurs génomiques pronostiques de la survie ont pu être identifiés grâce aux méthodes pénalisées de type LASSO, prenant en compte la structure en bloc des données.Mots-clés : Altération du nombre de copies, mutations, cancer du sein, biomarqueurs, méthode de sélection de variables, réduction de dimension, modèle de Cox / Cancer is the most frequent cause of death in the world, with 8.2 million death / year. Large-scale genome studies have shown that each cancer is characterized by a unique genomic profile. This has led to the development of precision medicine, which aims at targeting treatment using tumor genomic alterations that are patient-specific. In hormone-receptor positive/human epidermal growth factor receptor-2 negative early breast cancer, clinicopathologic characteristics are not sufficient to fully explain the risk of distant relapse, despite their well-established prognostic value. The main objective of this thesis project was to use statistical and computational methods to assess to what extent genomic alterations are involved in distant breast cancer relapse in addition to classic prognostic clinicopathologic parameters. This project used clinical and genomic data (i.e., copy numbers and driver gene mutations) from the PACS04 and METABRIC trial.In the first part of my thesis project, I first evaluated prognostic value of copy numbers of predefined genes including FGFR1, Fibroblast Growth Factor Receptor 1; CCND1, Cyclin D1; ZNF217, Zinc Finger Protein 217; ERBB2 or HER2, Human Epidermal Growth Factor, as well as a panel of driver gene mutations. Results from the PACS04 trial showed that FGFR1 amplification increases the risk of distant relapse, whereas mutations of MAP3K1 decrease the risk of relapse. Second, a genomic score based on FGFR1 and MAP3K1, allowed to identify three levels of risk of distant relapse: low risk (patients with a MAP3K1 mutation), moderate risk (patients without FGFR1 copy number aberration and without MAP3K1 mutation) and high risk (patients with FGFR1 amplification and without MAP3K1 mutation). Finally, this genomic score was validated in METABRIC, a publicly available database. In the second part of my thesis project, new prognostic genomic biomarkers of survival were identified using penalized methods of LASSO type, taking into account the block structure of the data.Keywords: Copy number aberrations (CNA), mutations, breast cancer (BC), biomarkers, variable selection methods, dimension reduction, cox regression
337

Apprentissage neuronal profond pour l'analyse de contenus multimodaux et temporels / Deep learning for multimodal and temporal contents analysis

Vielzeuf, Valentin 19 November 2019 (has links)
Notre perception est par nature multimodale, i.e. fait appel à plusieurs de nos sens. Pour résoudre certaines tâches, il est donc pertinent d’utiliser différentes modalités, telles que le son ou l’image.Cette thèse s’intéresse à cette notion dans le cadre de l’apprentissage neuronal profond. Pour cela, elle cherche à répondre à une problématique en particulier : comment fusionner les différentes modalités au sein d’un réseau de neurones ?Nous proposons tout d’abord d’étudier un problème d’application concret : la reconnaissance automatique des émotions dans des contenus audio-visuels.Cela nous conduit à différentes considérations concernant la modélisation des émotions et plus particulièrement des expressions faciales. Nous proposons ainsi une analyse des représentations de l’expression faciale apprises par un réseau de neurones profonds.De plus, cela permet d’observer que chaque problème multimodal semble nécessiter l’utilisation d’une stratégie de fusion différente.C’est pourquoi nous proposons et validons ensuite deux méthodes pour obtenir automatiquement une architecture neuronale de fusion efficace pour un problème multimodal donné, la première se basant sur un modèle central de fusion et ayant pour visée de conserver une certaine interprétation de la stratégie de fusion adoptée, tandis que la seconde adapte une méthode de recherche d'architecture neuronale au cas de la fusion, explorant un plus grand nombre de stratégies et atteignant ainsi de meilleures performances.Enfin, nous nous intéressons à une vision multimodale du transfert de connaissances. En effet, nous détaillons une méthode non traditionnelle pour effectuer un transfert de connaissances à partir de plusieurs sources, i.e. plusieurs modèles pré-entraînés. Pour cela, une représentation neuronale plus générale est obtenue à partir d’un modèle unique, qui rassemble la connaissance contenue dans les modèles pré-entraînés et conduit à des performances à l'état de l'art sur une variété de tâches d'analyse de visages. / Our perception is by nature multimodal, i.e. it appeals to many of our senses. To solve certain tasks, it is therefore relevant to use different modalities, such as sound or image.This thesis focuses on this notion in the context of deep learning. For this, it seeks to answer a particular problem: how to merge the different modalities within a deep neural network?We first propose to study a problem of concrete application: the automatic recognition of emotion in audio-visual contents.This leads us to different considerations concerning the modeling of emotions and more particularly of facial expressions. We thus propose an analysis of representations of facial expression learned by a deep neural network.In addition, we observe that each multimodal problem appears to require the use of a different merge strategy.This is why we propose and validate two methods to automatically obtain an efficient fusion neural architecture for a given multimodal problem, the first one being based on a central fusion network and aimed at preserving an easy interpretation of the adopted fusion strategy. While the second adapts a method of neural architecture search in the case of multimodal fusion, exploring a greater number of strategies and therefore achieving better performance.Finally, we are interested in a multimodal view of knowledge transfer. Indeed, we detail a non-traditional method to transfer knowledge from several sources, i.e. from several pre-trained models. For that, a more general neural representation is obtained from a single model, which brings together the knowledge contained in the pre-trained models and leads to state-of-the-art performances on a variety of facial analysis tasks.
338

Un environnement d'apprentissage technologique pour la compréhension du concept de mesure en sciences expérimentales

Fournier, Frédéric January 2001 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
339

Application de la logique floue dans l'interpolation spatio-temporelle à l'aide d'un système d'information géographique

Dragićević, Suzana January 1998 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
340

Sélection d'oligonucléotides pour la fabrication de biopuces d'ADN

Dallaire, Paul January 2001 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Page generated in 0.0304 seconds