• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 30
  • 10
  • 2
  • Tagged with
  • 40
  • 18
  • 13
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Vers une optimisation du processus d'analyse en ligne de données 3D : cas des fouilles archéologiques

Rageul, Nicolas. January 1900 (has links) (PDF)
Thèse (M.Sc.)--Université Laval, 2007. / Titre de l'écran-titre (visionné le 5 mai 2008). Bibliogr.
2

Sondeur de canal MIMO temps réel et applications / Real time MIMO channel sounder and applications

Laly, Pierre 16 December 2016 (has links)
Pour atteindre avec la 4G des débits théoriques supérieurs à 100 Mb/s et espérer pouvoir multiplier par 20 l’efficacité énergétique des futurs réseaux 5G, toute la richesse du canal de propagation doit être exploitée. Cet axe de recherche innovant d’optimisation de la couche physique de la communication se base sur la caractérisation multidimensionnelle « temps réel » du canal. Cette notion de "temps réel" signifie que toutes les dimensions spatiales (à l'émission et à la réception), temporelle, fréquentielle et polarimétrique seront explorées simultanément pour s'assurer des conditions de stationnarité du canal pendant la mesure. Le sondeur associé, objet de la thèse, doit également être capable de s’adapter à différents scénarii de propagation, y compris à un contexte de haute mobilité pour une liaison sol-sol entre trains à grande vitesse par exemple. Le système qui a ainsi été développé à l'aide de composants numériques programmables, fournit avec un temps de latence inférieur à quelques dizaines de µs et sans post traitement, 128 fonctions de transfert associées à un canal MIMO (8,16) dans 80 MHz de bande, la durée du signal transmis étant de 150 µs. Sa reconfigurabilité aisée lui confère l'originalité d'être multi fonctions pour s'adapter aux challenges à venir. Citons par exemple la cybersécurité des communications sans fil pour laquelle l'équipement aura les rôles de système de communication, de générateur d'interférences et de sondeur de canal.Dans le cadre de la localisation, via leur téléphone portable de personnes situées en forêt, les résultats des campagnes de mesures menées avec le sondeur soit au sol, soit embarqué dans un ULM, sont également décrits. / To be able to reach a bit rate higher than 100Mb/s with 4G systems and to multiply by 20 the energy efficiency of future 5G networks, all the propagation channel richness must be exploited. This innovative research area dealing with the physical layer optimization is based on the multidimensional channel characterization in "real time". This concept of “real time” means that space, time, frequency and polarimetric dimensions are explored simultaneously to ensure stationarity conditions of the channel during measurements. The channel sounder, subject of the thesis, must also be able to adapt to different scenarios of propagation, including a context of high mobility as, for example, in the case of a communication between high-speed trains. The system that has been developed, based on programmable digital components, allows measuring in a 80Mz bandwidth, 128 transfer functions associated with a (8,16) MIMO channel in less than a few tens of µs and without post-processing. The duration of the transmitted signal is 150 µs. Another originality of this sounder is its easy reconfigurability and its multi-function ability. For example, for studying cyber security of wireless communications, it would play the role of communication system, interference source and channel sounder. In the frame of localization of people in forest owing to their mobile phone, results of channel characterization conducted with the sounder placed either on the ground, or in an ULM, are also described and analyzed.
3

Trois essais en théorie microéconomique

Lamirande, Patrick de January 2006 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
4

Impacts des migrations forcées sur les pays hôtes

Keita, Mama January 2007 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
5

Developing a model and a language to identify and specify the integrity constraints in spatial datacubes /

Salehi, Mehrdad. January 2009 (has links) (PDF)
Thèse (Ph. D.)--Université Laval, 2009. / Texte en anglais avec résumés en anglais et en français. Bibliogr.: f. 185-197. Publié aussi en version électronique dans la Collection Mémoires et thèses électroniques.
6

Impacts des migrations forcées sur les pays hôtes

Keita, Mama January 2007 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
7

Vers une optimisation du processus d'analyse en ligne de données 3D : cas des fouilles archéologiques

Rageul, Nicolas 13 April 2018 (has links)
L'archéologie est une discipline des sciences humaines dont l'objet d'étude est l'ensemble des vestiges matériels laissés par l'Homme (objets, bâtiments, infrastructures, paysages...). Une technique précise, la fouille, est employée afin de tirer toutes les informations possibles des sols et structures fouillés en tenant compte de la localisation exacte des objets découverts, de l'étude de la succession des différentes couches de terrain déblayé afin de pouvoir procéder à une datation stratigraphique. L'analyse d'une fouille archéologique demande souvent beaucoup d'efforts pour l'archéologue car, à ce jour, aucun système informatique n'a permis de clairement les aider dans l'analyse de leurs données. Ainsi, pour exploiter des données issues d'une fouille archéologique, nous avons identifié trois critères : la rapidité et la facilité d'utilisation, la possibilité de faire évoluer les données dans le système (les interprétations de l'archéologue suivant des heuristiques qui ne peuvent pas toujours être formalisées de façon absolue) et la visualisation tridimensionnelle. L'outil d'analyse en ligne de type SOLAP est optimisé pour une analyse interactive dite multidimensionnelle où les requêtes, même celles de types agrégatives sont simples et leurs réponses sont rapides. Reste donc à l'optimiser sur les deux autres critères retenus pour exploiter les données issues d'une fouille archéologique et qui marquent les principales faiblesses de l'outil : l'évolution des données pendant la phase d'analyse et l'intégration de la 3e dimension. Ce projet de maîtrise vise à apporter des nouveaux concepts permettant à un utilisateur de réviser ces données pendant sa phase d'analyse. Par la suite, un prototype appliqué à l'archéologie a été élaboré afin de vérifier simplement si les efforts pour réviser des données pouvaient être compatibles avec les efforts d'un outil d'analyse en ligne en conservant la fluidité d'exploration interactive. D'autre part, ce projet de maîtrise a permis d'étudier la faisabilité d'un SOLAP 3D et de soulever une interrogation sur la nécessité d'introduire la 3e dimension à un outil d'analyse en ligne.
8

Modélisation bayésienne des changements aux niches écologiques causés par le réchauffement climatique

Akpoué, Blache Paul 05 1900 (has links)
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche. / This thesis presents some estimation methods and algorithms to analyse count data in particular and discrete data in general. It is also part of an NSERC strategic project, named CC-Bio, which aims to assess the impact of climate change on the distribution of plant and animal species in Québec. After a brief introduction to the concepts and definitions of biogeography and those relative to the generalized linear mixed models in chapters 1 and 2 respectively, my thesis will focus on three major and new ideas. First, we introduce in chapter 3 a new form of distribution whose components have marginal distribution Poisson or Skellam. This new specification allows to incorporate relevant information about the nature of the correlations between all the components. In addition, we present some properties of this probability distribution function. Unlike the multivariate Poisson distribution initially introduced, this generalization enables to handle both positive and negative correlations. A simulation study illustrates the estimation in the two-dimensional case. The results obtained by Bayesian methods via Monte Carlo Markov chain (MCMC) suggest a fairly low relative bias of less than 5% for the regression coefficients of the mean. However, those of the covariance term seem a bit more volatile. Later, the chapter 4 presents an extension of the multivariate Poisson regression with random effects having a gamma density. Indeed, aware that the abundance data of species have a high dispersion, which would make misleading estimators and standard deviations, we introduce an approach based on integration by Monte Carlo sampling. The approach remains the same as in the previous chapter. Indeed, the objective is to simulate independent latent variables to transform the multivariate problem estimation in many generalized linear mixed models (GLMM) with conventional gamma random effects density. While the assumption of knowledge a priori dispersion parameters seems too strong and not realistic, a sensitivity analysis based on a measure of goodness of fit is used to demonstrate the robustness of the method. Finally, in the last chapter, we focus on the definition and construction of a measure of concordance or a correlation measure for some zeros augmented count data with Gaussian copula models. In contrast to Kendall's tau whose values lie in an interval whose bounds depend on the frequency of ties observations, this measure has the advantage of taking its values on the interval (-1, 1). Originally introduced to model the correlations between continuous variables, its extension to the discrete case implies certain restrictions and its values are no longer in the entire interval (-1,1) but only on a subset. Indeed, the new measure could be interpreted as the correlation between continuous random variables before being transformed to discrete variables considered as our discrete non negative observations. Two methods of estimation based on integration via Gaussian quadrature and maximum likelihood are presented. Some simulation studies show the robustness and the limits of our approach.
9

Analyse des propriétés stationnaires et des propriétés émergentes dans les flux d'information changeant au cours du temps / Analysis of stationary and emerging properties in information flows changing over time

Kassab, Randa 11 May 2009 (has links)
De nombreuses applications génèrent et reçoivent des données sous la forme de flux continu, illimité, et très rapide. Cela pose naturellement des problèmes de stockage, de traitement et d'analyse de données qui commencent juste à être abordés dans le domaine des flux de données. Il s'agit, d'une part, de pouvoir traiter de tels flux à la volée sans devoir mémoriser la totalité des données et, d'autre part, de pouvoir traiter de manière simultanée et concurrente l'analyse des régularités inhérentes au flux de données et celle des nouveautés, exceptions, ou changements survenant dans ce même flux au cours du temps. L'apport de ce travail de thèse réside principalement dans le développement d'un modèle d'apprentissage - nommé ILoNDF - fondé sur le principe de la détection de nouveauté. L'apprentissage de ce modèle est, contrairement à sa version de départ, guidé non seulement par la nouveauté qu'apporte une donnée d'entrée mais également par la donnée elle-même. De ce fait, le modèle ILoNDF peut acquérir constamment de nouvelles connaissances relatives aux fréquences d'occurrence des données et de leurs variables, ce qui le rend moins sensible au bruit. De plus, doté d'un fonctionnement en ligne sans répétition d'apprentissage, ce modèle répond aux exigences les plus fortes liées au traitement des flux de données. Dans un premier temps, notre travail se focalise sur l'étude du comportement du modèle ILoNDF dans le cadre général de la classification à partir d'une seule classe en partant de l'exploitation des données fortement multidimensionnelles et bruitées. Ce type d'étude nous a permis de mettre en évidence les capacités d'apprentissage pures du modèle ILoNDF vis-à-vis de l'ensemble des méthodes proposées jusqu'à présent. Dans un deuxième temps, nous nous intéressons plus particulièrement à l'adaptation fine du modèle au cadre précis du filtrage d'informations. Notre objectif est de mettre en place une stratégie de filtrage orientée-utilisateur plutôt qu'orientée-système, et ceci notamment en suivant deux types de directions. La première direction concerne la modélisation utilisateur à l'aide du modèle ILoNDF. Cette modélisation fournit une nouvelle manière de regarder le profil utilisateur en termes de critères de spécificité, d'exhaustivité et de contradiction. Ceci permet, entre autres, d'optimiser le seuil de filtrage en tenant compte de l'importance que pourrait donner l'utilisateur à la précision et au rappel. La seconde direction, complémentaire de la première, concerne le raffinement des fonctionnalités du modèle ILoNDF en le dotant d'une capacité à s'adapter à la dérive du besoin de l'utilisateur au cours du temps. Enfin, nous nous attachons à la généralisation de notre travail antérieur au cas où les données arrivant en flux peuvent être réparties en classes multiples. / Many applications produce and receive continuous, unlimited, and high-speed data streams. This raises obvious problems of storage, treatment and analysis of data, which are only just beginning to be treated in the domain of data streams. On the one hand, it is a question of treating data streams on the fly without having to memorize all the data. On the other hand, it is also a question of analyzing, in a simultaneous and concurrent manner, the regularities inherent in the data stream as well as the novelties, exceptions, or changes occurring in this stream over time. The main contribution of this thesis concerns the development of a new machine learning approach - called ILoNDF - which is based on novelty detection principle. The learning of this model is, contrary to that of its former self, driven not only by the novelty part in the input data but also by the data itself. Thereby, ILoNDF can continuously extract new knowledge relating to the relative frequencies of the data and their variables. This makes it more robust against noise. Being operated in an on-line mode without repeated training, ILoNDF can further address the primary challenges for managing data streams. Firstly, we focus on the study of ILoNDF's behavior for one-class classification when dealing with high-dimensional noisy data. This study enabled us to highlight the pure learning capacities of ILoNDF with respect to the key classification methods suggested until now. Next, we are particularly involved in the adaptation of ILoNDF to the specific context of information filtering. Our goal is to set up user-oriented filtering strategies rather than system-oriented in following two types of directions. The first direction concerns user modeling relying on the model ILoNDF. This provides a new way of looking at user's need in terms of specificity, exhaustivity and contradictory profile-contributing criteria. These criteria go on to estimate the relative importance the user might attach to precision and recall. The filtering threshold can then be adjusted taking into account this knowledge about user's need. The second direction, complementary to the first one, concerns the refinement of ILoNDF's functionality in order to confer it the capacity of tracking drifting user's need over time. Finally, we consider the generalization of our previous work to the case where streaming data can be divided into multiple classes.
10

Infrastructure adaptable pour les entrepots de données

Benitez Guerrero, Edgard-Iván 26 September 2002 (has links) (PDF)
Un entrepôt de données est une collection de données historiqucs exploitées par les applications d'aide à la décision. Il centralise des données d'intérêts pour un groupe d'utilisateurs afin de rendre leur accès rapide, peu coûteux et efficace. Dans cette thèse, noue nous intéressons à l'évolution des entrepôts dédiée aux applications d'analyse inultidiinerisioriilelle. Voue proposons une infrastructure pour la construction de gestionnaires d'entrepôt autorisant la création et l'évolution d'entretrepôts de données. Un gestionnaire d'entrepôt autorise la création du shéma d'un entrepôt et fournit les moyens pour le faire évoluer. Il offre également des outils pour construire l'entrepôt à partir des données provenant de multiples sources hétérogènes et autonomes. Il se base sur un modèle de données multidimensionnelles, pivot permettant d'un côté la manipulation du schéma à un niveau abstrait, et d'un autre côté, la fusion de données hétérogènes. Nous avons spécifié un modèle de données utilisé pour la définition de schemas multidimensionnels. Nous proposons un ensemble de primitives d'évolution de schéma qui assurent la cohérence d'un tel schéma entre deux évolutions successives. Nous avons proposé MDL, un langage associé à notre modèle, qui offre des expressions pour créer et faire évoluer des schémas multidimensionnels. Pour valider notre approche, nous avons implanté un prototype de gestionnaire d'entrepôt. Il assure la création et l'évolution d'un entrepôt de données relationnelles. Ce gestionnaire, développé en Java, intègre des données au format XML provenant de sources hétérogènes.

Page generated in 0.1022 seconds