• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 1
  • Tagged with
  • 6
  • 6
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Evaluation d'une mesure de similitude en classification supervisée : application à la préparation de données séquentielles

Ferrandiz, Sylvain 23 October 2006 (has links) (PDF)
En phase de préparation d'un processus de fouille de données, une part importante<br />du travail est consacrée à la construction et à la sélection des variables descriptives.<br />L'approche filtre univariée usuellement adoptée nécessite l'emploi d'une méthode<br />d'évaluation d'une variable. Nous considérons la question de l'évaluation supervisée d'une<br />variable séquentielle. Pour résoudre ce problème, nous montrons qu'il suffit de résoudre<br />un problème plus général : celui de l'évaluation supervisée d'une mesure de similitude.<br /><br />Nous proposons une telle méthode d'évaluation. Pour l'obtenir, nous formulons le<br />problème en un problème de recherche d'une partition de Voronoi informative. Nous<br />proposons un nouveau critère d'évaluation supervisée de ces partitions et une nouvelle<br />heuristique de recherche optimisée. Le critère prévient automatiquement le risque de surapprentissage<br />et l'heuristique trouve rapidement une bonne solution. Au final, la méthode<br />réalise une estimation non paramétrique robuste de la densité d'une variable cible catégorielle<br />conditionnellement à une mesure de similitude définie à partir d'une variable descriptive.<br /><br />La méthode a été testée sur de nombreux jeux de données. Son utilisation permet<br />de répondre à des questions comme : quel jour de la semaine ou quelle tranche horaire<br />sur la semaine discrimine le mieux le segment auquel appartient un foyer à partir de sa<br />consommation téléphonique fixe ? Quelle série de mesures permet de quantifier au mieux l'appétence à un nouveau service ?
2

Recherche d'une représentation des données efficace pour la fouille des grandes bases de données

Boullé, Marc 24 September 2007 (has links) (PDF)
La phase de préparation du processus de fouille des données est critique pour la qualité des résultats et consomme typiquement de l'ordre de 80% d'une étude. Dans cette thèse, nous nous intéressons à l'évaluation automatique d'une représentation, en vue de l'automatisation de la préparation des données. A cette fin, nous introduisons une famille de modèles non paramétriques pour l'estimation de densité, baptisés modèles en grille. Chaque variable étant partitionnée en intervalles ou groupes de valeurs selon sa nature numérique ou catégorielle, l'espace complet des données est partitionné en une grille de cellules résultant du produit cartésien de ces partitions univariées. On recherche alors un modèle où l'estimation de densité est constante sur chaque cellule de la grille. Du fait de leur très grande expressivité, les modèles en grille sont difficiles à régulariser et à optimiser. Nous avons exploité une technique de sélection de modèles selon une approche Bayesienne et abouti à une évaluation analytique de la probabilité a posteriori des modèles. Nous avons introduit des algorithmes d'optimisation combinatoire exploitant les propriétés de notre critère d'évaluation et la faible densité des données en grandes dimensions. Ces algorithmes ont une complexité algorithmique garantie, super-linéaire en nombre d'individus. Nous avons évalué les modèles en grilles dans de nombreux contexte de l'analyse de données, pour la classification supervisée, la régression, le clustering ou le coclustering. Les résultats démontrent la validité de l'approche, qui permet automatiquement et efficacement de détecter des informations fines et fiables utiles en préparation des données.
3

Échantillonnage de Gibbs avec augmentation de données et imputation multiple

Vidal, Vincent 11 April 2018 (has links)
L'objectif de ce mémoire est de comparer la méthode d'échantillonnage de Gibbs avec augmentation de données, telle que présentée par Paquet (2002) et Bernier-Martel (2005), avec celle de l'imputation multiple telle que présentée par Grégoire (2004). Le critère de comparaison sera le signe des coefficients estimés. Nous travaillerons dans le contexte de bases de données indépendantes et d'un modèle linéaire à choix discret. Le modèle sera exprimé en tenant compte du choix des modes de transport des ménages de la communauté urbaine de Toronto. Pour réaliser ce projet, nous utiliserons la base de données du TTS (Transportation Tomorrow Survey) de 1986 et de 1996. Les résultats n'ont pas tous été estimés par un signe cohérent à nos attentes. Toutefois, nous pouvons conclure que l'échantillonnage de Gibbs avec augmentation de données est une approche plus intéressante que l'imputation multiple, puisqu'elle a estimé un nombre plus élevé de bons signes.
4

Apports de la sismologie des étoiles F et G à l'étude des cœurs convectifs.

Deheuvels, Sébastien 19 October 2010 (has links) (PDF)
La qualité des données sismiques du satellite CoRoT ouvre de nouveaux horizons dans l'étude de la structure interne et de l'évolution des étoiles. Mon travail de thèse a consisté à l'analyse et à l'interprétation des spectres d'oscillations de pulsateurs de type solaire observés au sol et depuis l'espace, en particulier avec le satellite CoRoT. L'objectif de l'analyse d'un spectre d'oscillations est de déterminer les paramètres des modes propres de l'étoile (fréquences propres, amplitudes, durées de vie). Au sein du DAT (groupe en charge de l'analyse des pulsateurs de type solaire observés avec CoRoT), j'ai contribué à adapter aux objets étudiés une méthode utilisée avec succès pour extraire les paramètres des modes du Soleil. J'ai appliqué cette méthode à l'analyse des cinq premiers pulsateurs de type solaire observés avec CoRoT. Un soin particulier a été consacré à l'étude de la significativité des pics détectés, qui a permis de conforter la détection de modes mixtes dans le spectre de l'étoile HD 49385. Dans le cadre de mon travail de modélisation et d'interprétation, j'ai recherché les informations qu'apportent les paramètres sismiques sur la structure du cœur de certaines des étoiles analysées. Ces étoiles possèdent (ou ont possédé) un cœur convectif, dont les caractéristiques dépendent des processus de transport des éléments chimiques (e.g. l'overshooting), aujourd'hui mal décrits par les modèles théoriques. J'ai modélisé trois pulsateurs de type solaire de masses et de stades évolutifs différents, dont les paramètres sismiques permettent de sonder le cœur et donc de contraindre observationnellement les processus de transport. En particulier, la détection dans l'étoile HD 49385 de modes mixtes en croisement évité m'a amené à étudier l'apport de ce type de mode à la compréhension de la structure du cœur.
5

ORBS : élaboration d'un logiciel de réduction de données pour SpIOMM et SITELLE et application à l'étude de M1-67

Martin, Thomas 23 April 2018 (has links)
SpIOMM (le spectromètre-imageur de l’observatoire du Mont-Mégantic), installé à l’observatoire du Mont-Mégantic depuis 2004, est un spectromètre-imageur à transformée de Fourier qui reste, à ce jour, le seul instrument au monde en mesure d’échantillonner un champ de 12 minutes d’arc en 1.4 millions de spectres dans les longueurs d’onde du visible. L’installation, en 2010, d’une seconde caméra, qui a ouvert la possibilité d’utiliser les données présentes sur le second port de sortie de l’interféromètre, d’une part, et la réalisation de SITELLE (le spectromètre-imageur pour l’étude en long et en large des raies d’émission), une version améliorée de SpIOMM pour le télescope Canada-France-Hawaï, d’autre part, ont rendu impératif le développement d’un logiciel de réduction capable de combiner les données issues des deux ports de sorties pour en tirer toute l’information disponible. L’essentiel de cette thèse porte sur l’élaboration de ORBS, un logiciel de réduction des données de SpIOMM et SITELLE entièrement automatique et conçu sur un modèle architectural ouvert et évolutif. Une étude de la nébuleuse Wolf-Rayet M1-67, réalisée à partir des données de SpIOMM réduites avec ORBS, qui démontre clairement, et pour la première fois, l’existence de deux régions de matériel fortement enrichi en azote, est également présentée à titre d’application. / SpIOMM (spectromètre-imageur de l’observatoire du Mont-Mégantic), attached to the telescope of the Observatoire du Mont-Mégantic, is an imaging Fourier transform spectrometer which is still the only instrument in the world capable of sampling a 12 arc-minute field of view into 1.4 million spectra in the visible band. Since the installation in 2010 of a second camera, which has given the possibility of using the data on the second port of the interferometer, on the one hand, and the development of SITELLE (spectromètre-imageur pour l’étude en long et en large des raies d’émission), an upgraded version of SpIOMM, for the Canada-France-Hawaii Telescope, on the other hand, the design of a data reduction software capable of combining the data of both ports, has become a necessity. The main part of this thesis concerns ORBS, a data reduction software for SpIOMM and SITELLE fully automated and based on an open and upgradable architecture. An application to the study of the Wolf-Rayet nebula M1-67, which, for the first time, clearly demonstrates the existence of two regions made of a material strongly enriched in nitrogen, is also presented.
6

Estimation bayesienne d'un modèle de volatilité stochastique et application au risque de taux d'intérêt

Cloutier, Jean January 2011 (has links)
La modélisation de la volatilité des actifs financiers s'est avérée un sujet très populaire depuis plusieurs années. La performance accrue des ordinateurs a permis d'appliquer les méthodes bayésiennes à l'estimation de ces modèles. Ce mémoire traite de l'estimation bayesienne des modèles d'un modèle de volatilité stochastique dans ses versions univariées et multivariées. L'estimation se fait par un algorithme MCMC via la technique de l'augmentation des données. Par la suite, une application au calcul de la valeur-à-risque sur un titre à revenus fixes est démontrée.

Page generated in 0.1598 seconds