• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 57
  • 47
  • 1
  • Tagged with
  • 101
  • 101
  • 55
  • 53
  • 23
  • 23
  • 17
  • 16
  • 15
  • 14
  • 13
  • 13
  • 11
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Efficient sequential learning in structured and constrained environments / Apprentissage séquentiel efficace dans des environnements structurés avec contraintes

Calandriello, Daniele 18 December 2017 (has links)
L'avantage principal des méthodes d'apprentissage non-paramétriques réside dans le fait que la nombre de degrés de libertés du modèle appris s'adapte automatiquement au nombre d'échantillons. Ces méthodes sont cependant limitées par le "fléau de la kernelisation": apprendre le modèle requière dans un premier temps de construire une matrice de similitude entre tous les échantillons. La complexité est alors quadratique en temps et espace, ce qui s'avère rapidement trop coûteux pour les jeux de données de grande dimension. Cependant, la dimension "effective" d'un jeu de donnée est bien souvent beaucoup plus petite que le nombre d'échantillons lui-même. Il est alors possible de substituer le jeu de donnée réel par un jeu de données de taille réduite (appelé "dictionnaire") composé exclusivement d'échantillons informatifs. Malheureusement, les méthodes avec garanties théoriques utilisant des dictionnaires comme "Ridge Leverage Score" (RLS) ont aussi une complexité quadratique. Dans cette thèse nous présentons une nouvelle méthode d'échantillonage RLS qui met à jour le dictionnaire séquentiellement en ne comparant chaque nouvel échantillon qu'avec le dictionnaire actuel, et non avec l'ensemble des échantillons passés. Nous montrons que la taille de tous les dictionnaires ainsi construits est de l'ordre de la dimension effective du jeu de données final, garantissant ainsi une complexité en temps et espace à chaque étape indépendante du nombre total d'échantillons. Cette méthode présente l’avantage de pouvoir être parallélisée. Enfin, nous montrons que de nombreux problèmes d'apprentissage non-paramétriques peuvent être résolus de manière approchée grâce à notre méthode. / The main advantage of non-parametric models is that the accuracy of the model (degrees of freedom) adapts to the number of samples. The main drawback is the so-called "curse of kernelization": to learn the model we must first compute a similarity matrix among all samples, which requires quadratic space and time and is unfeasible for large datasets. Nonetheless the underlying effective dimension (effective d.o.f.) of the dataset is often much smaller than its size, and we can replace the dataset with a subset (dictionary) of highly informative samples. Unfortunately, fast data-oblivious selection methods (e.g., uniform sampling) almost always discard useful information, while data-adaptive methods that provably construct an accurate dictionary, such as ridge leverage score (RLS) sampling, have a quadratic time/space cost. In this thesis we introduce a new single-pass streaming RLS sampling approach that sequentially construct the dictionary, where each step compares a new sample only with the current intermediate dictionary and not all past samples. We prove that the size of all intermediate dictionaries scales only with the effective dimension of the dataset, and therefore guarantee a per-step time and space complexity independent from the number of samples. This reduces the overall time required to construct provably accurate dictionaries from quadratic to near-linear, or even logarithmic when parallelized. Finally, for many non-parametric learning problems (e.g., K-PCA, graph SSL, online kernel learning) we we show that we can can use the generated dictionaries to compute approximate solutions in near-linear that are both provably accurate and empirically competitive.
2

Analyse de l’apprentissage de formateurs et d’entraîneurs participant au Programme national de certification des entraîneurs

Leduc, Mélissa 01 February 2012 (has links)
Le but de cette thèse fut de comprendre l’apprentissage de formateurs d’entraîneurs et d’entraîneurs dans le Programme national de certification des entraîneurs. Deux études furent réalisées. La première porte sur l’apprentissage de cinq formateurs au moment d’être formé et en présentant des ateliers à des entraîneurs. La deuxième examine l’apprentissage de onze entraîneurs dans des ateliers. Les données furent collectées à partir de séances d’observation non participante et d’entretiens semi-structurés multiples. Elles furent analysées à partir de la théorie de l’apprentissage humain (Jarvis, 2006, 2007, 2008, 2009) et la théorie de Moon (2001) sur l’apprentissage dans les ateliers de courte durée. Les résultats révélèrent qu’apprendre peut être un processus cognitif, émotif et/ou pratique. Les formateurs apprirent autant en présentant les ateliers à des entraîneurs qu’au moment d’être formé. Les entraîneurs validèrent leur pratique, la modifièrent ou éprouvèrent de l’inconfort à la modifier. Des suggestions furent proposées aux responsables du programme.
3

Analyse de l’apprentissage de formateurs et d’entraîneurs participant au Programme national de certification des entraîneurs

Leduc, Mélissa 01 February 2012 (has links)
Le but de cette thèse fut de comprendre l’apprentissage de formateurs d’entraîneurs et d’entraîneurs dans le Programme national de certification des entraîneurs. Deux études furent réalisées. La première porte sur l’apprentissage de cinq formateurs au moment d’être formé et en présentant des ateliers à des entraîneurs. La deuxième examine l’apprentissage de onze entraîneurs dans des ateliers. Les données furent collectées à partir de séances d’observation non participante et d’entretiens semi-structurés multiples. Elles furent analysées à partir de la théorie de l’apprentissage humain (Jarvis, 2006, 2007, 2008, 2009) et la théorie de Moon (2001) sur l’apprentissage dans les ateliers de courte durée. Les résultats révélèrent qu’apprendre peut être un processus cognitif, émotif et/ou pratique. Les formateurs apprirent autant en présentant les ateliers à des entraîneurs qu’au moment d’être formé. Les entraîneurs validèrent leur pratique, la modifièrent ou éprouvèrent de l’inconfort à la modifier. Des suggestions furent proposées aux responsables du programme.
4

Analyse de l’apprentissage de formateurs et d’entraîneurs participant au Programme national de certification des entraîneurs

Leduc, Mélissa 01 February 2012 (has links)
Le but de cette thèse fut de comprendre l’apprentissage de formateurs d’entraîneurs et d’entraîneurs dans le Programme national de certification des entraîneurs. Deux études furent réalisées. La première porte sur l’apprentissage de cinq formateurs au moment d’être formé et en présentant des ateliers à des entraîneurs. La deuxième examine l’apprentissage de onze entraîneurs dans des ateliers. Les données furent collectées à partir de séances d’observation non participante et d’entretiens semi-structurés multiples. Elles furent analysées à partir de la théorie de l’apprentissage humain (Jarvis, 2006, 2007, 2008, 2009) et la théorie de Moon (2001) sur l’apprentissage dans les ateliers de courte durée. Les résultats révélèrent qu’apprendre peut être un processus cognitif, émotif et/ou pratique. Les formateurs apprirent autant en présentant les ateliers à des entraîneurs qu’au moment d’être formé. Les entraîneurs validèrent leur pratique, la modifièrent ou éprouvèrent de l’inconfort à la modifier. Des suggestions furent proposées aux responsables du programme.
5

De l'apprentissage de représentations visuelles robustes aux invariances pour la classification et la recherche d'images / Of Learning Visual Representations Robust to Invariances for Image Classification and Retrieval

Paulin, Mattis 06 February 2017 (has links)
Ce mémoire de thèse porte sur l’élaboration de systèmes de reconnaissance d’image qui sont robustes à la variabilité géométrique. La compréhension d’une image est un problème difficile, de par le fait qu’elles sont des projections en deux dimensions d’objets 3D. Par ailleurs, des représentations qui doivent appartenir à la même catégorie, par exemple des objets de la même classe en classification, peuvent être visuellement très différentes. Notre but est de rendre ces systèmes robustes à la juste quantité de déformations, celle-ci étant automatiquement déterminée à partir des données. Nos deux contributions sont les suivantes. Nous montrons tout d’abord comment utiliser des exemples virtuels pour rendre les systèmes de classification d’images robustes et nous proposons ensuite une méthodologie pour apprendre des descripteurs de bas niveau robustes, pour la recherche d’image.Nous étudions tout d’abord les exemples virtuels, en tant que transformations de vrais exemples. En représentant une image en tant que sac de descripteurs transformés, nous montrons que l’augmentation de données, c’est-à-dire le fait de les considérer comme de nouveaux exemples iid, est la meilleure manière de les utiliser, pourvu qu’une étape de vote avec les descripteurs transformés soit opérée lors du test. Du fait que les transformations apportent différents niveaux d’information, peuvent être redondants, voire nuire à la performance, nous pro-posons un nouvel algorithme capable de sélectionner un petit nombre d’entre elles,en maximisant la justesse de classification. Nous montrons par ailleurs comment remplacer de vrais exemples par des virtuels, pour alléger les couts d’annotation.Nous rapportons de bons résultats sur des bancs d’essai de classification.Notre seconde contribution vise à améliorer les descripteurs de régions locales utilisés en recherche d’image, et en particulier nous proposons une alternative au populaire descripteur SIFT. Nous proposons un nouveau descripteur, appelé patch-CKN, appris sans supervision. Nous introduisons un nouvel ensemble de données liant les images et les imagettes, construit à partir de reconstruction3D automatique d’images récupérées sur Internet. Nous définissons une méthode pour tester précisément la performance des descripteurs locaux au niveau de l’imagette et de l’image. Notre approche dépasse SIFT et les autres approches à base d’architectures convolutionnelles sur notre banc d’essai, et d’autres couramment utilisés dans la littérature. / This dissertation focuses on designing image recognition systems which are robust to geometric variability. Image understanding is a difficult problem, as images are two-dimensional projections of 3D objects, and representations that must fall into the same category, for instance objects of the same class in classification can display significant differences. Our goal is to make systems robust to the right amount of deformations, this amount being automatically determined from data. Our contributions are twofolds. We show how to use virtual examples to enforce robustness in image classification systems and we propose a framework to learn robust low-level descriptors for image retrieval. We first focus on virtual examples, as transformation of real ones. One image generates a set of descriptors –one for each transformation– and we show that data augmentation, ie considering them all as iid samples, is the best performing method to use them, provided a voting stage with the transformed descriptors is conducted at test time. Because transformations have various levels of information, can be redundant, and can even be harmful to performance, we propose a new algorithm able to select a set of transformations, while maximizing classification accuracy. We show that a small amount of transformations is enough to considerably improve performance for this task. We also show how virtual examples can replace real ones for a reduced annotation cost. We report good performance on standard fine-grained classification datasets. In a second part, we aim at improving the local region descriptors used in image retrieval and in particular to propose an alternative to the popular SIFT descriptor. We propose new convolutional descriptors, called patch-CKN, which are learned without supervision. We introduce a linked patch- and image-retrieval dataset based on structure from motion of web-crawled images, and design a method to accurately test the performance of local descriptors at patch and image levels. Our approach outperforms both SIFT and all tested approaches with convolutional architectures on our patch and image benchmarks, as well as several styate-of-theart datasets.
6

Analyse de l’apprentissage de formateurs et d’entraîneurs participant au Programme national de certification des entraîneurs

Leduc, Mélissa January 2012 (has links)
Le but de cette thèse fut de comprendre l’apprentissage de formateurs d’entraîneurs et d’entraîneurs dans le Programme national de certification des entraîneurs. Deux études furent réalisées. La première porte sur l’apprentissage de cinq formateurs au moment d’être formé et en présentant des ateliers à des entraîneurs. La deuxième examine l’apprentissage de onze entraîneurs dans des ateliers. Les données furent collectées à partir de séances d’observation non participante et d’entretiens semi-structurés multiples. Elles furent analysées à partir de la théorie de l’apprentissage humain (Jarvis, 2006, 2007, 2008, 2009) et la théorie de Moon (2001) sur l’apprentissage dans les ateliers de courte durée. Les résultats révélèrent qu’apprendre peut être un processus cognitif, émotif et/ou pratique. Les formateurs apprirent autant en présentant les ateliers à des entraîneurs qu’au moment d’être formé. Les entraîneurs validèrent leur pratique, la modifièrent ou éprouvèrent de l’inconfort à la modifier. Des suggestions furent proposées aux responsables du programme.
7

Structures turbulentes et mobilité des particules au lit d'une rivière graveleuse

Paiement-Paradis, Geneviève January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
8

Simulation de l'époque de la réionisation : transfert radiatif

Baek, S. 24 June 2009 (has links) (PDF)
La raie hyperfine à 21-cm de l'hydrogène atomique émise dans l'univers à grand redshift (6 < z < 20) permettra de sonder une nouvellère de la cosmologie, l'époque de la réionisation (EoR). Elle fournira des informations plus détaillées, moins ambigües et plus complètes en 3D que les autres observations possibles de l'EoR (comme les raies d'absorption des quasars, ou le CMB). Son intensité dépend de nombreux processus physiques. Les radiotélescopes de nouvelle génération, SKA et ses précurseurs, entreront en service dans les prochaines années pour observer ce signal. La simulation numérique du 21-cm est importante pour optimiser le design des instruments et interpréter les observations futures. <br />Dans ce travail, nous avons développé un module de transfert radiatif pour le continuum ionisant dans le code LICORICE dans le but de simuler l'époque de la réionisation, pour laquelle le transfert radiatif est un outil essentiel. Nous utilisons un algorithme de ray-tracing de type Monte Carlo sur une grille adaptative. Plusieurs tests sont réalisés pour valider le code dans deux cas, celui d'un champ de densité statique et dans le cas de l'hydrodynamique radiative. <br />Nous produisons ensuite le signal à 21-cm émis pendant l'EoR, qui nous fournit une sonde directe de la réionisation et contient de nombreuses informations sur les sources d'ionisation et de chauffage. Habituellement, on suppose que le flux Ly-α, qui influence la puissance du signal à 21-cm, est fort et homogéne pendant toute la réionisation, mais cette hypothèse n'est pas valable durant la première phase de l'EoR. Nous évaluons exactement le flux Ly-α local en utilisant le module de transfert radiatif de la raie Lyman α et montrons que ce flux modifie le spectre de puissance du signal à 21-cm, particuliérement pendant la première phase de la réionisation. Nous trouvons également que le signal est en absorption forte ce qui ne peut pas être simulé avec les hypothèses habituelles.<br /> Même une faible quantité de rayons X peut affecter l'état physique du gaz neutre dans le milieu inter galactique, puisque ceux-ci ont un libre parcours moyen très long. Le chauffage par les rayons X est un facteur important pour évaluer la puissance du signal à 21-cm dans les régions neutres, aussi avons nous inclus le ray-tracing correspondant dans LICORICE. Nous constatons que les rayons X ont besoin de temps pour élever la température du gaz au-dessus de la température du CMB. Ainsi, avec un niveau de rayons X raisonnable, nous continuons à observer le signal en absorption pendant la premi`ere phase de la réionisation.<br />De plus, nous étudions la formation des galaxies dans un contexte cosmologique. Le but est d'explorer la physique des galaxies primordiales en considérant la rétroaction radiative sur l'hydrodynamique. Nos résultats préliminaires montrent que le calcul de l'ionisation hors équilibre modifie la température du gaz diffus, et son histoire d'accrétion.
9

Architecture pour les systèmes de déploiement logiciel à grande échelle : prise en compte des concepts d'entreprise et de stratégie

Merle, Noelle 01 December 2005 (has links) (PDF)
Le déploiement arrive en fin de cycle de vie du logiciel. Cette étape a pris une grande importance dans les entreprise ayant un grand nombre de machines à gérer : on parle alors de déploiement à grande échelle. Les entreprises souhaitent pouvoir automatiser cette étape, pour éviter d'avoir à répéter les mêmes étapes plusieurs fois. Cependant, elles souhaitent garder un certain contrôle sur les activités de déploiement, en imposant différentes contraintes (même version d'une application sur un groupe de machines, préférence pour des applications avec certaines caractéristiques, ordonnancement prioritaire, ...). Dans notre travail, nous définissons un méta-modèle de déploiement permettant d'automatiser le traitement des données liées au déploiement. Nous définissons aussi des stratégies de déploiement qui permettent aux entreprises de définir leur propres contraintes de déploiement, selon leurs besoins et leurs préférences.
10

Etude de la distribution de matière noire par ses effets de lentille gravitationnelle dans les régimes des distorsions faibles et fortes.

Gavazzi, Raphael 27 October 2004 (has links) (PDF)
Dans le modèle cosmologique actuel, l'univers est composé de 70% d'énergie noire et de 30% de matière noire, toutes deux de nature inconnue. Ce travail de thèse se focalise sur cette deuxième composante sombre. Au moyen de l'optique gravitationnelle, je conduis une étude de la distribution de matière noire dans les structures cosmiques. Cette technique permet de sonder le contenu en masse de l'univers indépendemment de sa nature ou de son état dynamique. Elle fournit ainsi un diagnostic sur les structures aux petites échelles non-linéaires.<br /><br />Je compare la distribution de matière sombre déduite du cisaillement faible à celle de la lumière des galaxies dans le superamas de galaxies MS0302+17 par une analyse de la corrélation masse-lumière. Le contraste de la première se déduit de celui de la seconde par une relation de biais linéaire et un rapport M/L ~ 300 constant. Les cartes de masse et de lumière montrent une remarquable similitude morphologique révélant ainsi la structuration type « cosmic-web ». Je présente les premiers résultats d'un relevé d'amas de galaxies avec le cisaillement faible qui seront comparés aux données XMM-LSS.<br /><br />De plus, une analyse détaillée (strong+weak lensing) de l'amas de galaxies MS2137-23 montre que le profil de masse est compatible avec le modèle NFW issu des simulations numériques. Une étude des régions centrales utilise aussi la dynamique des étoiles dans la galaxie cD.

Page generated in 0.101 seconds