Spelling suggestions: "subject:"apprentissage"" "subject:"pprentissage""
101 |
Nouvelles approches itératives avec garanties théoriques pour l'adaptation de domaine non supervisée / New iterative approaches with theoretical guarantees for unsupervised domain adaptationPeyrache, Jean-Philippe 11 July 2014 (has links)
Ces dernières années, l’intérêt pour l’apprentissage automatique n’a cessé d’augmenter dans des domaines aussi variés que la reconnaissance d’images ou l’analyse de données médicales. Cependant, une limitation du cadre classique PAC a récemment été mise en avant. Elle a entraîné l’émergence d’un nouvel axe de recherche : l’Adaptation de Domaine, dans lequel on considère que les données d’apprentissage proviennent d’une distribution (dite source) différente de celle (dite cible) dont sont issues les données de test. Les premiers travaux théoriques effectués ont débouché sur la conclusion selon laquelle une bonne performance sur le test peut s’obtenir en minimisant à la fois l’erreur sur le domaine source et un terme de divergence entre les deux distributions. Trois grandes catégories d’approches s’en inspirent : par repondération, par reprojection et par auto-étiquetage. Dans ce travail de thèse, nous proposons deux contributions. La première est une approche de reprojection basée sur la théorie du boosting et s’appliquant aux données numériques. Celle-ci offre des garanties théoriques intéressantes et semble également en mesure d’obtenir de bonnes performances en généralisation. Notre seconde contribution consiste d’une part en la proposition d’un cadre permettant de combler le manque de résultats théoriques pour les méthodes d’auto-étiquetage en donnant des conditions nécessaires à la réussite de ce type d’algorithme. D’autre part, nous proposons dans ce cadre une nouvelle approche utilisant la théorie des (epsilon, gamma, tau)-bonnes fonctions de similarité afin de contourner les limitations imposées par la théorie des noyaux dans le contexte des données structurées / During the past few years, an increasing interest for Machine Learning has been encountered, in various domains like image recognition or medical data analysis. However, a limitation of the classical PAC framework has recently been highlighted. It led to the emergence of a new research axis: Domain Adaptation (DA), in which learning data are considered as coming from a distribution (the source one) different from the one (the target one) from which are generated test data. The first theoretical works concluded that a good performance on the target domain can be obtained by minimizing in the same time the source error and a divergence term between the two distributions. Three main categories of approaches are derived from this idea : by reweighting, by reprojection and by self-labeling. In this thesis work, we propose two contributions. The first one is a reprojection approach based on boosting theory and designed for numerical data. It offers interesting theoretical guarantees and also seems able to obtain good generalization performances. Our second contribution consists first in a framework filling the gap of the lack of theoretical results for self-labeling methods by introducing necessary conditions ensuring the good behavior of this kind of algorithm. On the other hand, we propose in this framework a new approach, using the theory of (epsilon, gamma, tau)- good similarity functions to go around the limitations due to the use of kernel theory in the specific context of structured data
|
102 |
Small batch deep reinforcement learningObando-Ceron, Johan Samir 11 1900 (has links)
Dans l'apprentissage par renforcement profond basé sur la valeur avec des mémoires de relecture, le paramètre de taille de lot joue un rôle crucial en déterminant le nombre de transitions échantillonnées pour chaque mise à jour de gradient. Étonnamment, malgré son importance, ce paramètre n'est généralement pas ajusté lors de la proposition de nouveaux algorithmes. Dans ce travail, nous menons une vaste étude empirique qui suggère que la réduction de la taille des lots peut entraîner un certain nombre de gains de performances significatifs ; ceci est surprenant et contraire à la pratique courante consistant à utiliser de plus grandes tailles de lots pour améliorer la formation du réseau neuronal. Ce résultat inattendu défie la sagesse conventionnelle et appelle à une compréhension plus approfondie des gains de performances observés associés à des tailles de lots plus petites. Pour faire la lumière sur les facteurs sous-jacents, nous complétons nos résultats expérimentaux par une série d'analyses empiriques. Ces analyses approfondissent divers aspects du processus d'apprentissage, tels que l'analyse de la dynamique d'optimisation du réseau, la vitesse de convergence, la stabilité et les capacités d'exploration. Le chapitre 1 présente les concepts nécessaires pour comprendre le travail présenté, notamment des aperçus de l'Apprentissage Profond (Deep Learning) et de l'Apprentissage par Renforcement (Reinforcement Learning). Le chapitre 2 contient une description détaillée de nos contributions visant à comprendre les gains de performance observés associés à des tailles de lots plus petites lors de l'utilisation d'algorithmes d'apprentissage par renforcement profond basés sur la valeur. À la fin, des conclusions tirées de ce travail sont fournies, incluant des suggestions pour des travaux futurs. Le chapitre 3 aborde ce travail dans le contexte plus large de la recherche en apprentissage par renforcement. / In value-based deep reinforcement learning with replay memories, the batch size parameter plays a crucial role by determining the number of transitions sampled for each gradient update. Surprisingly, despite its importance, this parameter is typically not adjusted when proposing new algorithms. In this work, we conduct a broad empirical study that suggests {\em reducing} the batch size can result in a number of significant performance gains; this is surprising and contrary to the prevailing practice of using larger batch sizes to enhance neural network training. This unexpected result challenges the conventional wisdom and calls for a deeper understanding of the observed performance gains associated with smaller batch sizes. To shed light on the underlying factors, we complement our experimental findings with a series of empirical analyses such as analysis of network optimization dynamics, convergence speed, stability, and exploration capabilities. Chapter 1 introduces concepts necessary to understand the work presented, including overviews of Deep Learning and Reinforcement Learning. Chapter 2 contains a detailed description of our contributions towards understanding the observed performance gains associated with smaller batch sizes when using value based deep reinforcement learning algorithms. At the end, some conclusions drawn from this work are provided, including some exciting suggestion as future work. Chapter 3 talks about this work in the broader context of reinforcement learning research.
|
103 |
Découverte de règles de classification pour un système d’aide à la décision pour la surveillance de l'usage des antimicrobiensBeaudoin, Mathieu January 2015 (has links)
L’utilisation inappropriée des antimicrobiens est un problème de taille qui touche jusqu’à 50% des prescriptions chez les patients hospitalisés. Or, la surveillance de l’usage des antimicrobiens à l’échelle d’un hôpital s’avère impossible à effectuer manuellement et requiert l’utilisation d’un système d’aide à la décision.
Le système d’aide à la décision APSS - Antimicrobial Prescription Surveillance System - a été développé pour assister le professionnel de la santé dans l’identification des prescriptions inappropriées d’antimicrobiens. Son utilisation a été associée à une amélioration des pratiques de prescription d’antimicrobiens. Cependant, le processus d’acquisition et modélisation de sa connaissance a été long et ardu.
Pour pallier cette difficulté, cette thèse présente un module d’apprentissage automatique développé pour permettre à un système comme APSS de découvrir de nouvelles règles de classification de prescriptions à partir des rétroactions de ses utilisateurs. Ce module utilise l’algorithme TIM - Temporal Induction of Classification Models - pour découvrir des règles temporelles de classification pour catégoriser des séquences d’épisodes comme approprié ou inapproprié.
Des résultats d’évaluation démontrent la capacité du module à découvrir des règles cliniquement pertinentes pour plusieurs catégories d’alertes de prescriptions inappropriées. Les règles apprises ont mené à des interventions qui ont été manquées par le système de base. Ces règles ont permis d’étendre la connaissance du système de base en identifiant des pratiques de prescription non appuyées par les experts qui n’étaient pas incluses dans sa base de connaissances. Par contre, la combinaison des règles apprises aux règles du système de base a entraîné une augmentation des faux positifs.
|
104 |
Le processus d'innovation en réseau dense : autopsie d'un échec en codéveloppementGuihur, Izold January 2010 (has links)
L'innovation détermine en grande partie la compétitivité des entreprises car elle facilite leur distinction dans l'économie du savoir et qu'elle induit une flexibilité organisationnelle face un environnement turbulent. Selon une perspective évolutionniste, toutefois, les organisations poursuivent avec le temps une trajectoire technologique de plus en plus étroite car les routines qui sous-tendent la création et l'accumulation de connaissances à la base de l'innovation rigidifient les organisations. L'exploration technologique des organisations devient plus locale, plus proche de ce qu'elles connaissent déjà. Dans un processus de vieillissement, les organisations perdent graduellement leur flexibilité concurrentielle. Le problème est que l'innovation a besoin d'être alimentée en nouvelles connaissances, et donc, en information riche pour poursuivre sa contribution à la flexibilité des organisations. Le réseau dense, à cause de la densité des interactions entre partenaires, représente une source particulièrement féconde d'information riche pour innover. Nombre de travaux identifient d'ailleurs le potentiel du réseau dense pour innover dans un milieu turbulent. Le comment demeure néanmoins peu connu. Cette recherche vise à mieux comprendre comment le réseau dense alimente l'innovation en information riche. L'étude longitudinale d'un cas unique a servi à répondre aux questions spécifiques sur les processus d'apprentissage, d'absorption de l'information et sur des conditions de faisabilité de l'innovation en réseau dense, ou codéveloppement. L'unité d'analyse, constituée de cinq partenaires en codéveloppement, a représenté un contexte très complexe qui a justifié une étude empirique en profondeur. L'observation des chercheurs à quatre réunions de travail, la tenue d'un journal de bord, des entrevues semi-dirigées auprès des partenaires et des documents sur la préhistoire, la période active et la période passive du projet jusqu'à son abandon ont servi à la collecte des données. La technique du modèle logique a servi à valider des modèles proposés sur l'apprentissage et l'absorption d'information riche à la base du codéveloppement. Les comportements des partenaires ont aussi été comparés aux comportements considérés nécessaires à la faisabilité du codéveloppement. Malgré l'abandon du projet, les chaînes d'événements observés ont supporté les modèles logiques proposés dans l'explication de l'échec. Premièrement, l'apprentissage repose sur le déploiement d'une infrastructure qui est stabilisée par la coopération, activée par l'interaction et permettant l'appropriation des nouveaux savoirs. Cependant, les nouvelles connaissances produisent des effets rétroactifs sur les conditions d'apprentissage qui, dans le cas étudié, ont eu l'effet de déstabiliser la coopération et de créer un désinvestissement menant à l'échec du partenariat. Deuxièmement, des informations riches ont été absorbées à travers des activités d'interprétation, de création de savoir et de décisions. Les partenaires ont utilisé des signaux faibles et forts mis à leur disposition par des liens faibles et forts du réseau. La proximité socio-technique entre les partenaires a facilité la prise de décision mais en contrepartie, un mode décisionnel centralisé a inhibé les efforts d'action collective. Dans le cas étudié, les comportements ont permis de constater la corrélation entre la faiblesse des conditions de faisabilité et l'échec du codéveloppement. Ces conditions se composaient d'anticipations positives, de l'autonomie des individus, de leur ouverture, de mécanismes de réflexivité, de la légitimité du réseau, d'un leadership transformationnel, de coévôlutions fortes, de cultures alignées, d'un langage commun et de temps approprié pour déployer le codéveloppement. La recherche tient son originalité de l'autopsie d'un échec en codéveloppement à partir d'une étude in tiempo de sa perte. En plus de donner une réponse à l'apport d'information riche au codéveloppement, elle montre l'intérêt des chaînes logiques pour s'adapter aux mouvances d'un contexte complexe. La recherche fournit des ancrages théoriques à la recherche-action ou par systèmes souples. Ces résultats, de généralisation analytique, seront applicables à d'autres situations en considérant la richesse des constats de ce cas longitudinal unique.
|
105 |
Le processus d'apprentissage expérientiel en situation guidée d'aventureGrieco, Jean-Nicolas January 2008 (has links)
Ce mémoire porte sur l'apprentissage expérientiel en situation guidée d'aventure. Les guides ne sont pas formés pour accompagner les gens qui désirent apprendre à partir de leur voyage. L'objectif de la recherche propose de décrire les apprentissages et le processus d'apprentissage en situation guidés d'aventure. Nous avons choisi de répertorier l'experience de 11 personnes inscrites à des voyages d'aventure. Afin de recueillir leurs propos, nous leur avons remis un journal de bord. Nous avons ensuite soumis les contenus des journaux à une analyse qualitative par thématisation. Les résultats de notre recherche se manifestent sous la forme d'objets de réflexion. Le processus d'apprentissage qui se déroule en tourisme d'aventure, et qui se rattache aux modelés théoriques que nous avons ressortis, est un processus expérientiel. En somme, les gens apprennent sur eux-même lorsqu'ils experimentent une situation, qu'ils y réfléchissent, qu'ils réajustent leurs objectifs et qu'ils remettent en pratique leurs nouveaux acquis.
|
106 |
La conception d'un programme d'entraînement à l'écriture pour des élèves entre 6 et 12 ansDes Rosiers, Sylvie January 2010 (has links)
À la fin du primaire, il s'avère qu'un pourcentage élevé de garçons et de filles n'atteignent pas un niveau de maîtrise suffisant des compétences langagières. Notre intérêt pour l'écriture et ce constat alarmant nous ont amenée à consulter les écrits scientifiques sur ce sujet. Ce présent mémoire s'inscrit dans le domaine de la didactique du français et aborde l'enseignement et l'apprentissage de l'écriture. Nous proposons un modèle du processus d'écriture qui tient compte des habiletés de base nécessaires à son utilisation fluide. Nous présentons des bases théoriques de l'enseignement et de l'apprentissage de l'écriture en milieu scolaire. De plus, par l'analogie entre le domaine sportif et celui de l'écrit et en nous appuyant sur la méthodologie du développement d'objet de Van der Maren (2003), nous définissons les bases d'un programme d'entraînement à l'écriture. Nous concevons et élaborons des composantes qui régissent un programme d'entraînement à l'écriture.
|
107 |
Apprentissage des comportements et de l'environnement d'un utilisateur mobile en support à l'amélioration des transferts intercellulaires autonomes utilisant la technologie WifiLavoie, Jean January 2015 (has links)
Les réseaux sans fil créent des changements importants dans le comportement des utilisateurs par rapport aux réseaux dits câblés ou filaires. Ainsi, les utilisateurs peuvent être mobiles, ce qui les amène à évoluer d’un point d’accès (PA) à un autre. Lors du changement de PA, l’utilisateur mobile (UM) peut expérimenter des délais de transmission occasionnés par les étapes de recherches du prochain PA. Un délai de quelques dixièmes de secondes est désagréable lors d’utilisation d’applications à flux constant de données (comme la téléphonie IP).
En général, les gens utilisent souvent les mêmes trajets pour les déplacements courants, comme aller au travail ou faire les courses. L’objectif de ce travail de recherche est de démontrer qu’il est possible d’ajouter des algorithmes à l’appareil mobile pour lui permettre, de façon autonome, d’apprendre les habitudes de l’UM pour améliorer la sélection du prochain PA. En utilisant les temps libres du module de communication WiFi pour sonder l’environnement et accumuler des informations sur les habitudes, trois algorithmes ont été développés et sont présentés dans ce travail de recherche.
Le premier algorithme, « Optimisation par courbes comparatives de Puissance sans le Temps » (OPT), mémorise les variations des niveaux de puissances des signaux WiFi. En couplant les mesures de variations, nous avons développé un mécanisme qui détermine les meilleures paires de PA pour les transitions. OPT donne de bonnes performances lorsque l’UM peut se relier à tous les PA qu’il rencontre, ce qui n’est pas le cas lorsque certains PA sont sécurisés. Une deuxième approche a été testée en utilisant un mécanisme d’apprentissage par renforcement (nommé APP). Cet algorithme permet de catégoriser les PA et permet de déterminer les meilleurs candidats aux transferts. En environnement sécurisé, cet algorithme présente des performances nettement supérieures à OPT. Par contre, dans un environnement présentant beaucoup de PA, le temps d’apprentissage est non négligeable puisque APP doit tenter de se relier à tous les PA accessibles pour les caractériser. Pour réduire la période d’apprentissage d’APP, nous avons combiné les deux algorithmes pour mettre en commun leurs avantages. Cette troisième solution (nommée APPOPT) a produit un mécanisme de transfert intercellulaire efficient pour la qualité de sélection du prochain PA comparativement au mécanisme standard de transfert du WiFi.
|
108 |
Directionalité du transfert des connaissancesCharbonneau, Dominic January 2007 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
109 |
Modèles graphiques probabilistes pour la corrélation d'alertes en détection d'intrusions / Probabilistic graphical models and logics for alarm correlation in intrusion detectionKenaza, Tayeb 09 March 2011 (has links)
Dans cette thèse, nous nous intéressons à la modélisation du problème de la corrélation d'alertes à base de modèles graphiques probabilistes. Nous avons constaté que les approches existantes de corrélation d'alertes, soit se basent sur des connaissances explicites d'experts, soit utilisent des mesures de similarité simples qui ne permettent pas de détecter des scénarios d'attaque. Pour cela, nous avons d'abord proposé une nouvelle modélisation de la corrélation d'alertes, basée sur les classifieurs Bayésiens naïfs, qui permet d'apprendre les coordinations entre les attaques élémentaires qui contribuent à la réalisation d'un scénario d'attaque. Notre modélisation nécessite seulement une légère contribution des connaissances d'experts. Elle tire profit des données disponibles et fournit des algorithmes efficaces pour la détection et la prédiction des scénarios d'attaque. Ensuite, nous avons montré comment notre approche de corrélation d'alertes peut être améliorée en prenant en considération les informations contextuelles codées en logiques de description, notamment dans le contexte d'une détection coopérative d'intrusions. Enfin, nous avons proposé plusieurs mesures d'évaluation pour un multi-classifieurs Bayésiens naïfs. Ceci est très important pour l'évaluation de notre approche de corrélation d'alertes car elle utilise un ensemble de classifieurs Bayésiens naïfs pour surveiller plusieurs objectifs d'intrusion en même temps. / In this thesis, we focus on modeling the problem of alert correlation based on probabilistic graphical models. Existing approaches either require a large amount of expert knowledge or use simple similarity measures which are not enough to detect coordinated attacks. We first proposed a new modeling for the alert correlation problem, based on naive Bayesian classifiers, which can learn the coordination between elementary attacks that contribute to the achievement of an attack scenario. Our model requires only a slight contribution of expert knowledge. It takes advantage of available data and provides efficient algorithms for detecting and predicting attacks scenario. Then we show how our alert correlation approach can be improved by taking into account contextual information encoded in description logics, particularly in the context of a cooperative intrusion detection. Finally, we proposed several evaluation measures for a naive Bayesian multi-classifiers. This is very important for evaluating our alert correlation approach because it uses a set of naive Bayesian classifiers to monitor multiple intrusion objectives simultaneously.
|
110 |
Stress périnatal : conséquences sur le comportement cognitif et émotionnel de la progéniture chez le ratBah, Thierno Madjou January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
Page generated in 0.0594 seconds