• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 211
  • 120
  • 16
  • Tagged with
  • 406
  • 406
  • 400
  • 399
  • 398
  • 398
  • 398
  • 398
  • 398
  • 55
  • 49
  • 49
  • 48
  • 47
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Détection d'évènements à partir de Twitter

Dridi, Houssem Eddine 10 1900 (has links)
Nous proposons dans cette thèse un système permettant de déterminer, à partir des données envoyées sur les microblogs, les évènements qui stimulent l’intérêt des utilisateurs durant une période donnée et les dates saillantes de chaque évènement. Étant donné son taux d’utilisation élevé et l’accessibilité de ses données, nous avons utilisé la plateforme Twitter comme source de nos données. Nous traitons dans ce travail les tweets portant sur la Tunisie dont la plupart sont écrits par des tunisiens. La première tâche de notre système consistait à extraire automatiquement les tweets d’une façon continue durant 67 jours (de 8 février au 15 avril 2012). Nous avons supposé qu’un évènement est représenté par plusieurs termes dont la fréquence augmente brusquement à un ou plusieurs moments durant la période analysée. Le manque des ressources nécessaires pour déterminer les termes (notamment les hashtags) portant sur un même sujet, nous a obligé à proposer des méthodes permettant de regrouper les termes similaires. Pour ce faire, nous avons eu recours à des méthodes phonétiques que nous avons adaptées au mode d’écriture utilisée par les tunisiens, ainsi que des méthodes statistiques. Pour déterminer la validité de nos méthodes, nous avons demandé à des experts, des locuteurs natifs du dialecte tunisien, d’évaluer les résultats retournés par nos méthodes. Ces groupes ont été utilisés pour déterminer le sujet de chaque tweet et/ou étendre les tweets par de nouveaux termes. Enfin, pour sélectionner l'ensemble des évènements (EV), nous nous sommes basés sur trois critères : fréquence, variation et TF-IDF. Les résultats que nous avons obtenus ont montré la robustesse de notre système. / In this thesis, we propose a method to highlight users’ concerns from a set of Twitter messages. In particular, we focus on major events that stimulate the user’s interest within a given period. Given its rate of use and accessibility of data, we used Twitter as a source of our data. In this work, we use tweets related to Tunisia, most of them being written by Tunisians. The first task of our system was to continuously extract tweets during 67 days (from February 8th to April 15th, 2012). We assumed that an event is represented by several terms whose frequency sharply increases one or more times during the analyzed period. Due to the lack of resources that allow determining the terms (including hashtags) referring to the same topic, we propose methods that help grouping similar terms. To do this, we used phonetic methods adapted to the way Tunisians write and statistical methods. To determine the validity of our methods, we asked the experts, who are native speakers of the Tunisian dialect, to evaluate the results returned by our methods. These clusters are used to determine the subject of each tweet and/or expand the tweets by new terms. Finally, to select the set of events (EV), we relied on three criteria: frequency, variation and TF-IDF. The results that we obtained show the robustness of our system.
2

Calcul en n-dimensions sur GPU

Bergeron, Arnaud 04 1900 (has links)
Le code source de la libraire développée accompagne ce dépôt dans l'état où il était à ce moment. Il est possible de trouver une version plus à jour sur github (http://github.com/abergeron). / Le calcul scientifique sur processeurs graphiques (GPU) est en plein essor depuis un certain temps, en particulier dans le domaine de l'apprentissage machine. Cette thèse présente les efforts pour établir une structure de données de table au multidimensionnel de manière efficace sur GPU. Nous commençons par faire une revue de ce qui est actuellement similaire dans le domaine et des désavantages d'avoir une multitude d'approches. Nous nous intéresserons particulièrement aux calculs fait à partir du langage Python. Nous décrirons des techniques intéressantes telles que la réduction d'ordre et le calcul asynchrone automatique. Pour terminer nous présenterons l'utilisation du module développé dans le cadre de cette thèse. / Scientific computing on GPU (graphical processing units) is on the rise, specifically in machine learning. This thesis presents the implementation of an efficient multidimensional array on the GPU. We will begin by a review of what currently implements similar functionality and the disadvantage of a fragmented approach. We will focus on packages that have a Python interface. We will explain techniques to optimize execution such as order reduction and automatic asynchronous computations. Finally, we will present the functionality of the module developed for this thesis.
3

Logiciel de génération de nombres aléatoires dans OpenCL

Kemerchou, Nabil 08 1900 (has links)
clRNG et clProbdist sont deux interfaces de programmation (APIs) que nous avons développées pour la génération de nombres aléatoires uniformes et non uniformes sur des dispositifs de calculs parallèles en utilisant l’environnement OpenCL. La première interface permet de créer au niveau d’un ordinateur central (hôte) des objets de type stream considérés comme des générateurs virtuels parallèles qui peuvent être utilisés aussi bien sur l’hôte que sur les dispositifs parallèles (unités de traitement graphique, CPU multinoyaux, etc.) pour la génération de séquences de nombres aléatoires. La seconde interface permet aussi de générer au niveau de ces unités des variables aléatoires selon différentes lois de probabilité continues et discrètes. Dans ce mémoire, nous allons rappeler des notions de base sur les générateurs de nombres aléatoires, décrire les systèmes hétérogènes ainsi que les techniques de génération parallèle de nombres aléatoires. Nous présenterons aussi les différents modèles composant l’architecture de l’environnement OpenCL et détaillerons les structures des APIs développées. Nous distinguons pour clRNG les fonctions qui permettent la création des streams, les fonctions qui génèrent les variables aléatoires uniformes ainsi que celles qui manipulent les états des streams. clProbDist contient les fonctions de génération de variables aléatoires non uniformes selon la technique d’inversion ainsi que les fonctions qui permettent de retourner différentes statistiques des lois de distribution implémentées. Nous évaluerons ces interfaces de programmation avec deux simulations qui implémentent un exemple simplifié d’un modèle d’inventaire et un exemple d’une option financière. Enfin, nous fournirons les résultats d’expérimentation sur les performances des générateurs implémentés. / clRNG and clProbdist are two application programming interfaces (APIs) that we have developed respectively for the generation of uniform and non-uniform random numbers on parallel computing devices in the OpenCL environment. The first interface is used to create at a central computer level (host) objects of type stream considered as parallel virtual generators that can be used both on the host and on parallel devices (graphics processing units, multi-core CPU, etc.) for generating sequences of random numbers. The second interface can be used also on the host or devices to generate random variables according to different continuous and discrete probability distributions. In this thesis, we will recall the basic concepts of random numbers generators, describe the heterogeneous systems and the generation techniques of parallel random number, then present the different models composing the OpenCL environment. We will detail the structures of the developed APIs, distinguish in clRNG the functions that allow creating streams from the functions that generate uniform random variables and the functions that manipulate the states of the streams.We will describe also clProbDist that allow the generation of non-uniform random variables based on the inversion technique as well as returning different statistical values related to the distributions implemented. We will evaluate these APIs with two simulations, the first one implements a simplified example of inventory model and the second one estimate the value of an Asian call option. Finally, we will provide results of experimentations on the performance of the implemented generators.
4

Différents types de savoirs mis en œuvre dans la formation initiale d'enseignants de mathématiques à l'intégration de technologies de géométrie dynamique

Tapan, Menekse Seden 20 December 2006 (has links) (PDF)
La thèse porte sur la formation initiale d'enseignants de mathématiques à l'intégration de technologies informatiques, plus précisément dans le cas des logiciels de géométrie dynamique. Le but de la thèse est d'une part d'évaluer l'impact d'une formation à l'usage des technologies informatiques sur les usages du logiciel par les futurs enseignants. Le travail cherche d'autre part à préciser les éléments d'une telle formation qui favorisent l'instrumentation au plan didactique des différentes spécificités de la technologie pour concevoir des tâches didactiques intégrant cette dernière. <br />Le travail est fondé sur l'hypothèse que l'intégration par l'enseignant d'environnements informatiques embarquant des connaissances mathématiques fait appel de façon imbriquée à quatre types de savoirs : savoir mathématique, savoir instrumental, savoir didactique mathématique et savoir didactique instrumental. <br />La partie A montre l'importance de la formation des enseignants pour l'intégration, et expose les outils d'analyse utilisés pour déterminer l'impact d'une telle formation. <br />La partie B est consacrée à l'analyse des séances de formation. Cette analyse s'effectue par rapport à la place des différentes spécificités du logiciel Cabri-Géomètre pour chaque type de savoir. <br />La partie C est consacrée aux expérimentations conduites pour étudier les effets de la formation. Il s'agit de trois expérimentations qui mettent en évidence l'évolution des stagiaires au cours de la formation relativement au savoir instrumental et au savoir didactique instrumental. Sont ensuite dégagés les éléments des modules de formation qui participent à cette évolution.
5

Calcul en n-dimensions sur GPU

Bergeron, Arnaud 04 1900 (has links)
Le calcul scientifique sur processeurs graphiques (GPU) est en plein essor depuis un certain temps, en particulier dans le domaine de l'apprentissage machine. Cette thèse présente les efforts pour établir une structure de données de table au multidimensionnel de manière efficace sur GPU. Nous commençons par faire une revue de ce qui est actuellement similaire dans le domaine et des désavantages d'avoir une multitude d'approches. Nous nous intéresserons particulièrement aux calculs fait à partir du langage Python. Nous décrirons des techniques intéressantes telles que la réduction d'ordre et le calcul asynchrone automatique. Pour terminer nous présenterons l'utilisation du module développé dans le cadre de cette thèse. / Scientific computing on GPU (graphical processing units) is on the rise, specifically in machine learning. This thesis presents the implementation of an efficient multidimensional array on the GPU. We will begin by a review of what currently implements similar functionality and the disadvantage of a fragmented approach. We will focus on packages that have a Python interface. We will explain techniques to optimize execution such as order reduction and automatic asynchronous computations. Finally, we will present the functionality of the module developed for this thesis. / Le code source de la libraire développée accompagne ce dépôt dans l'état où il était à ce moment. Il est possible de trouver une version plus à jour sur github (http://github.com/abergeron).
6

A modular approach to the automatic design of control software for robot swarms: From a novel perspective on the reality gap to AutoMoDe

Francesca, Gianpiero 21 April 2017 (has links)
The main issue in swarm robotics is to design the behavior of the individual robots so that a desired collective behavior is achieved. A promising alternative to the classical trial-and-error design approach is to rely on automatic design methods. In an automatic design method, the problem of designing the control software for a robot swarm is cast into an optimization problem: the different design choices define a search space that is explored using an optimization algorithm. Most of the automatic design methods proposed so far belong to the framework of evolutionary robotics. Traditionally, in evolutionary robotics the control software is based on artificial neural networks and is optimized automatically via an evolutionary algorithm, following a process inspired by natural evolution. Evolutionary robotics has been successfully adopted to design robot swarms that perform various tasks. The results achieved show that automatic design is a viable and promising approach to designing the control software of robot swarms. Despite these successes, a widely recognized problem of evolutionary robotics is the difficulty to overcome the reality gap, that is, having a seamless transition from simulation to the real world. In this thesis, we aim at conceiving an effective automatic design approach that is able to deliver robot swarms that have high performance once deployed in the real world. To this, we consider the major problem in the automatic design of robot swarms: the reality gap problem. We analyze the reality gap problem from a machine learning perspective. We show that the reality gap problem bears a strong resemblance to the generalization problem encountered in supervised learning. By casting the reality gap problem into the bias-variance tradeoff, we show that the inability to overcome the reality gap experienced in evolutionary robotics could be explained by the excessive representational power of the control architecture adopted. Consequently, we propose AutoMoDe, a novel automatic design approach that adopts a control architecture with low representational power. AutoMoDe designs software in the form of a probabilistic finite state machine that is composed automatically starting from a number of pre-existing parametric modules. In the experimental analysis presented in this thesis, we show that adopting a control architecture that features a low representational power is beneficial: AutoMoDe performs better than an evolutionary approach. Moreover, AutoMoDe is able to design robot swarms that perform better that the ones designed by human designers. AutoMoDe is the first automatic design approach that it is shown to outperform human designers in a controlled experiment. / Doctorat en Sciences de l'ingénieur et technologie / info:eu-repo/semantics/nonPublished
7

Un système de question-réponse simple appliqué à SQuAD

Elbaz, Ilan 03 1900 (has links)
La tâche de question-réponse (Question-Answering, QA) est bien ancrée dans la communauté de Traitement Automatique du Langage Naturel (TALN) depuis de nombreuses années. De manière générale, celle-ci consiste à répondre à des questions données à l’aide de documents (textuels ou autres) ou de conversations en faisant au besoin usage de connaissances et en mettant en oeuvre des mécanismes d’inférence. Ainsi, dépendamment du jeu de données et de la tâche lui étant associée, il faut que le système puisse détecter et comprendre les éléments utiles pour répondre correctement à chacune des questions posées. De nombreux progrès ont été réalisés depuis quelques années avec des modèles neuronaux de plus en plus complexes, ces derniers sont cependant coûteux en production, et relativement opaques. Du à leur opacité, il est difficile d’anticiper avec précision le comportement de certains modèles et d’ainsi prévoir quand ces systèmes vont retourner de mauvaises réponses. Contrairement à la très grande majorité des systèmes proposés actuellement, nous allons dans ce mémoire tenter de résoudre cette tâche avec des modèles de taille contrôlable, on s’intéressera principalement aux approches basées sur les traits (features). Le but visé en restreignant la taille des modèles est qu’ils généralisent mieux. On pourra alors mesurer ce que ces modèles capturent afin d’évaluer la granularité de leur "compréhension" de la langue. Aussi, en analysant les lacunes de modèles de taille contrôlable, on pourra mettre en valeur ce que des modèles plus complexes ont capturé. Pour réaliser notre étude, on s’évalue ici sur SQuAD: un jeu de données populaire proposé par l’Université Standford. / The Question-Answering task (QA) is a well established Natural Language Processing (NLP) task. Generally speaking, it consists in answering questions using documents (textual or otherwise) or conversations, making use of knowledge if necessary and implementing inference mechanisms. Thus, depending on the data set and the task associated with it, the system must be able to detect and understand the useful elements to correctly answer each of the questions asked. A lot of progress has been made in recent years with increasingly complex neural models. They are however expensive in production, and relatively opaque. Due to this opacity, it is diÿcult to accurately predict the behavior of some models and thus, to predict when these systems will return wrong answers. Unlike the vast majority of systems currently proposed, in this thesis we will try to solve this task with models with controllable size. We will focus mainly on feature-based approaches. The goal in restricting the size of the models is that they generalize better. So we will measure what these models capture in order to assess the granularity of their "understanding" of the language. Also, by analyzing the gaps of controllable size models, we will be able to highlight what more complex models have captured. To carry out our study, we evaluate ourselves here on SQuAD: a popular data set o˙ered by Standford University.
8

Développement mécanique d'un bras robotisé d'assistance pour assister les personnes vivant avec des incapacités aux membres supérieurs

Doyon, Charles 12 November 2023 (has links)
Titre de l'écran-titre (visionné le 8 mai 2023) / Plusieurs personnes sont atteintes par une certaine forme d'incapacité au quotidien. Au Canada, 13.7% de la population est limitée au quotidien par une incapacité [1], tandis que ce nombre est de 20% aux États-Unis [2]. Une solution pour augmenter leur autonomie est l'utilisation de technologies d'assistance. Plus spécifiquement, les bras d'assistance robotisés permettent d'aider au quotidien les personnes vivant avec des incapacités aux membres supérieurs [3; 4]. Ces robots permettent de réaliser certaines tâches de la vie quotidienne comme de déplacer des objets, de manger, de boire, d'ouvrir ou de fermer des portes. Bien qu'ils soient utiles, ces bras d'assistance sont difficiles d'accès à cause de leur coût élevé [3; 5]. Ce mémoire présente la conception mécanique d'un bras robotisé d'assistance et d'une main robotisée pour assister les personnes ayant des incapacités aux membres supérieurs en fauteuil roulant. Le concept présenté se démarque des autres solutions disponibles sur le marché puisqu'elle est abordable, environ 5000 $. Le concept est donc plus facilement accessible par la population visée. Le bras d'assistance robotisé peut se fixer sur le côté d'un fauteuil roulant ou sur le coin d'une table. Le bras possède six degrés de liberté. Le bras peut déplacer son effecteur à la bouche de l'utilisateur pour manger ou atteindre le sol pour y prendre un objet. Le bras est en mesure d'atteindre n'importe quelle orientation grâce à un poignet sphérique à son extrémité. Une main robotisée est développée pour être fixée à l'extrémité du bras robotisé. La main robotisée possède deux doigts à deux phalanges sous-actionnés par un seul moteur. La main est en mesure de réaliser des prises parallèles et des prises englobantes. La transition entre ces deux prises est entièrement passive et possible grâce à un mécanisme constitué de barres et de ressorts dans chaque doigt. / Many people are affected by some form of disability on a daily basis. In Canada, 13.7% of the population is limited on a daily basis by a disability [1], while this number is 20% in the United States [2]. A solution to increase their autonomy is the use of assistive technologies. More specifically, assistive robotic arms provide daily assistance to people living with upper body disabilities [3; 4]. These robots make it possible to perform certain tasks of daily life such as moving objects, eating, drinking, opening or closing doors. Although use ful, these assistive robotic arms are difficult to access because of their high cost [3; 5]. This thesis presents the mechanical design of an assistive robotic arm and a robotic hand to assist people with upper limb disabilities in wheelchairs. The concept presented stands out from other solutions available on the market since it is affordable, around 5000 $. The concept is therefore more easily accessible by the target population. The robotic arm can be attached to the side of a wheelchair or the corner of a table. The arm has six degrees of freedom. The arm can bring its effector to the mouth of the user to eat or reach the ground to pick up an object. The arm is able to orient the effector in any orientation thanks to a spherical wrist at its end. A robotic hand has been developed to be attached to the end of the robotic arm. The robotic hand has two fingers with two phalanges under actuated by a single motor. The hand is able to perform parallel en compassing grasps. The transition between these two grasps is entirely passive and possible thanks to a mechanism made up of bars and springs in each finger.
9

Étude empirique des commentaires et application des techniques de résumé par extraction pour la redocumentation

Haouari, Dorsaf 08 1900 (has links)
La documentation des programmes aide les développeurs à mieux comprendre le code source pendant les tâches de maintenance. Toutefois, la documentation n’est pas toujours disponible ou elle peut être de mauvaise qualité. Le recours à la redocumentation s’avère ainsi nécessaire. Dans ce contexte, nous proposons de faire la redocumentation en générant des commentaires par application de techniques de résumé par extraction. Pour mener à bien cette tâche, nous avons commencé par faire une étude empirique pour étudier les aspects quantitatifs et qualitatifs des commentaires. En particulier, nous nous sommes intéressés à l’étude de la distribution des commentaires par rapport aux différents types d’instructions et à la fréquence de documentation de chaque type. Aussi, nous avons proposé une taxonomie de commentaires pour classer les commentaires selon leur contenu et leur qualité. Suite aux résultats de l’étude empirique, nous avons décidé de résumer les classes Java par extraction des commentaires des méthodes/constructeurs. Nous avons défini plusieurs heuristiques pour déterminer les commentaires les plus pertinents à l’extraction. Ensuite, nous avons appliqué ces heuristiques sur les classes Java de trois projets pour en générer les résumés. Enfin, nous avons comparé les résumés produits (les commentaires produits) à des résumés références (les commentaires originaux) en utilisant la métrique ROUGE. / Programs documentation is very useful to programmers during maintenance tasks, especially for program comprehension. However, the documentation is not always available or it may be badly written. In such cases, redocumentation becomes so necessary. In this work, we propose a redocumentation technique that consists in generating comments by using extraction summary techniques. For this purpose, we conducted an empirical study to analyze the quantitave and qualitative aspects of comments. Particularly, we were interested in studying comment distribution over different types of construct and studying the frequency of documentation for each construct type. We propose a comment taxonomy to classify them according to their content and quality. Given the results of the empirical study, we decided to summarize Java classes by extracting the comments of methods and constructors. We defined several heuristics in order to determine the most relevant comments to be extracted. After that, we applied these heuristics to Java classes from three projects in order to generate summaries. Finally, we compared the generated summaries (generated comments) to the reference ones (original comments) by using the metric ROUGE.
10

Turbulence de surface pour des simulations de fluides basées sur un système de particules

Beauchemin, Cynthia 12 1900 (has links)
En simulation de fluides, il est très difficile d'obtenir des simulations contenant un haut niveau de détails efficacement dû à la complexité des phénomènes étudiés. Beaucoup de travaux se sont attaqués à ce problème afin de développer de nouvelles techniques permettant d'augmenter la résolution apparente des fluides à plus faibles coûts de calcul. Les nouvelles méthodes adaptatives ou multi-échelles ont permis de grandement améliorer la qualité visuelle des simulations de fumée et de liquides, mais certains problèmes demeurent toujours ouverts et au centre de nombreuses recherches. L'objectif de ce mémoire est d'élaborer une méthode multi-échelles afin d'augmenter la résolution apparente d'une simulation de liquide basée sur un système de particules déjà existante, un type de simulation très populaire grâce à ses propriétés de conservation d'énergie. Une telle méthode permettrait d'obtenir des simulations de résolution apparente élevée à bien moindres coûts de calcul et permettrait ainsi aux artistes d'obtenir un aperçu de leur simulation plus rapidement, tout en ayant un résultat de haute qualité. Nous présentons une méthode permettant de reconstruire une surface d'une telle simulation qui soit encline à la simulation de dynamique de surface afin d'injecter des détails de hautes fréquences occasionnés par la tension de surface. Notre méthode détecte les endroits sous-résolus de la simulation et y injecte de la turbulence grâce à de multiples oscillateurs à différentes fréquences. Les vagues à hautes fréquences injectées sont alors propagées à l'aide d'une simulation d'onde sur la surface. Notre méthode s'applique totalement en tant que post-traitement et préserve ainsi entièrement le comportement général de la simulation d'entrée tout en augmentant nettement la résolution apparente de la surface de celle-ci. / Accurately simulating the behaviour of fluids remains a difficult problem in computer graphics, and performing these simulations at a high level of detail is particularly challenging due to the complexity of the underlying dynamics of a fluid. A recent and significant body of work targets this problem by trying to augment the apparent resolution of an underlying, lower-resolution simulation, instead of performing a more costly simulation at the full-resolution. Adaptive or multi-scale methods in this area have proven successful for simulations of smoke and liquids, but no comprehensive solution exists. The goal of this thesis is to devise a new multi-scale detail-augmentation technique suitable for application atop existing particle-based fluid simulators. Particle simulations of fluid dynamics are a popular, heavily-used alternative to grid-based simulations due to their ability to better preserve energy, and no detail-augmentation techniques have been devised for this class of simulator. As such, our work would permit digital artists to perform more efficient lower-resolution particle simulations of a liquid, and then layer-on a detailed secondary simulation at a negligible cost. To do so, we present a method for reconstructing the surface of a liquid, during the particle simulation, in a manner that is amenable to high-frequency detail injection due to higher-resolution surface tension effects. Our technique detects potentially under-resolved regions on the initial simulation and synthesizes turbulent dynamics with novel multi-frequency oscillators. These dynamics result in a high-frequency wave simulation that is propagated over the (reconstructed) liquid surface. Our algorithm can be applied as a post-process, completely independent of the underlying simulation code, and so it is trivial to integrate in an existing 3D digital content creation pipeline.

Page generated in 0.0938 seconds