• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 211
  • 120
  • 16
  • Tagged with
  • 406
  • 406
  • 400
  • 399
  • 398
  • 398
  • 398
  • 398
  • 398
  • 55
  • 49
  • 49
  • 48
  • 47
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

Inferring API Usage Patterns and Constraints : a Holistic Approach

Saied, Mohamed Aymen 08 1900 (has links)
Les systèmes logiciels dépendent de plus en plus des librairies et des frameworks logiciels. Les programmeurs réutilisent les fonctionnalités offertes par ces librairies à travers une interface de programmation (API). Par conséquent, ils doivent faire face à la complexité des APIs nécessaires pour accomplir leurs tâches, tout en surmontant l’absence de directive sur l’utilisation de ces API dans leur documentation. Dans cette thèse, nous proposons une approche holistique qui cible le problème de réutilisation des librairies, à trois niveaux. En premier lieu, nous nous sommes intéressés à la réutilisation d’une seule méthode d’une API. À ce niveau, nous proposons d’identifier les contraintes d’utilisation liées aux paramètres de la méthode, en analysant uniquement le code source de la librairie. Nous avons appliqué plusieurs analyses de programme pour détecter quatre types de contraintes d’utilisation considérées critiques. Dans un deuxième temps, nous changeons l’échelle pour nous focaliser sur l’inférence des patrons d’utilisation d’une API. Ces patrons sont utiles pour aider les développeurs à apprendre les façons courantes d’utiliser des méthodes complémentaires de l’API. Nous proposons d’abord une technique basée sur l’analyse des programmes clients de l’API. Cette technique permet l’inférence de patrons multi-niveaux. Ces derniers présentent des relations de co-utilisation entre les méthodes de l’API à travers des scénarios d’utilisation entremêlés. Ensuite, nous proposons une technique basée uniquement sur l’analyse du code de la librairie, pour surmonter la contrainte de l’existence des programmes clients de l‘API. Cette technique infère les patrons par analyse des relations structurelles et sémantiques entre les méthodes. Finalement, nous proposons une technique coopérative pour l’inférence des patrons d’utilisation. Cette technique est axée sur la combinaison des heuristiques basées respectivement sur les clients et sur le code de la librairie. Cette combinaison permet de profiter à la fois de la précision des techniques basées sur les clients et de la généralisabilité des techniques basées sur les librairies. Pour la dernière contribution de notre thèse, nous visons un plus haut niveau de réutilisation des librairies. Nous présentons une nouvelle approche, pour identifier automatiquement les patrons d’utilisation de plusieurs librairies, couramment utilisées ensemble, et généralement développées par différentes tierces parties. Ces patrons permettent de découvrir les possibilités de réutilisation de plusieurs librairies pour réaliser diverses fonctionnalités du projets. / Software systems increasingly depend on external library and frameworks. Software developers need to reuse functionalities provided by these libraries through their Application Programming Interfaces (APIs). Hence, software developers have to cope with the complexity of existing APIs needed to accomplish their work, and overcome the lack of usage directive in the API documentation. In this thesis, we propose a holistic approach that deals with the library usability problem at three levels of granularity. In the first step, we focus on the method level. We propose to identify usage constraints related to method parameters, by analyzing only the library source code. We applied program analysis strategies to detect four critical usage constraint types. At the second step, we change the scale to focus on API usage pattern mining in order to help developers to better learn common ways to use the API complementary methods. We first propose a client-based technique for mining multilevel API usage patterns to exhibit the co-usage relationships between API methods across interfering usage scenarios. Then, we proposed a library-based technique to overcome the strong constraint of client programs’ selection. Our technique infers API usage patterns through the analysis of structural and semantic relationships between API methods. Finally, we proposed a cooperative usage pattern mining technique that combines client-based and library-based usage pattern mining. Our technique takes advantage at the same time from the precision of the client-based technique and from the generalizability of the library-based technique. As a last contribution of this thesis, we target a higher level of library usability. We present a novel approach, to automatically identify third-party library usage patterns, of libraries that are commonly used together. This aims to help developers to discover reuse opportunities, and pick complementary libraries that may be relevant for their projects.
242

Prédiction du délai d'attente en temps réel et modélisation des durées de service dans les centres d'appels multi-compétences

Thiongane, Mamadou 08 1900 (has links)
Dans cette thèse, nous commençons par l'étude de la prédiction de délai d'attente des clients dans les centres d'appels multi-compétences. Le temps d'attente a un impact important sur la qualité du service perçue par les clients. L'annonce du délai d'attente permet de réduire l'incertitude du client à propos de son délai d'attente. Elle peut également augmenter la satisfaction du client et réduire le nombre d'abandons. Ceci nécessite d'avoir un bon prédicteur de délai. Malheureusement les prédicteurs existants ne sont pas adaptés pour les centres d'appels multi-compétences. Nous proposons trois types de prédicteurs qui utilisent l'apprentissage machine: le premier utilise la régression par les splines cubiques, le second emploie les réseaux de neurones artificiels, et le dernier utilise le krigeage stochastique. Les prédicteurs prennent en entrée le temps d'attente du dernier client de même type à entrer en service, la période d'arrivée du nouveau client, le nombre d'agents des groupes, la longueur de la file des clients de même type, et les longueurs des files d'attente des types servis par les mêmes agents. Ces prédicteurs donnent de bons résultats pour les systèmes multi-compétences, mais un inconvénient est qu'ils ont un grand nombre de paramètres qui doivent être appris à l'avance durant une phase d'entraînement du modèle qui nécessite une grande quantité de données et temps de calcul. Nous proposons ensuite deux nouveaux prédicteurs de délai qui sont très simples à mettre en œuvre, requièrent peu d'effort d'optimisation, ne nécessitent pas de données, et qui sont applicables dans les centres d'appels multi-compétences. Ils sont basés sur l'historique des temps d'attente des clients. Le premier estime le délai d'un nouveau client en extrapolant l'historique des attentes des clients actuellement dans la file d'attente, en plus du délai du dernier qui a commencé le service, et en prenant une moyenne pondérée. Le second retourne une moyenne pondérée des délais des anciens clients de la même classe qui ont trouvé la même longueur de file d'attente quand ils sont arrivés. Ensuite, nous nous intéressons à la modélisation des durées de service dans les centres d'appels. En général, les modèles de file d'attente d'Erlang standard sont utilisés pour analyser les opérations dans les centres d'appels. Dans ces modèles, les temps de service des agents sont modélisés comme des variables aléatoires exponentielles indépendantes, identiquement distribuées et de moyenne constante. Plusieurs travaux récents ont montré que la distribution des temps de service est : dépendante du temps, log-normale plutôt qu'exponentielle, et dépend aussi de l'agent. Nous proposons une modélisation plus réaliste des temps de service dans les centres d'appels qui prennent en compte plusieurs propriétés observées dans les données réelles. Nos modèles prennent en compte: l'hétérogénéité des agents, la dépendance du temps, les corrélations sérielles entre les temps de service d'un agent pour le même type d'appel, et les corrélations croisées entre plusieurs types d'appels servis par le même agent. Nous avons montré que ces modèles prédisent les moyennes des temps de service des agents mieux que les modèles de références considérés. Par la suite, nous montrons par la simulation que ces modèles plus réalistes conduisent à des prédictions des performances du système significativement différentes de celles des modèles de références, et les décisions que pourraient prendre le gestionnaire en observant ces données peuvent mener à des économies de coûts importants dans la pratique. / In this thesis, we begin with the study of delay prediction of customers in multiskill call centers. Waiting time has an important impact on the quality of service experienced by customers. Delay announcement can reduce customer uncertainty about its delay time. It also can increase customer satisfaction and reduce the number of abandonments. This requires having a good delay predictor. Unfortunately existing predictors are not adapted for multiskill call centers. We propose three types of predictors that use machine learning: the first uses regression cubic splines, the second employs artificial neural networks, and the latter uses the stochastic kriging. The predictors take as inputs the delay of the last customer of the same type to enter service, the arrival period of the new customer, the staffing of agents groups, the queue length of the same type, and the queue lengths of types served by the same agents. These predictors work well for multiskill call centers, but one drawback is that they have a large number of parameters that must be learned in advance during the training phase that requires a large amount of data and computional time. We also propose two new delay predictors that are very simple to implement, require little optimization effort, do not need any data, and are applicable in multiskill call centers. They are based on the wait times of previous customers of the same class. The first one estimates the delay of a new customer by extrapolating the wait history of customers currently in queue, plus the delay of last one that started service, and taking a weighted average. The second one takes a weighted average of the delays of the past customers of the same class that have found the same queue length when they arrived. Next in this thesis, we are also interested in modelling service time in call centers. In general, the standard Erlang queueing models are used to analyze call centers operations. In these models, agent service times are modelled as independent and identically distributed exponential random variables with a constant mean. Several recent studies have shown that the distribution of service time is: time-dependent, lognormal rather than exponential, and distinct by agent. We propose a more realistic modelling of service times in call centers that takes into account multiple properties observed in real life data. Our models take into account: the heterogeneity of agents, the time dependence, serial correlation between service time of an agent for the same call type, and the cross-correlations between several call types served by the same agent. We show that these models predict agent average service time better than the considered benchmark models. Thereafter, we show by simulation that these more realistic models lead to system performance predictions significantly different from those of the benchmark models, and decisions that manager could take by observing this data can lead to important cost savings in practice.
243

Applications of complex numbers to deep neural networks

Bilaniuk, Olexa 08 1900 (has links)
No description available.
244

Sensibilisation à la protection de la vie privée dans un contexte d’utilisation de dispositifs portables intelligents

Fortin, Jean-François 03 1900 (has links)
No description available.
245

Étude combinatoire et algorithmique de la médiane de permutations sous la distance de Kendall-Tau

Desharnais, Charles 04 1900 (has links)
No description available.
246

Représentation OWL de la ressource lexicale LVF et son utilisation dans le traitement automatique de la langue

Abdi, Radia 09 1900 (has links)
Le dictionnaire LVF (Les Verbes Français) de J. Dubois et F. Dubois-Charlier représente une des ressources lexicales les plus importantes dans la langue française qui est caractérisée par une description sémantique et syntaxique très pertinente. Le LVF a été mis disponible sous un format XML pour rendre l’accès aux informations plus commode pour les applications informatiques telles que les applications de traitement automatique de la langue française. Avec l’émergence du web sémantique et la diffusion rapide de ses technologies et standards tels que XML, RDF/RDFS et OWL, il serait intéressant de représenter LVF en un langage plus formalisé afin de mieux l’exploiter par les applications du traitement automatique de la langue ou du web sémantique. Nous en présentons dans ce mémoire une version ontologique OWL en détaillant le processus de transformation de la version XML à OWL et nous en démontrons son utilisation dans le domaine du traitement automatique de la langue avec une application d’annotation sémantique développée dans GATE. / The LVF dictionary (Les Verbes Français) by J. Dubois and F. Dubois-Charlier is one of the most important lexical resources in the French language, which is characterized by a highly relevant semantic and syntactic description. The LVF has been available in an XML format to make access to information more convenient for computer applications such as NLP applications for French language. With the emergence of the Semantic Web and the rapid diffusion of its technologies and standards such as XML, RDF/RDFS and OWL, it would be interesting to represent LVF in a more formalized format for a better and more sophisticated usage by natural language processing and semantic web applications. We present in this paper an OWL ontology version of LVF by demonstrating the mapping process between the data model elements of the XML version and OWL. We give account about its use in the field of natural language processing by presenting an application of semantic annotation developed in GATE.
247

L’extraction de phrases en relation de traduction dans Wikipédia

Rebout, Lise 06 1900 (has links)
Afin d'enrichir les données de corpus bilingues parallèles, il peut être judicieux de travailler avec des corpus dits comparables. En effet dans ce type de corpus, même si les documents dans la langue cible ne sont pas l'exacte traduction de ceux dans la langue source, on peut y retrouver des mots ou des phrases en relation de traduction. L'encyclopédie libre Wikipédia constitue un corpus comparable multilingue de plusieurs millions de documents. Notre travail consiste à trouver une méthode générale et endogène permettant d'extraire un maximum de phrases parallèles. Nous travaillons avec le couple de langues français-anglais mais notre méthode, qui n'utilise aucune ressource bilingue extérieure, peut s'appliquer à tout autre couple de langues. Elle se décompose en deux étapes. La première consiste à détecter les paires d’articles qui ont le plus de chance de contenir des traductions. Nous utilisons pour cela un réseau de neurones entraîné sur un petit ensemble de données constitué d'articles alignés au niveau des phrases. La deuxième étape effectue la sélection des paires de phrases grâce à un autre réseau de neurones dont les sorties sont alors réinterprétées par un algorithme d'optimisation combinatoire et une heuristique d'extension. L'ajout des quelques 560~000 paires de phrases extraites de Wikipédia au corpus d'entraînement d'un système de traduction automatique statistique de référence permet d'améliorer la qualité des traductions produites. Nous mettons les données alignées et le corpus extrait à la disposition de la communauté scientifique. / Working with comparable corpora can be useful to enhance bilingual parallel corpora. In fact, in such corpora, even if the documents in the target language are not the exact translation of those in the source language, one can still find translated words or sentences. The free encyclopedia Wikipedia is a multilingual comparable corpus of several millions of documents. Our task is to find a general endogenous method for extracting a maximum of parallel sentences from this source. We are working with the English-French language pair but our method -- which uses no external bilingual resources -- can be applied to any other language pair. It can best be described in two steps. The first one consists of detecting article pairs that are most likely to contain translations. This is achieved through a neural network trained on a small data set composed of sentence aligned articles. The second step is to perform the selection of sentence pairs through another neural network whose outputs are then re-interpreted by a combinatorial optimization algorithm and an extension heuristic. The addition of the 560~000 pairs of sentences extracted from Wikipedia to the training set of a baseline statistical machine translation system improves the quality of the resulting translations. We make both the aligned data and the extracted corpus available to the scientific community.
248

PROTECT_U: Un système communautaire pour la protection des usagers de Facebook

Gandouz, Ala Eddine 08 1900 (has links)
Chaque année, le nombre d’utilisateurs des réseaux sociaux augmente à une très grande vitesse. Des milliers de comptes usagés incluant des données privées sont créés quotidiennement. Un nombre incalculable de données privées et d'informations sensibles sont ainsi lues et partagées par les différents comptes. Ceci met en péril la vie privée et la sécurité de beaucoup d’utilisateurs de ces réseaux sociaux. Il est donc crucial de sensibiliser ces utilisateurs aux dangers potentiels qui les guettent. Nous présentons Protect_U (Hélou, Gandouz et al. 2012), un système de protection de la vie privée des utilisateurs de Facebook. Protect_U analyse le contenu des profils des utilisateurs et les classes selon quatre niveaux de risque : Low risk, medium risk, risky and critical. Il propose ensuite des recommandations personnalisées pour leur permettre de rendre leurs comptes plus sécuritaires. Pour ce faire, il fait appel à deux modèles de protection : local et communautaire. Le premier utilise les données personnelles de l’utilisateur afin de lui proposer des recommandations et le second recherche ses amis de confiance pour les inciter à participer à l’amélioration de la sécurité de son propre compte. / Social networking sites have experienced a steady and dramatic increase in the number of users over the past several years. Thousands of user accounts, each including a significant amount of private data, are created daily. As such, an almost countless amount of sensitive and private information is read and shared across the various accounts. This jeopardizes the privacy and safety of many social network users and mandates the need to increase the users’ awareness about the potential hazards they are exposed to on these sites. We introduce Protect_U (Hélou, Gandouz et al. 2012), a privacy protection system for Facebook users. Protect_U analyzes the content of user profiles and ranks them according to four risk levels: Low Risk, Medium Risk, Risky and Critical. The system then suggests personalized recommendations designed to allow users to increase the safety of their accounts. In order to achieve this, Protect_U draws upon both the local and community-based protection models. The first model uses a Facebook user’s personal data in order to suggest recommendations, and the second seeks out the user’s most trustworthy friends to encourage them to help improve the safety of his/her account. / Article publié dans le journal « Journal of Information Security Research ». March 2012.
249

Détection des chutes par calcul homographique

Mokhtari, Djamila 08 1900 (has links)
La vidéosurveillance a pour objectif principal de protéger les personnes et les biens en détectant tout comportement anormal. Ceci ne serait possible sans la détection de mouvement dans l’image. Ce processus complexe se base le plus souvent sur une opération de soustraction de l’arrière-plan statique d’une scène sur l’image. Mais il se trouve qu’en vidéosurveillance, des caméras sont souvent en mouvement, engendrant ainsi, un changement significatif de l’arrière-plan; la soustraction de l’arrière-plan devient alors problématique. Nous proposons dans ce travail, une méthode de détection de mouvement et particulièrement de chutes qui s’affranchit de la soustraction de l’arrière-plan et exploite la rotation de la caméra dans la détection du mouvement en utilisant le calcul homographique. Nos résultats sur des données synthétiques et réelles démontrent la faisabilité de cette approche. / The main objective of video surveillance is to protect persons and property by detecting any abnormal behavior. This is not possible without detecting motion in the image. This process is often based on the concept of subtraction of the scene background. However in video tracking, the cameras are themselves often in motion, causing a significant change of the background. So, background subtraction techniques become problematic. We propose in this work a motion detection approach, with the example application of fall detection. This approach is free of background subtraction for a rotating surveillance camera. The method uses the camera rotation to detect motion by using homographic calculation. Our results on synthetic and real video sequences demonstrate the feasibility of this approach.
250

Mures : Un système de recommandation de musique

Arnautu, Octavian Rolland 11 1900 (has links)
Pendant la dernière décennie nous avons vu une transformation incroyable du monde de la musique qui est passé des cassettes et disques compacts à la musique numérique en ligne. Avec l'explosion de la musique numérique, nous avons besoin de systèmes de recommandation de musique pour choisir les chansons susceptibles d’être appréciés à partir de ces énormes bases de données en ligne ou personnelles. Actuellement, la plupart des systèmes de recommandation de musique utilisent l’algorithme de filtrage collaboratif ou celui du filtrage à base de contenu. Dans ce mémoire, nous proposons un algorithme hybride et original qui combine le filtrage collaboratif avec le filtrage basé sur étiquetage, amélioré par la technique de filtrage basée sur le contexte d’utilisation afin de produire de meilleures recommandations. Notre approche suppose que les préférences de l'utilisateur changent selon le contexte d'utilisation. Par exemple, un utilisateur écoute un genre de musique en conduisant vers son travail, un autre type en voyageant avec la famille en vacances, un autre pendant une soirée romantique ou aux fêtes. De plus, si la sélection a été générée pour plus d'un utilisateur (voyage en famille, fête) le système proposera des chansons en fonction des préférences de tous ces utilisateurs. L'objectif principal de notre système est de recommander à l'utilisateur de la musique à partir de sa collection personnelle ou à partir de la collection du système, les nouveautés et les prochains concerts. Un autre objectif de notre système sera de collecter des données provenant de sources extérieures, en s'appuyant sur des techniques de crawling et sur les flux RSS pour offrir des informations reliées à la musique tels que: les nouveautés, les prochains concerts, les paroles et les artistes similaires. Nous essayerons d’unifier des ensembles de données disponibles gratuitement sur le Web tels que les habitudes d’écoute de Last.fm, la base de données de la musique de MusicBrainz et les étiquettes des MusicStrands afin d'obtenir des identificateurs uniques pour les chansons, les albums et les artistes. / In the last decade we have seen an incredible transformation of the world of music, from cassette tapes and compact discs to online digital music. With the explosion of the digital music we need music recommender systems to select those probably preferred songs from these huge online or personal databases. Currently, most music recommender systems use either collaborative (social) filtering or content-based algorithms. In this work we propose an original hybrid collaborative and tag-based algorithm improved by the context-of-use filtering technique in order to generate better playlists. Our approach assumes that user preferences change depending on the context of use. For example, a user listen one kind of music while driving to work, another type while traveling with the family on vacation, another one in a romantic evening or at parties. Additionally, if the playlist was generated for more than one user (family trip, party) the system will propose songs depending on the preferences of all these users. The main goal of our system is to recommend music to the user from the personal music collection or new music from system music collection, new releases and incoming concerts. Another goal of our system it will be to gather data from external sources based on crawling techniques and RSS Feeds to provide music related content like: new releases, incoming concerts, lyrics, similar artists. We’ll try to interlink some free available datasets on the web like listening habits from Last.fm, music database from MusicBrainz and tags from MusicStrands in order to obtain unique identifiers for songs, albums and artists.

Page generated in 0.0886 seconds