• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 14
  • 4
  • Tagged with
  • 18
  • 18
  • 18
  • 18
  • 9
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Le forage distribué des données : une approche basée sur l'agrégation et le raffinement de modèles

Aoun-Allah, Mohamed 12 April 2018 (has links)
Avec l’informatisation accrue de toutes les sphères d’activités de la société, nous assistons de nos jours à une explosion de la quantité de données électroniques existantes. C’est pourquoi, nous devons avoir recours à des outils automatiques qui sont à même d’analyser automatiquement les données et de ne nous fournir que l’information pertinente et résumée par rapport à ce qui est recherché. Les techniques de forage de données sont généralement utilisées à cette fin. Cependant, ces dernières nécessitent généralement un temps de calcul considérable afin d’analyser un large volume de données. Par ailleurs, si les données sont géographiquement distribuées, les regrouper sur un même site pour y créer un modèle (un classificateur par exemple) peut s’avérer très coûteux. Pour résoudre ce problème, nous proposons de construire plusieurs modèles, et plus précisément plusieurs classificateurs, soit un classificateur par site. Ensuite, les règles constituant ces classificateurs sont regroupées puis filtrées en se basant sur certaines mesures statistiques et une validation effectuée à partir de très petits échantillons provenant de chacun des sites. Le modèle résultant, appelé méta-classificateur, est, d’une part, un outil de prédiction pour toute nouvelle instance et, d’autre part, une vue abstraite de tout l’ensemble de données. Nous basons notre approche de filtrage de règles de classification sur une mesure de confiance associée à chaque règle qui est calculée statistiquement et validée en utilisant les échantillons recueillis. Nous avons considéré plusieurs techniques de validation tel qu’il sera présenté dans cette thèse. / With the pervasive use of computers in all spheres of activity in our society, we are faced nowadays with the explosion of electronic data. This is why we need automatic tools that are able to automatically analyze the data in order to provide us with relevant and summarized information with respect to some query. For this task, data mining techniques are generally used. However, these techniques require considerable computing time in order to analyze a huge volume of data. Moreover, if the data is geographically distributed, gathering it on the same site in order to create a model (a classifier for instance) could be time consuming. To solve this problem, we propose to build several models, that is one classifier by site. Then, rules constituting these classifiers are aggregated and filtered based on some statistical measures, and a validation process is carried out on samples from each site. The resulting model, called a metaclassifier is, on one hand, a prediction tool for any new (unseen) instance and, on the other hand, an abstract view of the whole data set. We base our rule filtering approach on a confidence measure associated with each rule, which is computed statistically and then validated using the data samples (one from each site). We considered several validation techniques such as will be discussed in this thesis.
2

Memory-Constrained Security Enforcement

Talhi, Chamseddine January 2007 (has links)
Avec l'extension des cellulaires, des réseaux sans fil et des périphériques mobiles, Java est devenu incontestablement l'environnement d'exécution le plus populaire. Cela est dû à ses aspects de sécurité, portabilité, mobilité et réseaux. Dans ce contexte, la plateforme de choix est Java ME-CLDC. Aussi, vu le nombre grandissant d'applications Java destinées aux périphériques mobiles, la sécurité est devenue un enjeu crucial à considérer d'une manière primordiale. Sécuriser ce type d'applications devient plus qu'impératif, notamment lorsque celles-ci manipulent des données confidentielles telles que les informations relatives aux transactions électroniques. Plus encore, les périph ériques supportant Java se retrouvent souvent interconnectées, ce qui signifie que les applications peuvent ainsi créer des connexions réseaux et faire circuler des données critiques sur les canaux de communications. Cependant, les efforts considérables déployés afin de sécuriser Java ME-CLDC se heurtent à des contraintes de limitations strictes de l'espace mémoire disponible, au sein des périphériques en question. Dans cette optique, cette thèse étudie le problème du maintien de la sécurité sous contraintes mémoire, et cela en analysant la sécurité de la plateforme Java ME-CLDC. Plus précisément, les objectifs majeurs de notre sujet de recherche sont (1) l'évaluation et l'amélioration de la sécurité de Java ME-CLDC et (2) la modélisation du monitoring d'exécution (EM) en y introduisant des contraintes mémoire. à vrai dire, EM constitue une classe importante et omniprésente parmi tous les mécanismes de sécurité utilisés dans les plateformes Java. Les principaux résultats auxquels a abouti notre investigation sont les suivants : - Une analyse de la sécurité de Java ME-CLDC. Les deux contributions principales qu'a engendré cette analyse sont l'analyse de vulnérabilité et l'analyse des risques de cette plateforme. L'analyse de vulnérabilité a révélé la présence de certaines faiblesses dans la plateforme, elle a montré également la manière permettant d'améliorer son modèle de sécurité. Quant à l'analyse des risques, elle a fourni une estimation de la gravité des risques associés aux vulnérabilités décelées. - Une modélisation du monitoring d'exécution sous contraintes mémoire. Cette modélisation couvre aussi bien les moniteurs conventionnels que des moniteurs plus puissants. Les contributions principales qui découlent de notre modélisation sont les suivantes: Premièrement, nous avons défini une nouvelle classe d'automates, dite Bounded History Automata (BHA) ou automates à historique borné, classe d'automate qui permet de spécifier les mécanismes EM opérant sous contraintes mémoire. Deuxièmement, nous avons identifié une nouvelle taxonomie orientée mémoire des propriétés assurées par EM. Troisièmement, nous avons étudié les propriétés localement testables qui peuvent être assurées par des EMs opérant sous contraintes mémoire. Cela est fait en deux étapes: on commence par identi- fier les propriétés assurées par EMs qui sont de nature locale, ensuite on vérifie si ces dernières peuvent être spécifiées par des BHAs. / With the proliferation of mobile, wireless and internet-enabled devices (e.g., PDAs, cell phones, pagers, etc.), Java is emerging as a standard execution environment due to its security, portability, mobility and network support features. The platform of choice in this setting is Java ME-CLDC. With the large number of applications available for Javaenabled network-connected devices, security is of paramount importance. Applications can handle user-sensitive data such as phonebook data or bank account information. Moreover, Java-enabled devices support networking, which means that applications can also create network connections and send or receive data. However, the considerable efforts of securing Java ME-CLDC are constrained by strict memory limitations of the target devices. This thesis aims at investigating memory-constrained security by analyzing the security of Java ME-CLDC and characterizing enforceable security policies. More precisely, the main objectives of our research are (1) evaluating and improving the security of Java ME-CLDC and (2) characterizing memory-constrained execution monitoring; an important class of security mechanisms. The main results of our research are the following: - A security analysis of Java ME-CLDC. The two main contributions of this analysis are a vulnerability analysis and a risk analysis of the platform. The vulnerability analysis revealed the presence of vulnerabilities in the platform and showed how to improve the underlying security model. The risk analysis provided a seriousness estimation of the risks associated with the uncovered vulnerabilities. - A characterization of memory-constrained execution monitoring. This characterization covers conventional monitors as well as more powerful monitors. The contribution of this characterization is mainly threefold. First, we deffined a new automata class, called Bounded History Automata (BHA), to specify memoryconstrained EM enforcement. Second, we identiffied a new memory-directed taxonomy of EM-enforceable properties. Third, we investigated the enforcement of local properties using memory-constrained EM. This was performed by identifying BHA-enforceable local properties and explaining how to check whether an EM-enforceable policy is local or not.
3

Nouveaux algorithmes d'apprentissage pour classificateurs de type SCM

Choquette, Philippe 13 April 2018 (has links)
Dans le cadre de l'apprentissage automatique supervisé, un des outils disponibles pour la classification binaire est la Set Covering Machine (SCM). Rapidement construite et en général très performante, elle n'est cependant pas systématiquement infaillible. Il existe encore, à ce jour, une marge pour une amélioration. Ce mémoire présente deux nouvelles façons de construire des SCM. Ces algorithmes sont décrits, expliqués et leur performance est analysée. La première façon est de minimiser une approximation d'une borne sur le risque à l'aide d'un branch-and-bound. La deuxième est d'utiliser le bagging. Lors des tests, les nouveaux classificateurs se sont montrés aussi performants que les SCM originales. Nous avons découvert que celles-ci sont soit déjà optimales au sens du critère utilisé pour le branch-and-bound, soit aussi performantes que les SCM optimales. / In the supervised machine learning field, one of the available tools for binary classification is the Set Covering Machine (SCM). Quickly built and generally having high performance, it's however not proven that they always give optimal results. There is still, to date, a margin for improvement. This study presents two new ways of building SCM. Theses algorithms are described, explained and their performance is analyzed. The first way is to minimize an approximated bound on the risk with a branch-and-bound. The second is using bagging. The new classifiers had the same test-set performance than the original SCM. We discovered that the latter are either already optimal according to the branch-and-bound criterion or having the same performance as the optimal SCM.
4

Vers une approche web sémantique dans les applications de gestion de conférences

Mestiri, Mohamed Amine 13 April 2018 (has links)
Depuis sa création, il y a plusieurs années, par Tim Berners-Lee, le World Wide Web a révolutionné considérablement plusieurs domaines, notamment la société, l'économie et surtout la recherche et la manière dont celle-ci est conduite. Cependant, la majeure partie du Contenu du Web actuel a été conçue pour être lue et comprise par les êtres humains. Les applications et les agents logiciels n'avaient alors aucunes idées sur son sens réel. Le web sémantique, comme extension du Web actuel, vise à structurer son sens et permettre une meilleure collaboration homme-machine. On s'ouvre ainsi à de nouvelles possibilités d'automatisation sur le web et une gestion plus intelligente du contenu. Dans cette optique, plusieurs technologies clés comme XML, RDF et OWL ont été développées, puis standardisées par le World Wide Web Consortium (W3C). Nous nous proposons d'étudier, dans le cadre de notre projet de maîtrise, l'approche Web sémantique dans les applications de gestion de conférences. Le projet SWOC (Semantic Web Open Conference) fait partie de cette réflexion. Il s'agit d'effectuer la ré-ingénierie d'une application en ligne de gestion des conférences, dans le but de la faire migrer vers la technologie du Web sémantique. Les ateliers de travail et les séminaires constituent, en effet, un partage de connaissances et d'idées entre des personnes d'une même communauté intellectuelle. Mettre leur gestion au c?ur des innovations technologiques doit tenir compte de nombreuses contraintes. Or, au cours de notre recherche, nous avons relevé plusieurs limites dans les applications en ligne les plus utilisées, liées principalement à l'assignation des articles aux évaluateurs, l'aide à la saisie des données et la description des ressources. L'idée qui se profile derrière ce projet est de cerner les plus-values du nouveau système et à en dégager les résultats d'assignation, afin de les comparer à ceux d'un système de base. Ce travail de recherche vise ainsi à analyser de plus près l'approche Web sémantique et son apport dans les applications de gestion de conférences, et d'en tirer des conclusions.
5

Modélisaton et sécurité des réseaux

Cormier, Alexandre 13 April 2018 (has links)
L'avènement d'Internet révolutionne l'accès à l'information, mais contribue également à l'essor de nouveaux services, notamment le commerce électronique, à l'allègement de la bureaucratie et à l'arrivée d'une multitude de e-services. Or, le développement de cette technologie de l'information s'est accompagné d'une panoplie de problématiques. Parmi celles-ci, les plus inquiétantes ont trait à la sécurité puisqu'elles mettent en péril le bon fonctionnement de ces services. Le présent mémoire approfondit ces problématiques de sécurité selon une approche formelle : les algèbres de processus. Dans un premier temps, le fruit de la recherche sur les failles de sécurité réseau de niveau deux et trois de la couche TCP/IP et d'une étude comparative de l'expressivité des principales algèbres de processus est présenté. Dans un second temps, les caractéristiques souhaitées d'une algèbre de modélisation de réseau sont mises en exergue et sont intégrées dans la syntaxe et la sémantique d'une nouvelle algèbre. Finalement, une nouvelle algèbre de processus pour la modélisation de réseau, Netcal, ainsi que les principes d'un système de détection de failles d'architecture et de configuration de réseau sont explicités.
6

Implantation d'une méthode agile de développement logiciel en entreprise : une culture accueillant le changement

Tremblay, Richard 13 April 2018 (has links)
Depuis quelques années, les méthodes agiles ont émergées et semblent prometteuses. Ce mémoire relate les travaux réalisés dans le but de procéder à l’implantation d’une méthode agile de développement en entreprise. Afin de distinguer les approches agiles, nous débutons par un rappel des approches traditionnelles. Nous établissons quelles sont les caractéristiques de ces approches, les différents modèles et leurs limitations. Nous analysons ensuite l’offre des approches agiles. Nous définissons en quoi consiste l’agilité et quelles sont les caractéristiques communes de ces approches. Nous présentons quelques méthodes, plus particulièrement : Extreme Programming, Scrum et Crystal Clear. Finalement, nous relatons l’expérience d’une implantation en entreprise afin de vérifier sa facilité d’application. Nous concluons que ces approches adaptatives sont plus efficaces que les approches prédictives lorsqu’elles sont utilisées dans un contexte propice. / In recent years, agile methods have emerged and appear promising. This memoirs describes the work carried out in order to proceed with the implementation of an agile method development in business. To distinguish the agile approaches, we begin with a recap of traditional approaches. We establish what are the characteristics of these approaches, the various models and their limitations. We then analyze the proposal of agile approaches. We define what constitutes agility and what are the common characteristics of these approaches. We present some methods, in particular: Extreme Programming, Scrum and Crystal Clear. Finally, we talk about the experience of an establishment of the agile method into a business in order to verify its ease of implementation. We conclude that these adaptive approaches are more effective then predictive approaches when used in the right context.
7

Selective sampling for classification

Shanian, Sara 13 April 2018 (has links)
Une des objectifs poursuivis par la recherche en apprentissage automatique est la construction de bons classificateurs à partir d'un ensemble d'exemples étiquetés. Certains problèmes nécessitent de réunir un grand ensemble d'exemples étiquetés, ce qui peut s'avérer long et coûteux. Afin de réduire ces efforts, il est possible d'utiliser les algorithmes d'apprentissage actif. Ces algorithmes tirent profit de la possibilité de faire quelques demandes d'étiquetage parmi un grand ensemble d'exemples non-étiquetés pour construire un classificateur précis. Il est cependant important de préciser que les algorithmes d'apprentissage actif actuels possèdent eux-mêmes quelques points faibles connus qui peuvent les mener à performer inadéquatement dans certaines situations. Dans cette thèse, nous proposons un nouvel algorithme d'apprentissage actif. Notre algorithme atténue certains points faibles des précédents algorithmes d'apprentissage actif, et il se révèle trés compétitif aux algorithmes d'apprentissage actif bien-connus. De plus, notre algorithme est facile à implémenter. / One of the goals of machine learning researches is to build accurate classifiers form an amount of labeled examples. In some problems, it is necessary to gather a large set of labeled examples which can be costly and time-consuming. To reduce these expenses, one can use active learning algorithms. These algorithms benefit from the possibility of performing a small number of label-queries from a large set of unlabeled examples to build an accurate classifier. It should be mentioned that actual active learning algorithms, themselves, have some known weak points which may lead them to perform unsuccessfully in certain situations. In this thesis, we propose a novel active learning algorithm. Our proposed algorithm not only fades the weak points of the previous active learning algorithms, but also performs competitively among the widely known active learning algorithms while it is easy to implement.
8

Similarité statistique pour le CBR textuel

Miry, Erwan 13 April 2018 (has links)
Les courriers électroniques sont devenus au cours des dernières années un moyen de communication privilégié. Leur nombre atteint des niveaux si élevés que leur manipulation par les entreprises devient difficile manuellement et requiert des méthodes automatiques. Les systèmes de suivi automatique permettent un traitement des messages et une augmentation de la facilité pour les utilisateurs qui désirent créer un courriel en réponse à une requête, à partir de messages archivés dans la bibliothèque de l’entreprise. Un des problèmes majeurs dans ce type d’application est la sélection de courriers électroniques archivés pertinents à la requête nouvellement soumise : il est nécessaire que le texte retourné par le système qui servira de base à la rédaction d’une réponse, soit en corrélation avec le sujet de la question posée. La recherche de la similarité entre les textes est donc une des principales tâches de ce système. L’objectif de nos travaux se situe toutefois à un niveau supérieur à la simple recherche de similarité entre courriers électroniques; nous avons comme objectif d’évaluer la similarité entre des textes comportant peu de mots. Pour cela, notre étude comporte deux parties distinctes: la recherche de similarités entre des mots afin d’élargir le vocabulaire d’un texte, e le calcul de la similarité entre les documents. Notre question de recherche consiste à identifier les techniques les plus pertinentes pour évaluer la similarité textuelle, et déterminer s’il est possible d’améliorer ces techniques par des combinaisons de méthodes de calcul de la similarité sémantique et de détection des cooccurrences de mots. Lors de nos expérimentations, nous avons cherché à améliorer la similarité sémantique entre les mots. Nous avons aussi proposé plusieurs méthodes pour élargir le vocabulaire des documents basées sur les résultats de la première partie de nos travaux. Nous avons enfin mesuré la similarité sémantique entre les documents modifiés, afin de les utiliser comme base à la rédaction d’une réponse à la nouvelle requête. Notre bilan nous indique que, grâce à nos calculs, il est possible d’améliorer les résultats de calcul de la similarité entre les mots (cosinus) en filtrant les cooccurrences. Cependant, une méthode de filtrage ne garantit pas nécessairement des améliorations, et peut même dégrader la capacité de détection de similarité textuelle. Une comparaison avec la technique du tf*idf nous a permis de constater que les résultats améliorés du cosinus, que nous avons obtenus, égalent pratiquement cette technique, sans pour autant la dépasser. / E-mails have recently become a popular mean of communication for exchanges between companies and their customers. However the increasing volume of messages makes manual processing difficult to achieve and automatic methods are foreseen as a more efficient solution. Automatic management systems help users in the processing of the messages and in the creation of a response from the messages kept in the company databases. One important question in this type of application is how to select existing e-mails to respond to a new request. The creation of new response messages requires texts pertaining to the new request topics. Finding similarity between documents is also an important task. Our goal for this research effort was to study how to detect similarity between small documents. To accomplish it, we followed a two-pronged approach: - finding similarity between words in order to augment a document’s vocabulary; - estimating similarity between documents, using all the similar words resulting from the previous step. We dedicated our work to determine the most interesting techniques to detect textual similarity between documents, and to improve those techniques using cooccurrences detection and lexical semantic similarity. During our experimentations, we tried different combinations, using cooccurrences detection and lexical similarity. We proposed techniques to augment the vocabulary of each message, based on different kind of reasoning to improve the estimation of similarity between documents. Our results indicate that the proposed augmentation techniques improve significantly the estimation of document similarity. The best results were obtained when using a combination of cooccurrences filter and cosine metric. However our experiments clearly indicate these results do not overcome the performance of similarity techniques based on tf*idf weights.
9

Conversion de programmes de l'impératif au déclaratif / Conversion de programmes de l'impératif au déclaratif

Godbout, Daniel, Godbout, Daniel January 2007 (has links)
Habituellement, plus le développement d'un logiciel est avancé plus il est dispen- dieux de le modifier. Par conséquent, une approche permettant de simplifier l'étape de maintenance permettrait de réduire considérablement le coût lié au développement de programmes. Le langage déclaratif de la méthodologie Lyee permet justement de simplifier la maintenance de programmes. Cependant, les programmes existants écrits dans un langage impératif doivent être traduits pour être utilisés par celle-ci. Ainsi, dans ce travail, nous proposons une fonction de conversion de programmes écrits dans un langage impératif avec des tableaux et entrées/sorties vers un langage déclaratif. Il s'agit d'une extension de langages L1 et L2 existants qui supportaient déjà les expres- sions arithmétiques et booléennes ainsi que les affectations, les boucles et les instructions conditionnelles. Le travail effectué a donc été d'ajouter les tableaux et les entrées/sorties dans ces langages et d'ajuster la fonction de traduction en conséquent. Aussi, une im- plantation d'une interface de développement permettant de spécifier des programmes dans un langage déclaratif simple à utiliser a été produite. / Habituellement, plus le développement d'un logiciel est avancé plus il est dispen- dieux de le modifier. Par conséquent, une approche permettant de simplifier l'étape de maintenance permettrait de réduire considérablement le coût lié au développement de programmes. Le langage déclaratif de la méthodologie Lyee permet justement de simplifier la maintenance de programmes. Cependant, les programmes existants écrits dans un langage impératif doivent être traduits pour être utilisés par celle-ci. Ainsi, dans ce travail, nous proposons une fonction de conversion de programmes écrits dans un langage impératif avec des tableaux et entrées/sorties vers un langage déclaratif. Il s'agit d'une extension de langages L1 et L2 existants qui supportaient déjà les expres- sions arithmétiques et booléennes ainsi que les affectations, les boucles et les instructions conditionnelles. Le travail effectué a donc été d'ajouter les tableaux et les entrées/sorties dans ces langages et d'ajuster la fonction de traduction en conséquent. Aussi, une im- plantation d'une interface de développement permettant de spécifier des programmes dans un langage déclaratif simple à utiliser a été produite.
10

Modélisation d'un outil d'acquisition de connaissances destiné à l'enseignant

Emmanuel, M. Jalil January 2007 (has links)
Ce mémoire de maîtrise s'inscrit dans le domaine de l'ingénierie de connaissances et plus précisément dans une tâche de construction de contenu pédagogique pour un système éducationnel. Jusqu'ici, divers outils de présentation, d'échange et de stockage des informations ont été développés pour favoriser l'apprentissage de l'étudiant dans les systèmes éducationnels. Cependant, à notre connaissance, peu d'outils visent à minimiser l'effort de l'enseignant dans la construction de contenu pédagogique. L'objectif de notre projet est d'approfondir la notion d'acquisition des connaissances pour aider l'enseignant à construire les connaissances associées à un système éducationnel. Ce projet s'insère dans le cadre de la conception d'un système informatique, disponible en ligne, pour l'apprentissage humain à partir d'exemples. Un agent d'acquisition est proposé pour entrer des exemples et générer automatiquement des documents électroniques représentant ces exemples. Cet agent a été développé et permet de créer des patrons représentant la structure d'un exemple donné. Une interface d'acquisition est générée à partir d'un patron pour permettre la saisie des données qui vont servir à générer l'exemple. Cet exemple sera stocké dans un fichier XML, puis présenté à l'apprenant par le système éducationnel. La technologie XML se prête bien à ces tâches de gestion des connaissances, car elle permet d'inclure une logique de traitement des informations et d'automatiser les traitements, et ce de façon indépendante de la plate-forme utilisée. L'enseignant dispose ainsi d'un outil lui permettant d'ajouter des exemples d'exercices résolus d'une manière plus conviviale et plus flexible, peu importe le contenu de l'exemple.

Page generated in 0.0294 seconds