• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 406
  • 296
  • 121
  • 4
  • 3
  • Tagged with
  • 883
  • 883
  • 540
  • 328
  • 320
  • 291
  • 274
  • 263
  • 242
  • 217
  • 208
  • 206
  • 202
  • 200
  • 199
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

Transactional agents : towards a robust multi-agent system /

Nagi, Khaled. January 1900 (has links)
Thesis (Ph. D.)--University of Karlsruhe, 2001. / Includes bibliographical references (p. [193]-201) and subject index. Also available in electronic format on the Internet.
322

Analyse et conception d'un réseau de neurones formels pour le filtrage d'un signal dynamique /

Ennaji, Moulay Abderrahim. January 1992 (has links)
Mémoire (M.Eng.)-- Université du Québec à Chicoutimi, 1992. / Résumé disponible sur Internet. CaQCU Bibliogr.: f. 142-150. Document électronique également accessible en format PDF. CaQCU
323

Une approche à base d'agents pour la planification et l'ordonnancement en temps réel de personnel dans un contexte de chaîne d'assemblage flexible

Sabar, Mohamed. January 1900 (has links) (PDF)
Thèse (de doctorat)--Université Laval, 2008. / Titre de l'écran-titre (visionné le 12 janvier 2009). Bibliogr.
324

Confiance et incertitude dans les environnements distribués : application à la gestion des donnéeset de la qualité des sources de données dans les systèmes M2M (Machine to Machine). / Trust and uncertainty in distributed environments : application to the management of dataand data sources quality in M2M (Machine to Machine) systems.

Ravi, Mondi 19 January 2016 (has links)
La confiance et l'incertitude sont deux aspects importants des systèmes distribués. Par exemple, de multiples sources d'information peuvent fournir le même type d'information. Cela pose le problème de sélectionner la source la plus fiable et de résoudre l'incohérence dans l'information disponible. Gérer de front la confiance et l'incertitude constitue un problème complexe et nous développons à travers cette thèse, une solution pour y répondre. La confiance et l'incertitude sont intrinsèquement liés. La confiance concerne principalement les sources d'information alors que l'incertitude est une caractéristique de l'information elle-même. En l'absence de mesures de confiance et d'incertitude, un système doit généralement faire face à des problèmes tels que l'incohérence et l'incertitude. Pour aborder ce point, nous émettons l'hypothèse que les sources dont les niveaux de confiance sont élevés produiront de l'information plus fiable que les sources dont les niveaux de confiance sont inférieurs. Nous utilisons ensuite les mesures de confiance des sources pour quantifier l'incertitude dans l'information et ainsi obtenir des conclusions de plus haut niveau avec plus de certitude.Une tendance générale dans les systèmes distribués modernes consiste à intégrer des capacités de raisonnement dans les composants pour les rendre intelligents et autonomes. Nous modélisons ces composants comme des agents d'un système multi-agents. Les principales sources d'information de ces agents sont les autres agents, et ces derniers peuvent posséder des niveaux de confiance différents. De plus, l'information entrante et les croyances qui en découlent sont associées à un degré d'incertitude. Par conséquent, les agents sont confrontés à un double problème: celui de la gestion de la confiance sur les sources et celui de la présence de l'incertitude dans l'information. Nous illustrons cela avec trois domaines d'application: (i) la communauté intelligente, (ii) la collecte des déchets dans une ville intelligente, et (iii) les facilitateurs pour les systèmes de l'internet du futur (FIWARE - le projet européen n° 285248, qui a motivé la recherche sur nos travaux). La solution que nous proposons consiste à modéliser les composants de ces domaines comme des agents intelligents qui incluent un module de gestion de la confiance, un moteur d'inférence et un système de révision des croyances. Nous montrons que cet ensemble d'éléments peut aider les agents à gérer la confiance aux autres sources, à quantifier l'incertitude dans l'information et à l'utiliser pour aboutir à certaines conclusions de plus haut niveau. Nous évaluons finalement notre approche en utilisant des données à la fois simulées et réelles relatives aux différents domaines d'application. / Trust and uncertainty are two important aspects of many distributed systems. For example, multiple sources of information can be available for the same type of information. This poses the problem to select the best source that can produce the most certain information and to resolve incoherence amongst the available information. Managing trust and uncertainty together forms a complex problem and through this thesis we develop a solution to this. Trust and uncertainty have an intrinsic relationship. Trust is primarily related to sources of information while uncertainty is a characteristic of the information itself. In the absence of trust and uncertainty measures, a system generally suffers from problems like incoherence and uncertainty. To improve on this, we hypothesize that the sources with higher trust levels will produce more certain information than those with lower trust values. We then use the trust measures of the information sources to quantify uncertainty in the information and thereby infer high level conclusions with greater certainty.A general trend in the modern distributed systems is to embed reasoning capabilities in the end devices to make them smart and autonomous. We model these end devices as agents of a Multi Agent System. Major sources of beliefs for such agents are external information sources that can possess varying trust levels. Moreover, the incoming information and beliefs are associated with a degree of uncertainty. Hence, the agents face two-fold problems of managing trust on sources and presence of uncertainty in the information. We illustrate this with three application domains: (i) The intelligent community, (ii) Smart city garbage collection, and (iii) FIWARE : a European project about the Future Internet that motivated the research on this topic. Our solution to the problem involves modelling the devices (or entities) of these domains as intelligent agents that comprise a trust management module, an inference engine and a belief revision system. We show that this set of components can help agents to manage trust on the other sources and quantify uncertainty in the information and then use this to infer more certain high level conclusions. We finally assess our approach using simulated and real data pertaining to the different application domains.
325

Des machines à produire des futurs économiques : sociologie des intelligences artificielles marchandes à l'ère du big data / Machines to produce of the economic futures : a multi-situated ethnography of artificial intelligences in the big data era

Vayre, Jean-Sébastien 28 November 2016 (has links)
La plupart des experts s’accordent à dire que le big data marque une rupture. Peut-être ont-ils raison. Mais cette rupture n’est pas vraiment matérielle, ni même organisationnelle. Cela fait déjà longtemps que les grands acteurs du web explorent et exploitent quotidiennement de grandes masses de données. Si révolution il y a, elle se joue ailleurs, à la périphérie de la grande disruption que mettent en scène la plupart des promoteurs du big data. Pour s’en rendre compte, il suffit de se poser la question qui suit : en pointant le caractère révolutionnaire des mégadonnées et des dispositifs permettant de les traiter, que font ces acteurs ? Ils préparent une intégration massive des intelligences artificielles au sein des différentes sphères de la société. S’il existe une rupture, elle se trouve donc plutôt ici : dans ce mouvement que nous connaissons aujourd’hui et qui consiste, pour une grande diversité d’acteurs socioéconomiques, à s’approprier des agents de calcul qui sont toujours plus autonomes et puissants. Aussi, afin de mieux saisir les enjeux de cette démocratisation, nous proposons dans cette thèse d’étudier le cas des machines à produire des futurs économiques : quel est leur rôle au sein de ces collectifs sociotechniques que composent les marchés ? Pour répondre à cette question, nous nous appuierons sur une ethnographie multi-située que nous avons conduite de 2012 à 2015 selon une posture se trouvant à la croisée des sociologies des marchés, des sciences et des techniques. Plus précisément, nous mobiliserons un corpus d’archives ainsi qu’un important matériau d’enquête recueilli auprès de plusieurs professionnels, entreprises et salons afin d’examiner la fabrication et le fonctionnement de ces machines à prédire les avenirs marchands. Nous verrons ainsi qu’au niveau de l’environnement de conception, ces dernières sont intéressantes dans la mesure où elles sont généralement dotées d’une intelligence locale qui doit faire advenir, dans le présent, des futurs permettant d’optimiser les intérêts économiques de ceux qui les implémentent. À partir d’une série d’études et d’expérimentations portant sur les usages d’un agent de recommandation, nous montrerons que cette forme d’intelligence est toutefois discutable puisqu’elle peut comporter d’importantes ambivalences du point de vue des utilisateurs. Ceci nous permettra de souligner qu’aux niveaux cognitif et relationnel, la pertinence des machines à produire des futurs économiques doit faire l’objet d’une mise en question systématique. Les enjeux sont importants puisqu’il n’est pas impossible que leur avènement massif au sein des organisations instaure de nouvelles asymétries sur les marchés qui ne sont pas un bien pour la communauté. / The majority of experts agree to say that the big data is a rupture. Maybe are they right. But this rupture is not really material, nor even organizational. It has already been a long time that the big web actors daily exploring and exploiting the big data. If revolution there is, it is happening elsewhere, at the periphery of the great disruption that depict most of big data promoters. To being aware of, simply ask the following question: pointing the revolutionary nature of big data and devices are provided to treat, what these actors are they doing? They are preparing a massive integration of artificial intelligences within the various spheres of society. If there is a rupture, it is therefore rather here: in this movement that we know today and which consists, for a great diversity of socioeconomic actors, to appropriate of the calculation agents that are increasingly autonomous and powerful. So in order to better understand the issues of this democratization, we propose in this thesis to study the case of machines to produce of the economic futures: what is their role within the socio-technical collectives that compose the markets? To answer this question, we will draw on a multi-situated ethnography we conducted from 2012 to 2015 according to a posture situated at the intersection of market, science and technology sociologies. Specifically, we will be mobilizing a corpus of archives and an important investigative material collected from several professionals, companies and salons to discuss the design and operation of these machines to predict merchant futures. We will see at the level of design environment, these machines are interesting in so far as they generally have a local intelligence that has to happen, in the present, of futures allowing to optimize the economic interests of those that implement. Starting from a series of studies and experimentations dealing with the use of a recommendation agent, we will show that this intelligence is debatable because it may entail of considerable ambivalences from the users point of view. This will allow us to emphasize that cognitive and relational levels, the relevance of the machines to produce of the economic futures must be the subject to a systematic questioning. The stakes are high because it is not impossible that the massive advent of these machines within the organizations introduces new asymmetries in markets that are not a good for the community.
326

Using electroencephalograms to interpret and monitor the emotions

Shahab, Amin 12 1900 (has links)
No description available.
327

Traitements formels et sémantiques des échanges et des documents textuels liés à des activités collaboratives / Formal and semantic processing of textual exchanges and documents related to collaborative activities

Kalitvianski, Ruslan 20 March 2018 (has links)
Cette thèse s’inscrit dans la problématique de l’extraction de sens à partir de textes et flux textuels, produits dans notre cas lors de processus collaboratifs. Plus précisément, nous nous intéressons aux courriels de travail et aux documents textuels objets de collaboration, avec une première application aux documents éducatifs. La motivation de cet intérêt est d’aider les utilisateurs à accéder plus rapidement aux informations utiles ; nous cherchons donc à les repérer dans les textes. Ainsi, nous nous intéressons aux tâches dans les courriels, et aux fragments de documents éducatifs qui concernent les thèmes de leurs intérêts. Deux corpus, un de courriels et un de documents éducatifs, principalement en français, ont été constitués. Cela était indispensable, car il n’y a pratiquement pas de travaux antérieurs sur ce type de données en français.Notre première contribution théorique est une modélisation générique de la structure de ces données. Nous l’utilisons pour spécifier le traitement formel des documents, prérequis au traitement sémantique. Nous démontrons la difficulté du problème de segmentation, normalisation et structuration de documents en différents formats source, et présentons l’outil SEGNORM, première contribution logicielle de cette thèse. SEGNORM segmente et normalise les documents (en texte brut ou balisé), récursivement et en unités de taille paramétrable. Dans le cas des courriels, il segmente les messages contenant des messages cités en messages individuels, en conservant l’information du chaînage entre les fragments entremêlés. Il analyse également les métadonnées des messages pour reconstruire les fils de discussions, et retrouve dans les citations les messages dont on ne possède pas le fichier source.Nous abordons ensuite le traitement sémantique de ces documents. Nous proposons une modélisation (ontologique) de la notion de tâche, puis décrivons l’annotation d’un corpus de plusieurs centaines de messages issus du contexte professionnel de VISEO et du GETALP. Nous présentons alors la deuxième contribution logicielle de cette thèse, un outil de repérage de tâches et d’extraction de leurs attributs (contraintes temporelles, assignataires, etc.). Cet outil, basé sur une combinaison d’une approche experte et d’apprentissage automatique, est évalué selon des critères classiques de précision, rappel et F-mesure, ainsi que selon la qualité d’usage.Enfin, nous présentons nos travaux sur la plate-forme MACAU-CHAMILO, troisième contribution logicielle, qui aide à l’apprentissage par (1) structuration de documents pédagogiques selon deux ontologies (forme et contenu), (2) accès multilingue à du contenu initialement monolingue. Il s’agit donc de nouveau de structuration selon les deux axes, forme et sens.(1) L’ontologie des formes permet d’annoter les fragments des documents par des concepts comme théorème, preuve, exemple, par des niveaux de difficulté et d’abstraction, et par des relations comme élaboration_de, illustration_de. L’ontologie de domaine modélise les objets formels de l’informatique, et plus précisément les notions de complexité calculatoire. Cela permet de suggérer aux utilisateurs des fragments utiles pour la compréhension de notions d’informatique perçues comme abstraites ou difficiles.(2) L’aspect relatif à l’accès multilingue a été motivé par le constat que nos universités accueillent un grand nombre d’étudiants étrangers, qui ont souvent du mal à comprendre nos cours à cause de la barrière linguistique. Nous avons proposé une approche pour multilingualiser du contenu pédagogique avec l’aide d’étudiants étrangers, par post-édition en ligne de pré-traductions automatiques, puis, si besoin, amélioration incrémentale de ces post-éditions. (Nos expériences ont montré que des versions multilingues de documents peuvent être produites rapidement et sans coût.) Ce travail a abouti à un corpus de plus de 500 pages standard (250 mots/page) de contenu pédagogique post-édité vers le chinois. / This thesis is part of the problematics of the extraction of meaning from texts and textual flows, produced in our case during collaborative processes. More specifically, we are interested in work-related emails and collaborative textual documents, with a first application to educational documents. The motivation for this interest is to help users gain access to useful information more quickly; we hence seek to locate them in the texts. Thus, we are interested in the tasks referred to in the emails, and to the fragments of educational documents which concern the themes of their interests. Two corpora, one of e-mails and one of educational documents, mainly in French, have been created. This was essential because there is virtually no previous work on this type of data in French.Our first theoretical contribution is a generic modeling of the structure of these data. We use it to specify the formal processing of documents, a prerequisite for semantic processing. We demonstrate the difficulty of the problem of segmentation, standardization and structuring of documents in different source formats, and present the SEGNORM tool, the first software contribution of this thesis. SEGNORM segments and normalizes documents (in plain or tagged text), recursively and in units of configurable size. In the case of emails, it segments the messages containing quotations of messages into individual messages, thereby keeping the information about the chaining between the intertwined fragments. It also analyzes the metadata of the messages to reconstruct the threads of discussions, and retrieves in the quotations the messages of which one does not have the source file.We then discuss the semantic processing of these documents. We propose an (ontological) modeling of the notion of task, then describe the annotation of a corpus of several hundred messages originating from the professional context of VISEO and GETALP. We then present the second software contribution of this thesis: the tool for locating tasks and extracting their attributes (temporal constraints, assignees, etc.). This tool, based on a combination of an expert approach and machine learning, is evaluated according to classic criteria of accuracy, recall and F-measure, as well as according to the quality of use.Finally, we present our work on the MACAU-CHAMILO platform, third software contribution, which helps learning by (1) structuring of educational documents according to two ontologies (form and content), (2) multilingual access to content initially monolingual. This is therefore again about structuring along the two axes, form and meaning.(1) The ontology of forms makes it possible to annotate the fragments of documents by concepts such as theorem, proof, example, by levels of difficulty and abstraction, and by relations such as elaboration_of, illustration_of… The domain ontology models the formal objects of informatics, and more precisely the notions of computational complexity. This makes it possible to suggest to the users fragments useful for understanding notions of informatics perceived as abstract or difficult.(2) The aspect related to multilingual access has been motivated by the observation that our universities welcome a large number of foreign students, who often have difficulty understanding our courses because of the language barrier. We proposed an approach to multilingualize educational content with the help of foreign students, by online post-editing of automatic pre-translations, and, if necessary, incremental improvement of these post-editions. (Our experiments have shown that multilingual versions of documents can be produced quickly and without cost.) This work resulted in a corpus of more than 500 standard pages (250 words/page) of post-edited educational content into Chinese.
328

Detection of web vulnerabilities via model inference assisted evolutionary fuzzing / Détection de vulnérabilités Web par frelatage (fuzzing) évolutionniste et inférence de modèle

Duchene, Fabien 02 June 2014 (has links)
Le test est une approche efficace pour détecter des bogues d'implémentation ayant un impact sur la sécurité, c.a.d. des vulnérabilités. Lorsque le code source n'est pas disponible, il est nécessaire d'utiliser des techniques de test en boîte noire. Nous nous intéressons au problème de détection automatique d'une classe de vulnérabilités (Cross Site Scripting alias XSS) dans les applications web dans un contexte de test en boîte noire. Nous proposons une approche pour inférer des modèles de telles applications et frelatons des séquences d'entrées générées à partir de ces modèles et d'une grammaire d'attaque. Nous inférons des automates de contrôle et de teinte, dont nous extrayons des sous-modèles afin de réduire l'espace de recherche de l'étape de frelatage. Nous utilisons des algorithmes génétiques pour guider la production d'entrées malicieuses envoyées à l'application. Nous produisons un verdict de test grâce à une double inférence de teinte sur l'arbre d'analyse grammaticale d'un navigateur et à l'utilisation de motifs de vulnérabilités comportant des annotations de teinte. Nos implémentations LigRE et KameleonFuzz obtiennent de meilleurs résultats que les scanneurs boîte noire open-source. Nous avons découvert des XSS ``0-day'' (c.a.d. des vulnérabilités jusque lors inconnues publiquement) dans des applications web utilisées par des millions d'utilisateurs. / Testing is a viable approach for detecting implementation bugs which have a security impact, a.k.a. vulnerabilities. When the source code is not available, it is necessary to use black-box testing techniques. We address the problem of automatically detecting a certain class of vulnerabilities (Cross Site Scripting a.k.a. XSS) in web applications in a black-box test context. We propose an approach for inferring models of web applications and fuzzing from such models and an attack grammar. We infer control plus taint flow automata, from which we produce slices, which narrow the fuzzing search space. Genetic algorithms are then used to schedule the malicious inputs which are sent to the application. We incorporate a test verdict by performing a double taint inference on the browser parse tree and combining this with taint aware vulnerability patterns. Our implementations LigRE and KameleonFuzz outperform current open-source black-box scanners. We discovered 0-day XSS (i.e., previously unknown vulnerabilities) in web applications used by millions of users.
329

Cooperative knowledge discovery from cooperative activity : application on design projects / Découverte de connaissance coopérative à partir de l'activité coopérative : application sur des projets de conception

Dai, Xinghang 17 July 2015 (has links)
Les projets de conception deviennent de plus en plus complexes et multidisciplinaires en termes d’organisation. Ces projets sont menés actuellement d’une manière collaborative. La connaissance coopérative (liée à la négociation et à l’organisation) produite dans ce type de projets est généralement perdue. Par ailleurs, la gestion des connaissances permet à une entreprise de réutiliser l’expérience afin d’améliorer l’apprentissage organisationnel. Plusieurs méthodologies sont définies pour recueillir les connaissances métier. Cependant, ces approches présentent des limites pour recueillir et modéliser les connaissances coopératives. Un acteur ne peut pas expliquer globalement l’activité coopérative sans préjugé. Comment réutiliser la connaissance coopérative des projets de conception devient un défi en gestion de connaissances. Dans ma thèse « Découverte des connaissances coopératives à partir des activités coopératives : application sur les projets de conception », le terme « «découverte des connaissances » est redéfinit selon la méthodologie de l’ingénierie des connaissances et la gestion des connaissances. La nature de la connaissance coopérative est étudiée, ensuite une nouvelle approche de classification est proposée afin de découvrir la connaissance coopérative dans les activités coopératives. Cette approche est également élaborée dans le contexte de projet de conception. Des tests sur des projets en ingénierie de logiciel, en éco-conception et en conception mécanique sont réalisés / Modern design projects tend to be more and more complex and multi-disciplinary in terms of both organization and process. Knowledge management enables a company to reuse its experience in order to improve organizational learning. Several knowledge engineering methods are defined to obtain expert knowledge. However, no knowledge approaches have succeeded to extract cooperative knowledge due to its particular features: cooperative knowledge is produced in cooperative activities; no single actor can claim to explain globally the cooperative activity with no personal bias. How can we reuse cooperative design project knowledge is the new challenge. In my thesis “knowledge discovery from cooperative activities, application on design projects”, the term “knowledge discovery” is redefined according to knowledge engineering approaches, and guided by the spirit of knowledge management. The nature of cooperative knowledge is studied and a novel approach of classification is proposed to discover knowledge from cooperative activities, and it is further elaborated in the context of design projects, examples on software engineering, eco-design and mechanical design are demonstrated
330

Système intelligent de détection et diagnostic de fautes en tomographie d'émission par positrons

Charest, Jonathan January 2017 (has links)
La tomographie d'émission par positrons (TEP) est un outil de choix en imagerie moléculaire grâce à sa capacité à quantifier certains métabolismes et à porter des diagnostics précis sur l'évolution de pathologies. Cependant, la qualité du diagnostic est dépendante de la qualité de l'image obtenue. La complexité des appareils TEP fait en sorte que ceux-ci nécessitent des calibrations fréquentes demandant un professionnel qualifié dans le domaine que très peu de laboratoires pourvus d'un scanner possèdent. Conséquemment, ce projet vise à concevoir un système intelligent pouvant détecter des fautes et porter un diagnostic sur un scanner TEP de façon automatique dans le but de maximiser la qualité des images produites. Le système intelligent développé permettra alors de pallier à la surcharge ou à l'absence d'un professionnel en laboratoire puisqu'il automatisera le contrôle de qualité de l'appareil. Le projet englobe donc: l'identification de données permettant de détecter et diagnostiquer les fautes, l'implantation de système intelligent par module et de façon hiérarchique, la validation de l'exactitude des diagnostics et finalement l'évaluation de l'impact du système sur la qualité des images produites par le scanner. Pour arriver à son but, le système intelligent met en oeuvre différentes méthodes d'intelligence artificielle comprenant des réseaux de neurones artificiels, un système expert à base de règles et diverses méthodes de traitement de signal. Ce projet se penche plus spécifiquement sur le scanner LabPET, un scanner TEP pour petits animaux développé à Sherbrooke. LabPET est un bon candidat car il comporte un nombre élevé de canaux non interdépendants accentuant ainsi les bénéfices de la parallélisation apportés par le système proposé. Ainsi, les travaux ont permis de réaliser un système ayant une efficacité de détection et une exactitude de diagnostic dépassant les attentes et, une étude de l'impact du système sur la qualité des images a démontré une amélioration significative des paramètres de qualité d'image. Il en découle que le système est bien en mesure d'aider les professionnels dans l'entretien du scanner LabPET. Les résultats devraient permettre de promouvoir le développement de systèmes intelligents de détection et de diagnostic de fautes d'appareils TEP. Des systèmes similaires seront certainement nécessaires au bon fonctionnement des prochaines générations d'appareils TEP, et les résultats de ce projet pourront alors servir de référence.

Page generated in 0.6218 seconds