• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 678
  • 322
  • 49
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1050
  • 347
  • 218
  • 207
  • 203
  • 167
  • 144
  • 142
  • 116
  • 100
  • 90
  • 84
  • 77
  • 76
  • 73
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Un détecteur perceptif de la hauteur tonale pour la parole téléphonique /

Liu, Yong Chun. January 1992 (has links)
Mémoire (M.Sc.A.)-- Université du Québec à Chicoutimi, 1992. / Bibliogr.: f. 98-105. Document électronique également accessible en format PDF. CaQCU
172

Classification de cartes topographiques matricielles numérisées avec un scanneur : développement d'un algorithme

Miller, Marco. January 1997 (has links)
Thèses (M.Sc.)--Université de Sherbrooke (Canada), 1997. / Titre de l'écran-titre (visionné le 20 juin 2006). Publié aussi en version papier.
173

Contribution à l'algorithmique distribuée de contrôle : arbres couvrants avec et sans contraintes /

Butelle, Franck. January 1994 (has links)
Th. univ.--Informatique--Paris 8, 1994. / Bibliogr. p. 173-180. Index.
174

Etude de méthodes de production d'art génératif et de leur application pour la conception d'outils de création artistique accessibles / A survey of generative art production methods and their application for the conception of accessible art creation tools

Clair, Romain 06 December 2010 (has links)
Partant d'une étude de méthodes algorithmiques de création artistique automatique, nos travaux s'intéressent à des adaptations de ces méthodes pour proposer des formes de création artistique accessibles centrées sur la musique et le dessin par ordinateur. Le développement d'outils informatiques accessibles impose certaines contraintes. Elles servent de cadre au développement de deux outils qui illustrent la mise en œuvre de ces contraintes, associées à l'adaptation de systèmes de production artistique automatique, notamment basés sur des algorithmes de colonie de fourmis artificielles. Le premier programme est un instrument de musique virtuel permettant au plus grand nombre de jouer de la musique, et fournissant un accompagnement automatique. Le second est un atelier de dessin où des outils basés sur des méthodes génératives offrent un résultat complexe à partir d'actions très simples. Cette thèse détaille le développement de ces deux programmes ainsi que leur évaluation, sur le terrain, à la rencontre d'utilisateurs réels. / Starting from a survey of algorithmic methods for automatic artistic creation, our works deals with adaptations of these methods to provide accessible art creation forms, focusing on music and computer drawing.the development of accessible computer software requires some constraints. Following these constraints and using adapted automatic art production systems, notably based on artificial ant colony algorithms, we developed two computer programs.The first one is a virtual music instrument, allowing most people to play music and providing and automatic accompaniment.The second one is a drawing workshop with generative methods-based tools provide complex results from simple actions.This PhD thesis details the development of this two programs and their evaluations, with real users meetings.
175

Robustesse des applications temps-réel multicoeurs : techniques de construction d'un ordonnacement équitable tolérant aux pannes matérielles / Robustness of Multicore Real-Time Apllications : Building Techniques for Processor Failures Tolerant Scheduling

Mouafo Tchinda, Yves 12 October 2017 (has links)
Cette thèse propose des techniques de construction d'une séquence d'ordonnancement valide par un algorithme équitable pour des systèmes temps-réel multicoeurs subissant des pannes processeurs permanentes. Selon la nature des tâches les concepteurs peuvent allouer ou pas du temps supplémentaire pour récupérer l'exécution perdue. Dans un premier temps, nous traitons le cas de la défaillance d'un seul coeur. Nous montrons alors que s'il n'y a pas d'allocation de temps supplémentaire, prévoir un coeur de plus que le minimum nécessaire permet de construire une séquence valide : c'est la Technique de la Redondance Matérielle Limitée. Toutefois, si une telle allocation s'impose, nous proposons trois techniques : la Technique des Sous-tâches de Substitution qui augmente le WCET des tâches afin de prévoir du temps additionnel en remplacement du temps perdu, la Technique Contraindre puis Relâcher qui crée une marge de temps entre le délai critique et la période d'une tâche pour rattraper l'exécution perdue et la Technique du Flux Apériodique (TFA) qui réordonnance l'exécution perdue dans les unités de temps creux équitablement réparties. Ensuite, l'utilisation conjointe de ces techniques est envisagée en fonction de la nature des tâches impactées. Enfin, le cas de la défaillance de plusieurs coeurs est étudié. Pour ajuster la charge du système au nombre de coeurs fonctionnels, deux approches sont proposées : le changement de mode de criticité qui modifie les paramètres temporels de certaines tâches et l'abandon de certaines tâches en fonction de leur importance dans le système. / This thesis proposes several techniques to build a valid schedule with a Pfair algorithm for multicore real-time systems despite permanent processor failures. Depending on the nature of the tasks, additional time may be allocated or not to recover the lost execution. First, we consider a single core failure. We then show that if no additional time is allocated, the use of a single more core than the required minimum provides a valid schedule : it is the Limited Hardware Redundancy Technique. However, if full recovery is mandatory, we propose three techniques : the Substitute Subtasks Technique which increases the WCET to provide additionnal time which can be used to recover the lost time, the Constrain and Release Technique which creates a time margin between each task's deadline and the following period which can be used to recover the lost execution and the Aperiodic Flow Technique which reschedules the lost execution within the idle time units. Then, these techniques are mixed to adapt the scheduling behaviour to the nature of the impacted tasks. Finally, the case of the failure of several cores is studied.To adapt the system load to the number of remaining functionnal cores we use the criticality mode change which modifies the temporal parameters of some tasks or we discard some tasks according to their importance.
176

Metaheuristics for Group Shop Scheduling

Blum, Christian January 2002 (has links)
Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
177

Gestion, optimisation et conversion des énergies pour habitat autonome

Dahmane, Menad 24 November 2015 (has links)
Ce mémoire présente le travail de recherche qui consiste à développer et à mettre au point un dispositif capable d'alimenter en électricité un habitat isolé et le rendre autonome en utilisant des sources d'énergie renouvelable. Le système multi-sources considéré comprend une éolienne et des panneaux photovoltaïques comme sources principales, des batteries de type Lithium-Ion pour le stockage ainsi qu'un générateur Diesel comme source de secours. Dans le but d'apporter une contribution face aux problèmes de gestion d'énergie pour systèmes hybride et la commande des chaînes de conversion d'énergie renouvelable, nous proposons dans ce travail une stratégie de gestion des flux de puissances basée sur la prédiction des potentiels énergétiques sur un horizon très-court pour générer des références optimales pour assurer l'autonomie de la charge. Pour cela, nous présentons dans un premier temps, un dimensionnement des différents modules du système multi-sources ainsi que la modélisation de chacune des chaînes de conversion d'énergie. Par la suite, cette modélisation nous a permis de développer des lois de commande en utilisant les techniques LMI pour le placement de pôles dans le but d'augmenter les performances transitoires du suivi de références. L'algorithme de gestion proposé ainsi que les stratégies de commande développées pour le suivi de références et la maximisation de puissance ont été validées en simulation en utilisant des données issues de mesures réelles. Après avoir obtenu des résultats en simulation avec Matlab/Simulink, nous avons validé ces travaux expérimentalement en réalisant des tests sur la plateforme multi-sources équipée de cartes dSPACE du laboratoire / This dissertation presents a research project that consists of the development of a device that is able to supply an isolated house with electricity and to make it autonomous by using renewable energy sources. The multi-source system considered in this thesis includes a wind turbine and photovoltaic panels as main sources, Lithium-Ion batteries for storage and Diesel generator as emergency source. In order to make a contribution considering problems of energy management for hybrid systems as well as problems in controlling energy conversion chains, we are suggesting a power flow management strategy which is based on the prediction of the potential energy available on the veryshort-term. That strategy aims at generating optimal references in order to insure the electrical autonomy of the house. For this, we present firstly, a sizing and modelingof the different modules of the multi-source system. This modelling allowed us subsequently to develop a static and dynamic state feedback control strategies by using LMI techniques for pole placement in order to increase the transition performancesfor reference monitoring. The proposed management algorithm as well as the developed control strategies for tracking and maximizing power is validated in simulation using data obtained through real measurements. After having results in simulationusing Matlab/Simulink, we have validated them experimentally by conducting tests via a multi-source platform equipped with dSPACE cards of our laboratory
178

Méthode d'évaluation des algorithmes de détection temporelle des épidémies dans le cadre de l'alerte précoce / Evaluation methods for temporal outbreak detection algorithms in early warning surveillance

Texier, Gaëtan 22 November 2016 (has links)
L’objectif principal de ce travail de thèse est de proposer une méthode d’évaluation de ces algorithmes qui soit réaliste, pragmatique, opérationnel (que les acteurs de la surveillance pourront mettre simplement en œuvre), validé et reproductible. Cette méthode permettra de tester et d’évaluer les algorithmes pour en établir les caractéristiques et pour en définir les limites. Pour atteindre cet objectif, premièrement, nous proposons de modéliser le processus de surveillance avec ses tâches associées, la prise de décision et l’utilisation des ODA en conditions réelles. Un travail centré sur l’incertitude au cours de la gestion d’épidémie et l’identification d’outils potentiellement utilisables pour aider à la prise de décision a été réalisé.Deuxièmement, comme la maîtrise de l’ensemble du jeu de données d’évaluation est un préalable à toute évaluation, nous avons proposé une nouvelle approche qui permet de simuler en quelques minutes, à partir d’épidémies publiées, des courbes épidémiques réalistes. Nous avons utilisé les techniques de rééchantillonnage de Monte-Carlo permettant de résoudre un certain nombre de problèmes non traités dans la littérature et nous avons identifié la divergence du χ² comme une métrique intéressante pour réaliser le contrôle qualité de cette simulation. Nous avons également proposé une revue détaillée et commentée de l’ensemble des métriques d’évaluations publiées (>50). / The main goal of this work is to propose an assessment method to evaluate outbreak detection algorithm with the following characteristics: realistic, pragmatic, operational (easy to implement), validated and reproducible. This method will allow testing and evaluating outbreak detection algorithms with the objective to determine their features and limits. To reach this goal, firstly, we propose to model the surveillance process with their associated tasks, the decision-making and the use of ODA in real conditions. A work focused of uncertainty during the outbreak management and identification of possible tools to support the expert decision-making is presented.Secondly, because building a standardized dataset of evaluation is a prior before any evaluation, we proposed a new approach to simulate in few minutes, from published epidemics, realistic outbreak curve. We used a Monte-Carlo sampling approach to solved several problems non treated in literature and identified theχ²divergence to realized the quality control of data simulated. We also proposed a detailed and commented review on published evaluation metrics (>50). An example of ODA evaluation was realized by comparing several change point analysis (CPA) model and expert judgment while seeking to identify the complementarity between human and statistical tool in a goal of help to decision-making.
179

Proxy d'interface Homme-Machine : apport des algorithmes génétiques pour l'adaptation automatique de la présentation de documents Web

Lardon, Jérémy 29 November 2010 (has links)
L’informatique pervasive, paradigme fer de lance des services “anytime/anywhere”, appelle de plus en plus à des travaux de ré-ingénierie de sites Web. L’approche contemporaine de l’informatique dans les nuages va d’ailleurs générer de nouveaux besoins en ce sens. Aujourd’hui, les sites Web sont toujours pensés pour l’affichage sur un ordinateur traditionnel (comprendre desktop). Des versions alternatives sont cependant de plus en plus proposées pour l’accès via des smartphones, ou encore des dispositifs de visionnage jadis passifs, comme la télévision (interactive IPTV). Ces travaux de développement sont souvent relégués à des tâches ad hoc dans la gestion de projet du développement d’un site Web. Les algorithmes génétiques nous permettent d’approximer le problème d’optimisation de cette composition et son séquencement. En effet, les différentes compositions possibles sont mises en concurrence, croisées, et évaluées, de sorte qu’une solution proche d’un optimum puisse se dégager en un temps fini. Cet algorithme est au cœur du moteur d’adaptation proposé. La thèse fait état de l’implémentation de ce modèle complet, des résultats obtenus expérimentalement, et propose une interprétation de la performance du système. Le premier chapitre de ce mémoire est consacré au contexte de notre étude et l’étude bibliographique. Tout d’abord, nous présentons les généralités sur le domaine de l’adaptation automatique de documents Web. Par la suite, nous donnons un aperçu des contributions scientifiques ainsi que des systèmes déjà développés pour l’adaptation automatique. L’étude comparative de ces travaux nous a permis de dégager les pistes de travail de l’approche proposée dans la thèse. Le second chapitre propose notre modèle et plus particulièrement son découpage architectural. Nous présentons les concepts d’estimation de valeurs caractéristiques et de simulation de transformations permettant de construire l’algorithme génétique au centre de notre moteur d’hypermédia adaptatifs. L’implémentation de notre algorithme génétique y est également explicitée. Enfin, le chapitre 3 sert à présenter l’observation des résultats obtenus, ainsi que dresser les conclusions liées à notre implémentation. Cette présentation est associée à une étude des conséquences de la variation des paramètres de notre modèle et des ressources computationnelles. De cette analyse, nous soulevons les perspectives qu’offrent nos travaux / Pervasive computing calls for more and more re-engineering on Web sites. Nowadays, Web sites are often designed to be displayed on a personal computer. However, alternative versions are proposed more and more often. Zoom, focus, and thumbnail systems make the browsing easier but are not generally applicable to other devices. In our opinion, it is necessary to be able to adapt a Web document according to the constraints of the browsing device. This thesis proves that a meta-heuristic approach allows to make the re-engineering of a Web site automatic for a device whose charactéristics are not known in advance. In order to do so, we propose an architecture coupled with a module able to provide browsing session in the case where the Web document has to be split in chuncks. Device characteristics being not known in advance, we also introduce a system able to gather passively the device information. The work relies on an adapting model inspired by the transcoding. Our model appeals to techniques called transformations. Transformations are multiple, so it is necessary to determin, for each context, which ones must be applied and in which order. This sequencing of transformations is named composition. A genetic algorithm allows us to find an approximate solution for the problem of the best composition. Finally, the thesis presents the implemetation of this model, the results of our experimentations and proposes an interpretation of the performance of the system
180

A stochastic point-based algorithm for Partially Observable Markov Decision Processes

Tobin, Ludovic January 2008 (has links)
La prise de décision dans un environnement partiellement observable est un sujet d'actualité en intelligence artificielle. Une façon d'aborder ce type de problème est d'utiliser un modèle mathématique. Notamment, les POMDPs (Partially Observable Markov Decision Process) ont fait l'objet de plusieurs recherches au cours des dernières années. Par contre, résoudre un POMDP est un problème très complexe et pour cette raison, le modèle n'a pas été utilisé abondamment. Notre objectif était de continuer les progrès ayant été réalisé lors des dernières années, avec l'espoir que nos travaux de recherches seront un pas de plus vers l'application des POMDPs dans des applications d'envergures. Dans un premier temps, nous avons développé un nouvel algorithme hors-ligne qui, sur des problèmes tests, est plus performant que les meilleurs algorithmes existants. La principale innovation vient du fait qu'il s'agit d'un algorithme stochastique alors que les algorithmes traditionnels sont déterministes. Dans un deuxième temps, nous pouvons également appliquer cet algorithme dans des environnements en-lignes. Lorsque ceux-ci revêtent une certaine particularité, notre algorithme est beaucoup plus performant que la compétition. Finalement, nous avons appliqué une version simplifiée de notre algorithme dans le cadre du projet Combat Identification du RDDC-Valcartier. / Decision making under uncertainty is a popular topic in the field of artificial intelligence. One popular way to attack such problems is by using a sound mathematical model. Notably, Partially Observable Markov Processes (POMDPs) have been the subject of extended researches over the last ten years or so. However, solving a POMDP is a very time-consuming task and for this reason, the model has not been used extensively. Our objective was to continue the tremendous progress that has been made over the last couple of years, with the hope that our work will be a step toward applying POMDPs in large-scale problems. To do so, we combined different ideas in order to produce a new algorithm called SSVI (Stochastic Search Value Iteration). Three major accomplishments were achieved throughout this research work. Firstly, we developed a new offline POMDP algorithm which, on benchmark problems, proved to be more efficient than state of the arts algorithm. The originality of our method comes from the fact that it is a stochastic algorithm, in comparison with the usual determinist algorithms. Secondly, the algorithm we developed can also be applied in a particular type of online environments, in which this algorithm outperforms by a significant margin the competition. Finally, we also applied a basic version of our algorithm in a complex military simulation in the context of the Combat Identification project from DRDC-Valcartier.

Page generated in 0.0366 seconds