• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 678
  • 322
  • 49
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1050
  • 347
  • 218
  • 207
  • 203
  • 167
  • 144
  • 142
  • 116
  • 100
  • 90
  • 84
  • 77
  • 76
  • 73
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Un détecteur perceptif de la hauteur tonale pour la parole téléphonique /

Liu, Yong Chun. January 1992 (has links)
Mémoire (M.Sc.A.)-- Université du Québec à Chicoutimi, 1992. / Bibliogr.: f. 98-105. Document électronique également accessible en format PDF. CaQCU
172

Classification de cartes topographiques matricielles numérisées avec un scanneur : développement d'un algorithme

Miller, Marco. January 1997 (has links)
Thèses (M.Sc.)--Université de Sherbrooke (Canada), 1997. / Titre de l'écran-titre (visionné le 20 juin 2006). Publié aussi en version papier.
173

Contribution à l'algorithmique distribuée de contrôle : arbres couvrants avec et sans contraintes /

Butelle, Franck. January 1994 (has links)
Th. univ.--Informatique--Paris 8, 1994. / Bibliogr. p. 173-180. Index.
174

Etude de méthodes de production d'art génératif et de leur application pour la conception d'outils de création artistique accessibles / A survey of generative art production methods and their application for the conception of accessible art creation tools

Clair, Romain 06 December 2010 (has links)
Partant d'une étude de méthodes algorithmiques de création artistique automatique, nos travaux s'intéressent à des adaptations de ces méthodes pour proposer des formes de création artistique accessibles centrées sur la musique et le dessin par ordinateur. Le développement d'outils informatiques accessibles impose certaines contraintes. Elles servent de cadre au développement de deux outils qui illustrent la mise en œuvre de ces contraintes, associées à l'adaptation de systèmes de production artistique automatique, notamment basés sur des algorithmes de colonie de fourmis artificielles. Le premier programme est un instrument de musique virtuel permettant au plus grand nombre de jouer de la musique, et fournissant un accompagnement automatique. Le second est un atelier de dessin où des outils basés sur des méthodes génératives offrent un résultat complexe à partir d'actions très simples. Cette thèse détaille le développement de ces deux programmes ainsi que leur évaluation, sur le terrain, à la rencontre d'utilisateurs réels. / Starting from a survey of algorithmic methods for automatic artistic creation, our works deals with adaptations of these methods to provide accessible art creation forms, focusing on music and computer drawing.the development of accessible computer software requires some constraints. Following these constraints and using adapted automatic art production systems, notably based on artificial ant colony algorithms, we developed two computer programs.The first one is a virtual music instrument, allowing most people to play music and providing and automatic accompaniment.The second one is a drawing workshop with generative methods-based tools provide complex results from simple actions.This PhD thesis details the development of this two programs and their evaluations, with real users meetings.
175

Robustesse des applications temps-réel multicoeurs : techniques de construction d'un ordonnacement équitable tolérant aux pannes matérielles / Robustness of Multicore Real-Time Apllications : Building Techniques for Processor Failures Tolerant Scheduling

Mouafo Tchinda, Yves 12 October 2017 (has links)
Cette thèse propose des techniques de construction d'une séquence d'ordonnancement valide par un algorithme équitable pour des systèmes temps-réel multicoeurs subissant des pannes processeurs permanentes. Selon la nature des tâches les concepteurs peuvent allouer ou pas du temps supplémentaire pour récupérer l'exécution perdue. Dans un premier temps, nous traitons le cas de la défaillance d'un seul coeur. Nous montrons alors que s'il n'y a pas d'allocation de temps supplémentaire, prévoir un coeur de plus que le minimum nécessaire permet de construire une séquence valide : c'est la Technique de la Redondance Matérielle Limitée. Toutefois, si une telle allocation s'impose, nous proposons trois techniques : la Technique des Sous-tâches de Substitution qui augmente le WCET des tâches afin de prévoir du temps additionnel en remplacement du temps perdu, la Technique Contraindre puis Relâcher qui crée une marge de temps entre le délai critique et la période d'une tâche pour rattraper l'exécution perdue et la Technique du Flux Apériodique (TFA) qui réordonnance l'exécution perdue dans les unités de temps creux équitablement réparties. Ensuite, l'utilisation conjointe de ces techniques est envisagée en fonction de la nature des tâches impactées. Enfin, le cas de la défaillance de plusieurs coeurs est étudié. Pour ajuster la charge du système au nombre de coeurs fonctionnels, deux approches sont proposées : le changement de mode de criticité qui modifie les paramètres temporels de certaines tâches et l'abandon de certaines tâches en fonction de leur importance dans le système. / This thesis proposes several techniques to build a valid schedule with a Pfair algorithm for multicore real-time systems despite permanent processor failures. Depending on the nature of the tasks, additional time may be allocated or not to recover the lost execution. First, we consider a single core failure. We then show that if no additional time is allocated, the use of a single more core than the required minimum provides a valid schedule : it is the Limited Hardware Redundancy Technique. However, if full recovery is mandatory, we propose three techniques : the Substitute Subtasks Technique which increases the WCET to provide additionnal time which can be used to recover the lost time, the Constrain and Release Technique which creates a time margin between each task's deadline and the following period which can be used to recover the lost execution and the Aperiodic Flow Technique which reschedules the lost execution within the idle time units. Then, these techniques are mixed to adapt the scheduling behaviour to the nature of the impacted tasks. Finally, the case of the failure of several cores is studied.To adapt the system load to the number of remaining functionnal cores we use the criticality mode change which modifies the temporal parameters of some tasks or we discard some tasks according to their importance.
176

Metaheuristics for Group Shop Scheduling

Blum, Christian January 2002 (has links)
Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
177

Gestion, optimisation et conversion des énergies pour habitat autonome

Dahmane, Menad 24 November 2015 (has links)
Ce mémoire présente le travail de recherche qui consiste à développer et à mettre au point un dispositif capable d'alimenter en électricité un habitat isolé et le rendre autonome en utilisant des sources d'énergie renouvelable. Le système multi-sources considéré comprend une éolienne et des panneaux photovoltaïques comme sources principales, des batteries de type Lithium-Ion pour le stockage ainsi qu'un générateur Diesel comme source de secours. Dans le but d'apporter une contribution face aux problèmes de gestion d'énergie pour systèmes hybride et la commande des chaînes de conversion d'énergie renouvelable, nous proposons dans ce travail une stratégie de gestion des flux de puissances basée sur la prédiction des potentiels énergétiques sur un horizon très-court pour générer des références optimales pour assurer l'autonomie de la charge. Pour cela, nous présentons dans un premier temps, un dimensionnement des différents modules du système multi-sources ainsi que la modélisation de chacune des chaînes de conversion d'énergie. Par la suite, cette modélisation nous a permis de développer des lois de commande en utilisant les techniques LMI pour le placement de pôles dans le but d'augmenter les performances transitoires du suivi de références. L'algorithme de gestion proposé ainsi que les stratégies de commande développées pour le suivi de références et la maximisation de puissance ont été validées en simulation en utilisant des données issues de mesures réelles. Après avoir obtenu des résultats en simulation avec Matlab/Simulink, nous avons validé ces travaux expérimentalement en réalisant des tests sur la plateforme multi-sources équipée de cartes dSPACE du laboratoire / This dissertation presents a research project that consists of the development of a device that is able to supply an isolated house with electricity and to make it autonomous by using renewable energy sources. The multi-source system considered in this thesis includes a wind turbine and photovoltaic panels as main sources, Lithium-Ion batteries for storage and Diesel generator as emergency source. In order to make a contribution considering problems of energy management for hybrid systems as well as problems in controlling energy conversion chains, we are suggesting a power flow management strategy which is based on the prediction of the potential energy available on the veryshort-term. That strategy aims at generating optimal references in order to insure the electrical autonomy of the house. For this, we present firstly, a sizing and modelingof the different modules of the multi-source system. This modelling allowed us subsequently to develop a static and dynamic state feedback control strategies by using LMI techniques for pole placement in order to increase the transition performancesfor reference monitoring. The proposed management algorithm as well as the developed control strategies for tracking and maximizing power is validated in simulation using data obtained through real measurements. After having results in simulationusing Matlab/Simulink, we have validated them experimentally by conducting tests via a multi-source platform equipped with dSPACE cards of our laboratory
178

Méthode d'évaluation des algorithmes de détection temporelle des épidémies dans le cadre de l'alerte précoce / Evaluation methods for temporal outbreak detection algorithms in early warning surveillance

Texier, Gaëtan 22 November 2016 (has links)
L’objectif principal de ce travail de thèse est de proposer une méthode d’évaluation de ces algorithmes qui soit réaliste, pragmatique, opérationnel (que les acteurs de la surveillance pourront mettre simplement en œuvre), validé et reproductible. Cette méthode permettra de tester et d’évaluer les algorithmes pour en établir les caractéristiques et pour en définir les limites. Pour atteindre cet objectif, premièrement, nous proposons de modéliser le processus de surveillance avec ses tâches associées, la prise de décision et l’utilisation des ODA en conditions réelles. Un travail centré sur l’incertitude au cours de la gestion d’épidémie et l’identification d’outils potentiellement utilisables pour aider à la prise de décision a été réalisé.Deuxièmement, comme la maîtrise de l’ensemble du jeu de données d’évaluation est un préalable à toute évaluation, nous avons proposé une nouvelle approche qui permet de simuler en quelques minutes, à partir d’épidémies publiées, des courbes épidémiques réalistes. Nous avons utilisé les techniques de rééchantillonnage de Monte-Carlo permettant de résoudre un certain nombre de problèmes non traités dans la littérature et nous avons identifié la divergence du χ² comme une métrique intéressante pour réaliser le contrôle qualité de cette simulation. Nous avons également proposé une revue détaillée et commentée de l’ensemble des métriques d’évaluations publiées (>50). / The main goal of this work is to propose an assessment method to evaluate outbreak detection algorithm with the following characteristics: realistic, pragmatic, operational (easy to implement), validated and reproducible. This method will allow testing and evaluating outbreak detection algorithms with the objective to determine their features and limits. To reach this goal, firstly, we propose to model the surveillance process with their associated tasks, the decision-making and the use of ODA in real conditions. A work focused of uncertainty during the outbreak management and identification of possible tools to support the expert decision-making is presented.Secondly, because building a standardized dataset of evaluation is a prior before any evaluation, we proposed a new approach to simulate in few minutes, from published epidemics, realistic outbreak curve. We used a Monte-Carlo sampling approach to solved several problems non treated in literature and identified theχ²divergence to realized the quality control of data simulated. We also proposed a detailed and commented review on published evaluation metrics (>50). An example of ODA evaluation was realized by comparing several change point analysis (CPA) model and expert judgment while seeking to identify the complementarity between human and statistical tool in a goal of help to decision-making.
179

Proxy d'interface Homme-Machine : apport des algorithmes génétiques pour l'adaptation automatique de la présentation de documents Web

Lardon, Jérémy 29 November 2010 (has links)
L’informatique pervasive, paradigme fer de lance des services “anytime/anywhere”, appelle de plus en plus à des travaux de ré-ingénierie de sites Web. L’approche contemporaine de l’informatique dans les nuages va d’ailleurs générer de nouveaux besoins en ce sens. Aujourd’hui, les sites Web sont toujours pensés pour l’affichage sur un ordinateur traditionnel (comprendre desktop). Des versions alternatives sont cependant de plus en plus proposées pour l’accès via des smartphones, ou encore des dispositifs de visionnage jadis passifs, comme la télévision (interactive IPTV). Ces travaux de développement sont souvent relégués à des tâches ad hoc dans la gestion de projet du développement d’un site Web. Les algorithmes génétiques nous permettent d’approximer le problème d’optimisation de cette composition et son séquencement. En effet, les différentes compositions possibles sont mises en concurrence, croisées, et évaluées, de sorte qu’une solution proche d’un optimum puisse se dégager en un temps fini. Cet algorithme est au cœur du moteur d’adaptation proposé. La thèse fait état de l’implémentation de ce modèle complet, des résultats obtenus expérimentalement, et propose une interprétation de la performance du système. Le premier chapitre de ce mémoire est consacré au contexte de notre étude et l’étude bibliographique. Tout d’abord, nous présentons les généralités sur le domaine de l’adaptation automatique de documents Web. Par la suite, nous donnons un aperçu des contributions scientifiques ainsi que des systèmes déjà développés pour l’adaptation automatique. L’étude comparative de ces travaux nous a permis de dégager les pistes de travail de l’approche proposée dans la thèse. Le second chapitre propose notre modèle et plus particulièrement son découpage architectural. Nous présentons les concepts d’estimation de valeurs caractéristiques et de simulation de transformations permettant de construire l’algorithme génétique au centre de notre moteur d’hypermédia adaptatifs. L’implémentation de notre algorithme génétique y est également explicitée. Enfin, le chapitre 3 sert à présenter l’observation des résultats obtenus, ainsi que dresser les conclusions liées à notre implémentation. Cette présentation est associée à une étude des conséquences de la variation des paramètres de notre modèle et des ressources computationnelles. De cette analyse, nous soulevons les perspectives qu’offrent nos travaux / Pervasive computing calls for more and more re-engineering on Web sites. Nowadays, Web sites are often designed to be displayed on a personal computer. However, alternative versions are proposed more and more often. Zoom, focus, and thumbnail systems make the browsing easier but are not generally applicable to other devices. In our opinion, it is necessary to be able to adapt a Web document according to the constraints of the browsing device. This thesis proves that a meta-heuristic approach allows to make the re-engineering of a Web site automatic for a device whose charactéristics are not known in advance. In order to do so, we propose an architecture coupled with a module able to provide browsing session in the case where the Web document has to be split in chuncks. Device characteristics being not known in advance, we also introduce a system able to gather passively the device information. The work relies on an adapting model inspired by the transcoding. Our model appeals to techniques called transformations. Transformations are multiple, so it is necessary to determin, for each context, which ones must be applied and in which order. This sequencing of transformations is named composition. A genetic algorithm allows us to find an approximate solution for the problem of the best composition. Finally, the thesis presents the implemetation of this model, the results of our experimentations and proposes an interpretation of the performance of the system
180

Biométrie multimodale basée sur l’iris et le visage / Multimodal biometrics based on iris and face

Khiari, Nefissa 24 May 2016 (has links)
Cette thèse vise à apporter une contribution dans le domaine de la biométrie par l’iris (l’une des modalités les plus précises et difficiles à pirater) et le visage (l’une des modalités les moins intrusives et les moins coûteuses). A travers ce travail, nous abordons plusieurs aspects importants de la biométrie mono et multimodale. Nous commençons par dresser un état de l’art sur la biométrie monomodale par l’iris et par le visage et sur la multimodalité iris/visage, avant de proposer plusieurs approches personnelles de reconnaissance d’individus pour chacune des deux modalités. Nous abordons, en particulier, la reconnaissance faciale par des approches classiques reposant sur des combinaisons d’algorithmes et des approches bio-inspirées émulant le mécanisme de la vision humaine. Nous démontrons l’intérêt des approches bio-inspirées par rapport aux approches classiques à travers deux méthodes. La première exploite les résultats issus de travaux neuroscientifiques indiquant l’importance des régions et des échelles de décomposition utiles à l’identification d’un visage. La deuxième consiste à appliquer une méthode de codage par ordre de classement dans la phase de prétraitement pour renforcer le contenu informatif des images de visage. Nous retenons la meilleure approche de chacune des modalités de l’iris et du visage pour concevoir deux méthodes biométriques multimodales. A travers ces méthodes, nous évaluons différentes stratégies classiques de fusion multimodale au niveau des scores. Nous proposons ensuite une nouvelle règle de fusion de scores basée sur un facteur de qualité dépendant du taux d’occultation des iris. Puis, nous mettons en avant l’intérêt de l’aspect double échantillons de l’iris dans une approche multimodale.L’ensemble des méthodes proposées sont évaluées sur la base multimodale réelle IV² capturée dans des environnements variables voire dégradés et en suivant un protocole bien précis fourni dans le cadre de la campagne d’évaluation IV². Grâce à une étude comparative avec les algorithmes participants à la campagne IV², nous prouvons la compétitivité de nos algorithmes qui arrivent dans plusieurs cas à se positionner en tête de liste. / This thesis aims to make a contribution in the field of biometrics based on iris (one of the most accurate and hard to hack biometrics) in conjunction with face (one of the cheapest and less intrusive biometrics).Through this work, we discuss several important aspects of unimodal and multimodal biometrics. After an overview on unimodal and multimodal biometrics based on iris and face, we propose several personal approaches of biometric authentication using each single trait. Particularly, we address facial recognition first with conventional approaches based on combined algorithms, then with bio-inspired approaches emulating the human vision mechanism. We demonstrate the interest of bio-inspired approaches over conventional approaches through two proposed methods. The first one exploits the results of neuroscientific work indicating the relevant regions and scales in a face identification task. The second consists in applying a rank order coding method at the preprocessing step so as to enhance the information content of face images.We keep the best unimodal approach of iris and face recognition to design two multimodal biometric methods. Through these methods, we evaluate different classic strategies of multimodal score-level fusion. Afterwards, we propose a new score-level fusion rule based on a quality metric according to irises occultation rates. Then, we point out the interest of the double-sample iris aspect in a multimodal approach.All the proposed methods are evaluated on the real multimodal IV² database captured under variable to degraded environments, and following a specific protocol provided as part of the IV² evaluation campaign. After a comparative study with the participant algorithms in the IV² campaign, we prove the competitiveness of our algorithms witch outperform most of the participant ones in the IV² campaign in many experiments.

Page generated in 0.0434 seconds