• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2447
  • 1618
  • 1255
  • 21
  • 6
  • 6
  • 2
  • 2
  • 1
  • Tagged with
  • 5650
  • 3140
  • 3002
  • 1276
  • 692
  • 690
  • 662
  • 645
  • 620
  • 597
  • 486
  • 476
  • 457
  • 453
  • 438
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
631

AVATAR : une application de réalité virtuelle utilisable comme nouvel outil de mise en scène collaborative

Dompierre, Christian 02 1900 (has links) (PDF)
No description available.
632

Autostructuration des réseaux de neurones avec retards

Tardif, Patrice 02 1900 (has links) (PDF)
No description available.
633

Algorithms for two-stage flow-shop with a shared machine in stage one and two parallel machines in stage two

Yang, Yang January 2013 (has links) (PDF)
Scheduling problems may be encountered in many situations in everyday life. Organizing daily activities and planning a travel itinerary are both examples of small optimization problems that we try to solve every day without realizing it. However, when these problems take on larger instances, their resolution becomes a difficult task to handle due to prohibitive computations that generated. This dissertation deals with the Two-Stage Flow-shop problem that consists of three machines and in which we have two sets of jobs. The first set has to be processed, in this order, by machine M± and then by machine M2. Whereas, the second set of jobs has to be processed, in this order, by machine M± and then by machine M3. As we can see, machine M1 is a shared machine, and the other two machines are dedicated to each of the two subsets of jobs. This problem is known to be strongly NP-Hard. This means there is a little hope that it can be solved by an exact method in polynomial time. So, special cases, heuristic, and meta-heuristic methods are well justified for its resolution. We thus started in this thesis to present special cases of the considered problem and showed their resolution in polynomial time. In the approximation front, we solved the considered problem with heuristic and meta-heuristic algorithms. In the former approach, we designed two heuristic algorithms. The first one is based on Johnson's rule, whereas the second one is based on Nawez, Enscore, and Ham algorithm. The experimental study we have undertaken shows that the efficiency and the quality of the solutions produced by these two heuristic algorithms are high. In the latter approach, we designed a Particle Swarm Optimization algorithm. This method is known to be popular because of its easy implementation. However, this algorithm has many natural shortcomings. We thus combined it with the tabu search algorithm to compensate the negative effects. The experimental study shows that the new hybrid algorithm outperforms by far not only the standard Particle Swarm Optimization, but also the tabu search method we also designed for this problem.
634

Intégration d'instructions data-parallèles dans le langage PSC et compilation pour processeur SIMD (INTEL SSE)

Langlais, Michel January 2013 (has links) (PDF)
II existe des instructions data-parallèles dans les processeurs modernes. Ces instructions permettent d'effectuer la même opération sur plusieurs données différentes en parallèle. Présentement il est difficile de programmer des logiciels qui utilisent ces instructions data-parallèles avec les solutions existantes, Nous avons donc exploré l'utilisation d'un langage destiné à la programmation des circuits parallèles comme les FPGA (Field Programmable Gate Array) pour fabriqué un logiciel qui permet d'utiliser ces instructions data-parallèles de manière simple et efficace. Un langage de haut niveau pour la programmation des FPGA. le langage psC- Parallel and Synchronous C- a été choisi, Sa syntaxe proche du C, son paradigme entièrement parallèle et la disponibilité du code source ont justifié ce choix, II y a plusieurs années, les gens pensaient qu'aujourd'hui l'optimisation ne serait plus aussi importante qu'elle l'était pour eux. Ils disaient que la quantité de mémoire et la puissance de calculs des processeurs ferait en sorte que le gain en temps ne vaudrait pas l'effort de programmation nécessaire pour programmer du code optimisé. Maintenant, nous savons que ce n'est pas le cas. Les processeurs ont certes eu un gain de performance important, mais les tâches qu'ils accomplissent nécessitent de plus en plus de puissance de calculs et de mémoire. Aujourd'hui, une bonne partie de la puissance de calculs s'obtient par l'utilisation des instructions data-parallèles disponibles dans les processeurs modernes. Pour inclure ces instructions data-parallèles dans un logicieL il n'y a pas beaucoup d'alternatives disponibles. Ce travail a consisté à réaliser un compilateur complet pour machine SIMD. Une nouvelle syntaxe permettant de supporter les instructions data-parallèles a été définie et intégrée à celle du langage psC. L'algorithme de génération de code assembleur pour les instructions data-parallèles de type SSE d'Intel a été implémenté et testé. Finalement, trois applications ont été programmées et les performances de rapidité d'exécution comparées à diverses méthodes classiques de programmation. Les résultats montrent que les performances obtenu par le langage psC est toujours situé entre celui obtenu par un expert codant en langage assembleur et celui obtenu par les compilateurs C et C++, Ceci correspond à ce qui était désiré. En conclusion, ce travail de recherche a démontré qu'il était possible d'utiliser un langage HL-HDL (High Level Hardware Description Language) pour générer du code qui bénéficie des instructions data-parallèles. Le gain en performance de F implementation psC est présenté pour tous les cas étudié, et se rapproche de F implementation assembleur qui est le maximum atteignable.
635

Analyse automatique des traces d'événements : une étude comparative

Mrad, Aouatef January 2013 (has links) (PDF)
L'analyse des traces d'événements permet d'identifier des erreurs dans l'exécution du système ou la violation de certaines politiques. Le principe de cette analyse consiste à vérifier si un système respecte un contrat donné. Un "contrat d'interface" est une définition formelle de ce qui constitue une interaction valide avec un système particulier. Bien qu'ils ne soient pas toujours nommés ainsi, de tels contrats existent sous de nombreuses formes dans un grand nombre de domaines. Par exemple, la séquence de messages HTTP acceptés par un service web définit un protocole qui peut être formalisé sous forme de contrat. De la même manière, le concept peut être appliqué en programmation orientée-objet pour spécifier les séquences valides d'appels de méthodes d'une classe, ou plus généralement pour décrire n'importe quelle séquence d'événements générée par un système. Plusieurs formalismes, d'expressivité variable, existent pour exprimer un contrat. Dans la dernière décennie, plusieurs outils et algorithmes d'analyse des traces d'événements ont été développés par des chercheurs. La plupart de ces outils sont mal documentés en ce qui a trait à leur performance. De plus, la mémoire et le temps consommés varient beaucoup d'un scénario à un autre sans qu'il existe un consensus à savoir quelle méthode fonctionne le mieux. L'objectif de ce mémoire est de pallier à ce manque et de comparer divers outils d'analyse de traces sur divers jeux des données. Ce mémoire de maitrise apporte des solutions à la problématique énoncé. Une interface graphique, appelée BabelTrace, a été implémentée pour résoudre ses problèmes. Une comparaison entre l'ensemble des outils étudiés dans ce mémoire, sur des scénarios réalistes, a montré que les meilleures performances sont obtenues en utilisant l'outil Monpoly. Enfin, lés systèmes de gestion de base de données ont donné de bons résultats en les comparant avec les model checker tels que SPIN et NuSMV.
636

A fuzzy temporal data-mining model for activity recognition in smart homes

Amirjavid, Farzad January 2013 (has links) (PDF)
At present time, aging of the population is one of the main challenges of the 21st century. The current situation is leading to an increased number of people afflicted with cognitive disorders such as Alzheimer's disease. This group of people suffers from a progressive decline in their abilities to perform what are called the activities of the daily living (ADLs).The consequence of this reality is the urgent need for more home assistance services, as these people desire to continue living independently at home. To address this important issue, Smart Home laboratories such as LIARA, DOMUS and MavHome perform research in order to propose technological solutions for assistance provision to residents of the Smart Home. Assisting people in carrying out their ADLs, increasing quality of life and optimizing spent energy are some of the goals in Smart Home design. Technically speaking, a Smart Home is an ambient environment which, through its embedded sensors, captures data resulting from the observation of activities carried out in this environment. This data is then analyzed by artificial intelligence techniques in order to provide information about home state normality and needed assistance. In the end, the system aims to intervene by providing guidance through its actuators. In this context, activity recognition becomes a key element in order to be able to provide adequate information services at the right moment. This thesis aims to contribute to this important challenge relating to activity recognition in the Smart Home designed for cognitive assistance. This contribution follows in the footsteps of temporal data mining and activity recognition approaches, and proposes a new way to automatically recognize and memorize ADLs from low-level sensors. From a formal point of view, the originality of the thesis relies on the proposition of a new unsupervised temporal datamining model for activity recognition addressing the problem of current temporal approaches based on Allen's framework. This new model incorporates some applications of fuzzy logic in order to take into account the uncertainty present in the realization of daily living activities by the resident. More specifically, we propose an extension of the fuzzy clustering technique in order to cluster the observations based on the degree of similarity between observations, so that activities are modeled and recognized. Moreover, anomaly recognition, decision making for assistance provision and judgment for simultaneous activities are some of the applicative contributions of this thesis. From a practical and experimental standpoint, the contribution of this research has been validated in order to evaluate how it would perform in a realistic context. To achieve this, we used MATLAB software as a simulation platform to test the proposed model. We then performed a series of tests which took the form of several case studies relating to common activities of daily living, in order to show the functionality and efficiency of the proposed temporal data-mining approach for real-life cases. This was especially relevant to the activity recognition application. We obtained very promising results which have been analyzed and compared to existing approaches. Finally, most parts of the contribution presented in this thesis have been published in documents ensuing from reputed international conferences (Springer LNCS proceedings [7], AAAI symposium and workshops [8, 9], MAICS [10], IEEE [11]) and a recognized journal (Springer Journal of Ambient Intelligence and Humanized Computing [12, 13]). This clearly constitutes recognition showing the potential of the proposed contribution.
637

Élaboration d'un prototype de système expert en analyse financière pour la PME commerciale en phase de croissance ou de maturite

Roy, Vital January 1994 (has links) (PDF)
La présente recherche, de type instrumentale, porte sur la petite et moyenne entreprise (PME) commerciale, en phase de croissance ou de maturité. Elle étudie la conception d'un outil informatique spécialisé dans l'évaluation et le diagnostic de la gestion financière de la PME. La question de recherche s'énonce comme suit: est-il possible de développer un système expert en analyse financière dans un contexte de PME commerciale en phase de croissance ou de maturité? Dans l'affirmative, quelle est la bonne approche? Quels sont les outils les mieux adaptés pour y parvenir? Comment peut-on évaluer l'impact de l'utilisation d'un tel outil d'aide à la décision chez le gestionnaire? La démarche instrumentale est la méthodologie de recherche adaptée au sujet d'étude. Cette méthodologie exploratoire est centrée sur les découvertes technologiques et l'implantation d'innovations et de processus particuliers. La démarche s'articule en deux grandes phases: la perception et l'analyse d'une situation problématique dans une classe d'organisations (la phase intelligence) et le développement de méthodes de résolution de problème adaptées à cette problématique (l'hypothèse instrumentale), méthodes qui doivent être validées par la suite. Cette démarche nous a conduit, au moyen d'une revue de la littérature sur la PME, à préciser les difficultés que rencontre le chef de la PME dans la gestion de son entreprise. En grande partie, ces difficultés découlent d'un manque de ressources et de formation, particulièrement au niveau de la gestion financière. Le gestionnaire manque de formation, n'est pas enclin à consacrer beaucoup de temps et d'efforts à la planification et ne dispose pas d'outils adéquats pour sa prise de décision. Les outils et méthodes de gestion existants ont été développés pour la grande entreprise et sont mal adaptés aux conditions spécifiques de la PME. Comme solution possible, l'utilisation d'un outil informatique d'aide à la décision est proposée. Cet outil prendra la forme d'un système expert en analyse financière adapté au contexte de la PME. L'approche de développement retenue pour la création de l'outil est le prototypage(1). Les informations nécessaires à son fonctionnement proviennent de la littérature sur la gestion financière, de l'expertise de deux spécialistes du domaine et des données financières de l'entreprise ayant collaborée au projet. À chacune des étapes de la conception, l'évaluation du prototype a pu s'effectuer grâce à la collaboration des experts et des gestionnaires de 1'entreprise. Une validation subjective fut faite par les gestionnaires de l'entreprise participante à l'étude au moyen d'un questionnaire. L'outil obtenu au terme de la présente démarche est un prototype. Il démontre la faisabilité organisationnelle et technique du concept. Cependant, de nombreux aspects de la gestion financière n'ont pu être abordés, de même que l'intégration éventuelle d'un tel outil dans un système de gestion stratégique global. D'autres chercheurs pourront généraliser davantage la portée d'un outil comme celui-ci en reprenant la démarche et en la poussant plus loin. ______________________ Prototypage: Fabrication de prototypes. (Dictionnaire Larousse Informatique, 1991.)
638

Conception d'un système d'information pour une gestion plus efficace de la direction de la coopération externe du MPCEFP en Haïti

Manigat, Nesmy January 1993 (has links) (PDF)
Face à un constat d'échec relatif de la coopération externe en Haïti, le Ministère de la Planification de la Coopération Externe et de la Fonction Publique "MPCEFP" adopta plusieurs solutions dont principalement celle de "promouvoir la réforme du système administratif haïtien surtout pour ce qui a trait aux institutions chargées de la coopération ". Ces solutions que devra implanter la Direction de la Coopération Externe, principale responsable de ce dossier, furent arrêtées dans un document intitulé: Grandes orientations stratégiques pour les années 1990, dans lequel on retrouve un diagnostic sommaire de cet échec. En effet, la vision fragmentaire et la gestion en vase clos des partenaires tant nationaux qu'internationaux de la coopération, aggravées aussi par l'absence d'une politique nationale de coopération compliquent davantage la situation. La gestion du dossier de la coopération externe se retrouve donc noyée dans un fourmillement de petits projets épars, négociés ci et là, sans lien réel et véritable entre eux et naturellement sans résultat satisfaisant à la fin. Dès notre première rencontre avec les responsables de la Direction de la Coopération Externe (DCE), la situation problématique ainsi que le mandat d'intervention étaient clairement circonscrits et se résumaient en ces termes: "Notre système d'information est déficient et notre tâche de coordination et de contrôle des activités reliées à la coopération nous échappe de plus en plus au profit de nos partenaires, nous avons donc besoin d'un système d'information efficace pour redresser la situation". Pour apporter des éléments de réponse à cette problématique et réaliser efficacement le mandat qui nous est donné, nous avons retenu la méthodologie des systèmes souples comme démarche de recherche et comme méthodologie d'implantation du système d'information, ainsi que des outils de conception et d'intervention appropriés et complémentaires, comme le montre les digrammes de flux de données. L'intervention a permis de concevoir et d'initier l'implantation des solutions à trois niveaux différents: les structures, les processus et les attitudes. AU NIVEAU DES STRUCTURES . Réaménagement de la structure organisationnelle de façon à systématiser la collecte, le traitement et le stockage des données et informations et à standardiser leurs présentations. . Redéfinition des attributions des différentes unités et services à la DCE, dans le but de les rendre plus aptes à supporter le nouveau système d'information. . Définition du profil des postes, en fonction des tâches nécessaires à la DCE (le profil des postes était jusque là inexistant). Recrutement de personnel supplémentaire devant aider à faire fonctionner le nouveau système. AU NIVEAU DES PROCESSUS . Conception ou implantation de trois logiciels destinés à améliorer: - le suivi des programmes négociés - le suivi du programme de bourses - la gestion du courrier de la DCE AU NIVEAU DES ATTITUDES . Perfectionnement et formation du personnel de façon à réduire les appréhensions face au nouveau système. Il a été aussi recommandé à la DCE de préparer un plan guide en matière de politique nationale de coopération et de faire les démarches auprès des décideurs afin d'adopter un programme à ce sujet. L'intervention nous a démontré que la méthodologie des systèmes souples représente une démarche assez efficace pour intervenir dans les petites et moyennes organisations, mais également qu'il y a lieu d'améliorer son application afin d'en faire une méthode d'intervention beaucoup plus adaptée aux réalités temporelles et budgétaires des PMO.
639

Réflexion méthodologique relative à l'étude des besoins d'information des entreprises du groupe Harel, Drouin ; Description, analyse et développement d'un système d'information comptable pour les entreprises du groupe Harel, Drouin

Faucher, Suzy January 1990 (has links) (PDF)
Le mémoire de recherche-action mentionné ci-dessus est présenté en deux volumes. Le premier vous présente la méthodologie employée pour réaliser l'étude. Le second vous décrit le système d'information comptable des entreprises du groupe Harel, Drouin. Dans ce volume, nous analysons le système et développons un système d'information répondant aux besoins identifiés au cours de la recherche. Cette recherche-action a été réalisée avec la méthodologie de Davis et les diagrammes de flux de données développés par Gane et Sarson. La méthodologie de Davis nous permet de déterminer le risque associé au développement d'un système d'information. Le risque associé au développement du système d'information comptable des entreprises du groupe Harel, Drouin est moyennement faible. Dans ce cas, Davis nous propose d'utiliser la méthodologie basée sur l'analyse des caractéristiques du système opérant. L'analyse de ces caractéristiques a été réalisée à l'aide de la méthode de l'analyse des entrées-traitements-sorties. Nous avons utilisé les diagrammes de Gane et Sarson pour faire cette analyse. La recherche-action est complétée par une réflexion sur l'utilisation de cette méthodologie dans les petites et moyennes entreprises.
640

Utilisation d'un modèle variationnel pour l'inspection des dimensions à l'aide de la vision par ordinateur

Fournier, Réjean January 1992 (has links) (PDF)
Le développement de la vision par ordinateur a amené son utilisation pour l'inspection dimensionnelle. Dans le domaine de la conception assistée par ordinateur (CAO), une nouvelle méthode de modélisation a été développée: la géométrie variationnelle. Le présent mémoire fait le lien entre un modèle variationnel et l'inspection des dimensions à l'aide de la vision par ordinateur. Le modèle est enregistré dans une base de données paramétriques équivalente à celle que pourrait produire un logiciel de CAO. La première partie porte sur l'élaboration d'un modèle variationnel simple en deux dimensions. La deuxième partie porte sur l'utilisation du processus de vision par ordinateur permettant d'extraire l'information voulue d'une image. L'image utilisée est celle produite par une caméra CCD. Un progiciel a été développé qui fait le lien entre le modèle et les données obtenues avec la vision par ordinateur. Le système développé est utilisable pour des objets de type polygone à n côtés. Des résultats expérimentaux ont été obtenus avec différents exemples. Ils ont permis de démontrer que le système est très bien adapté pour la vérification des paramètres du modèle. L'utilisation du modèle lors du processus de vision permet le calcul des paramètres réels et de leur précision. Si le modèle contient les paramètres et leurs tolérances, la comparaison peut être faite avec les données obtenues par la vision. Le modèle variationnel est utilisable pour la vérification dimensionnelle à l'aide de la vision par ordinateur. Un des avantages est d'utiliser le même modèle pour la vision que celui utilisé pour la conception. La vérification des dimensions se fait alors sur les paramètres du modèle.

Page generated in 0.0686 seconds