• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • 1
  • 1
  • Tagged with
  • 18
  • 18
  • 8
  • 8
  • 8
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Systèmes d'accès à des ressources documentaires : vers des anté-serveurs intelligents

Le Crosnier, Hervé 21 December 1990 (has links) (PDF)
Un système documentaire est modélisé par trois fonctions : la fonction d'indexation dont on étudie les hypothèses permettant l'indexation automatique. Une fonction de traduction des questions de l'utilisateur qui permet de définir la qualité de l'interface homme-système. Une fonction de pertinence qui permet de classer les documents en fonction des besoins documentaires de l'utilisateur. On étudie dans ce cadre le modèle booléen, le modèle vectoriel, et le modèle probabiliste. On évalue les perspectives offertes par le modèle hypertexte et l'approche connexionniste en informatique documentaire. Une application pratique est étudiée : la réalisation, suivant un modèle booléen de l'interface utilisateur du catalogue de la bibliothèque scientifique de l'université de Caen. On évalue ensuite les axes de recherche nouveaux en informatique documentaire au travers de trois axes de travail : les systèmes experts, l'auto-apprentissage et les modèles de représentation. La perspective des anté-serveurs intelligents est présentée, et une liste des fonctionnalités nécessaires au succès de ce type d'intermédiaire est établie.
12

Identification et caractérisation des perturbations affectant les réseaux électriques HTA. / Identification and Characterization of Power Quality Disturbances affecting MV Distribution Networks

Caujolle, Mathieu 27 September 2011 (has links)
La reconnaissance des perturbations survenant sur les réseaux HTA est une problématique essentielle pour les clients industriels comme pour le gestionnaire du réseau. Ces travaux de thèse ont permis de développer un système d’identification automatique. Il s’appuie sur des méthodes de segmentation qui décomposent de manière précise et efficace les régimes transitoires et permanents des perturbations. Elles utilisent des filtres de types Kalman linéaire ou anti-harmoniques pour extraire les régimes transitoires. La prise en compte des variations harmoniques et de la présence de transitoires proches se fait à l’aide de seuils adaptatifs. Des méthodes de correction du retard a posteriori permettent d’améliorer la précision de la décomposition. Des indicateurs adaptés à la dynamique des régimes de fonctionnement analysés sont utilisés pour caractériser les perturbations. Peu sensibles aux erreurs de segmentation et aux perturbations harmoniques, ils permettent une description fiable des phases des perturbations. Deux types de systèmes de décision ont également été étudiés : des systèmes experts et des classifieurs SVM. Ces systèmes ont été mis au point à partir d’une large base de perturbations simulées. Leurs performances ont été évaluées sur une base de perturbations réelles : ils déterminent efficacement le type et la direction des perturbations observées (taux de reconnaissance moyen > 98%). / The recognition of disturbances affecting MV networks is essential to industrials and distribution system operators. The aim of this thesis work is to design a near real-time automatic system able to detect and identify disturbances from their waveforms. Segmentation methods split the disturbed waveforms into transient and steady-state intervals. They use Kalman filters or anti-harmonic filters to extract the transient intervals. Adaptive thresholding methods increase the detection capacity while a posterior delay compensation methods improve the accuracy of the decomposition. Indicators adapted to the disturbance dynamic are used to characterize its steady-state and transient phases. They are robust to segmentation inaccuracies as well as to steady-state disturbances such as harmonics. Two distinct decision systems are also studied: expert recognition systems and SVM classifiers. During the learning stage, a large simulated event database is used to train both systems. Their performances are evaluated on real events: the type and direction of the measured disturbances are determined with a recognition rate over 98%.
13

Etude d’une méthodologie pour la construction d’un système de télésurveillance médicale : application à une plateforme dédiée au maintien et au suivi à domicile de personnes atteintes d’insuffisance cardiaque / Toward a methodology for the construction of a telemonitoring system : application to a platform dedicated to home monitoring of people with heart failure

Ahmed Benyahia, Amine 27 May 2015 (has links)
La thèse, réalisée dans le cadre du projet « investissements d'avenir » E-care, propose un processus méthodologique pour faciliter l'analyse et la conception de systèmes de télésurveillance médicale pour la détection précoce de signes précurseurs à toute complication. La méthodologie proposée est basée sur un système multi-agents utilisant plusieurs types d'ontologies associées à un système expert. Le système multi-agents est adapté à la télésurveillance médicale avec une architecture distribuée pour permettre l’autonomie et la réactivité au sein des sites de déploiement, en particulier les habitats. Les architectures ainsi conçues, prennent en compte l'ensemble des données du patient : son profil, ses antécédents médicaux, les traitements médicamenteux, les données physiologiques et comportementales ainsi que les données relatives à son environnement et à son hygiène de vie. Ces architectures doivent également être ouvertes pour s'adapter à de nouvelles sources de données.Cette méthodologie a été appliquée au projet E-care définissant ainsi son système d'information. Ce système d'information est composé de deux types d'ontologies représentant les connaissances pertinentes ainsi qu'un système expert pour la détection de situations à risque. Une première ontologie du problème a été construite pour gérer le système, les acteurs et leurs taches. Par la suite, trois ontologies de domaines ont été construites représentant, les maladies, les médicaments et les facteurs de risque cardio-vasculaire. Le système expert exploite des règles d'inférences construites en collaboration avec les experts médicaux et en utilisant des guides de bonnes pratiques dans le domaine de la cardiologie. Cette méthodologie a défini également l'architecture du système composé de quatre types d'agents autonomes à savoir : des capteurs pour la prise de mesures, une passerelle pour la collecte et la transmission depuis les habitats, un serveur pour le traitement et l'accès aux données, et enfin une base de données pour le stockage sécurisé des données des patients.Le système E-care a été testé et validé en utilisant des tests et des simulations inspirés de cas réels. Par la suite, une expérimentation a été faite pour la validation les différents composants du système dans milieu de télésurveillance médicale. Cette expérimentation est passée par deux phases, la première s'est déroulée au CHRU de Strasbourg, et la deuxième est en cours aux domiciles des patients. / The thesis, conducted as part of the E-care project, proposes a methodological process to facilitate the analysis and design of medical remote monitoring systems for early detection of signs of any complications. The proposed methodology is based on a multi-agent system using several types of ontologies associated with an expert system. The multi-agent system is suitable for medical monitoring with a distributed architecture to keep some autonomy and responsiveness of habitats. The process identifies the generic and specific aspects of each system. The designed architectures take into account all the patient data such as: patient profile, medical history, drug treatments, physiological and behavioral data, as well as data relating to patient's environment and his lifestyle. These architectures should be open to be adapted to new data sources.This methodology was applied to E-care project in order to define its information system. This information system is composed of two types of ontologies (problem ontology and several domain ontologies) and an expert system for the detection of risk situations. The problem ontology was built to manage the system including users and their tasks. Three domain ontologies have been built to represent, disease, drugs and cardiovascular risk factors. The expert system uses inference rules, which are defined in collaboration with medical experts using their knowledge and some medical guidelines. This methodology also defined the system architecture, which consists of four autonomous agents types namely: medical sensors to collect physiological measurements. The gateway collects data from sensors and transmits them from the patients' homes to the server. The server processes data and gives access to them. Finally the database secures storage of patient data.As part of the E-care project, an experiment was conducted to validate the various system components. This experiment has gone through two phases, the first was held at the University Hospital of Strasbourg, and the second is in the patients' homes.
14

Une application de l'intelligence artificielle à la synthèse architecturale des circuits intégrés VLSI

Fonkoua, Alain Blaise 04 October 1989 (has links) (PDF)
Description d'un outil de développement de systèmes experts (ODSE) conçu et réalisé en ADA. Le formalisme de description des connaissances (faits et règles), les mécanismes d'interférence mis en œuvre ainsi que l'implémentation du système sont donnes. Enfin, la thèse décrit l'utilisation de ODSE pour la réalisation d'un outil d'aide a la synthèse architecturale de c.i. VLSI (ASA). Les techniques utilisées par ASA (analyse de flots, ordonnancement, allocation de ressources) sont exposées ainsi que leur traduction dans le formalisme de ODSE. Enfin, les résultats d'utilisation de ASA pour la synthèse d'un filtre Leapfrog d'ordre 9 sont donnes
15

Conception d'un Système Expert pour l'étude de la Sécurité Incendie de Bâtiments dans un Contexte Pluridisciplinaire

Charles, Smith 12 May 1992 (has links) (PDF)
Cette thèse étudie les possibilités offertes par l'intelligence artificielle pour l'identification et la circonscription des risques incendie de bâtiments.La sécurité incendie est une composante de la fonction technique du bâtiment. Elle peut donc être considérée dès la conception. Actuellement elle est traitée principalement par l'application de textes réglementaires. Nous proposons une approche différente ayant deux caractéristiques principales : premièrement elle privilégie la recherche des facteurs de risque et des meilleurs moyens de les éliminer ; deuxièmement elle est globale parce qu'elle réalise une intégration des connaissances (expertes ou autres) relatives aux autres fonctions du bâtiment (Architecture et Economie) ainsi qu'aux autres composantes de la fonction technique.La recherche a donc porté principalement sur : – La définition d'une méthode d'étude globale de la sécurité incendie du bâtiment, car les connaissances sont peu formalisées dans ce domaine. – La définition d'une méthodologie de réalisation d'un système multi-expert opérationnel et à caractère pédagogique.Les résultats des travaux présentés sont de deux types : – Un ensemble d'outils tels que TRIAGE, ARBRE, NASS, ICONOGRAPH. TRIAGE est le système destiné aux études pluridisciplinaires de la sécurité incendie de bâtiments. Deux modes de fonctionnement sont disponibles : l'expertise focalisée où l'utilisateur requiert un service à un spécialiste de manière isolée ; l'expertise générale où l'utilisateur est pris en main par un planificateur de tâches en fonction des buts fixés. ARBRE est un outil destiné aux experts pour la mise au point d'arbres des causes à probabilités subjectives (appelées crédits d'hypothèses). NASS est un environnement de développement de systèmes experts basés sur l'exploitation de multiples sources de connaissances exprimées en langage quasi naturel. Il contient, entre autres, le mécanisme de raisonnement de TRIAGE. ICONOGRAPH est un outil graphique pour la gestion des relations entre les objets d'un univers de discours structuré. Il met en oeuvre un modèle auto-organisationnel (dit à règles de mutation structurelle) fonction de l'univers considéré. – L'ensemble des éléments méthodologiques qui ont été mis en oeuvre pour arriver aux outils cités. Notamment, nous proposons une technique que nous appelons sémographie. Son rôle est d'orienter le concepteur de système expert sur la nature des connaissances à introduire dans un système expert et sur la façon de les acquérir. Basée sur la systémique et l'ergonomie cognitive, la sémographie apporte des modèles de structuration de l'univers du discours des experts et des techniques pour provoquer et analyser le discours lui-même.
16

Coordination des activités réparties dans des situations dynamiques : le cas de la gestion de crise inter-organisationnel

Franke, Jörn 14 October 2011 (has links) (PDF)
De nombreuses catastrophes de diverses envergures frappent régulièrement des populations partout dans le monde. Parmi les exemples marquant on peut citer l'ouragan Katrina en 2005, le tremblement de terre en Haïti en 2010 ou plus récemment le Tsunami au Japon et la catastrophe de Fukujima qui a suivie. Au cours de ces catastrophes, plusieurs centaines d'organisations, comme la police, les pompiers ou les organisations d'aide humanitaire, interviennent pour sauver les gens et aider à revenir à une vie normale. Ces organisations ont besoin de se coordonner pour faire face à une situation dynamique avec des ressources limitées et une vision partielle de la situation. L'évolution de la situation entraîne souvent des changements d'objectif et de plan. Un des problèmes typique est d'obtenir un aperçu sur les relations entre ce qui a été fait, ce qui se passe actuellement et quelles sont les prochaines étapes. Ce problème est particulièrement difficile sur le plan inter-organisationnel : Chaque organisation coordonne la réponse de sa propre perspective et s'appuie sur les informations fournies par d'autres organisations. Notre objectif dans cette thèse est d'étudier comment supporter la coordination des activités par des personnes de différentes organisations dans une situation dynamique par un système d'information. L'idée de base est de tirer profit d'une approche basée sur les processus, où les activités et leurs relations sont rendues explicites. Nous présentons un cadre pour la coordination des activités dans des situations dynamiques. Il permet la modélisation ad hoc des relations entre ce qui a été fait, ce qui se passe actuellement et quelles sont les prochaines étapes. Les écarts par rapport au modèle et comment les activités ont été réalisées sont affichées à l'utilisateur pour mettre en évidence l'impact de l'évolution des objectifs. Nous étendons ce cadre au niveau inter-organisationnel. Certaines activités peuvent être partagées entre différentes organisations. Tout n'est pas partagé entre tout le monde pour tenir compte du respect de la vie privée, de la réglementation, des raisons stratégiques ou autres. Les activités partagées sont reproduites dans les espaces de travail de ces organisations. Nous décrivons comment des vues divergentes sur les activités et leurs relations peuvent etre détectées et traitées afin de revenir éventuellement à une vue convergente. Les concepts sont mis en œuvre comme une extension d'un service de collaboration distribuée ouvert. Ils ont été évalués par des gestionnaires de catastrophes expérimentés. Par ailleurs, nous avons conçu une expérience visant à évaluer l'utilisation d'outils pour aborder ces question. Nous avons effectué plusieurs expériences pour valider cette expérience. D'autres expériences pourront fournir une validation plus complété du modèle proposé dans cette thèse.
17

Analyse et visualisation de données relationnelles par morphing de graphe prenant en compte la dimension temporelle

Loubier, Eloïse 09 October 2009 (has links) (PDF)
Avec la mondialisation, l'entreprise doit faire face aux menaces de plus en plus fortes de la concurrence et à l'accélération des flux d'information. Pour cela, elle est amenée à rester continuellement informée des innovations, des stratégies de la concurrence et de l'état du marché tout en gardant la maîtrise de son environnement. Le développement d'Internet et la globalisation ont à la fois renforcé cette exigence, et fourni les moyens de collecter l'information qui, une fois synthétisée, prend souvent une forme relationnelle. Pour analyser le relationnel, le recours à la visualisation par des graphes apporte un réel confort aux utilisateurs, qui, de façon intuitive, peuvent s'approprier une forme de connaissance difficile à appréhender autrement. <br />Nos travaux conduisent à l'élaboration des techniques graphiques permettant la compréhension des activités humaines, de leurs interactions mais aussi de leur évolution, dans une perspective décisionnelle. Nous concevons un outil alliant simplicité d'utilisation et précision d'analyse se basant sur deux types de visualisations complémentaires : statique et dynamique. <br />L'aspect statique de notre modèle de visualisation repose sur un espace de représentation, dans lequel les préceptes de la théorie des graphes sont appliqués. Le recours à des sémiologies spécifiques telles que le choix de formes de représentation, de granularité, de couleurs significatives permet une visualisation plus juste et plus précise de l'ensemble des données. L'utilisateur étant au cœur de nos préoccupations, notre contribution repose sur l'apport de fonctionnalités spécifiques, qui favorisent l'identification et l'analyse détaillée de structures de graphes. Nous proposons des algorithmes qui permettent de cibler le rôle des données au sein de la structure, d'analyser leur voisinage, tels que le filtrage, le k-core, la transitivité, de retourner aux documents sources, de partitionner le graphe ou de se focaliser sur ses spécificités structurelles.<br />Une caractéristique majeure des données stratégiques est leur forte évolutivité. Or l'analyse statistique ne permet pas toujours d'étudier cette composante, d'anticiper les risques encourus, d'identifier l'origine d'une tendance, d'observer les acteurs ou termes ayant un rôle décisif au cœur de structures évolutives.<br />Le point majeur de notre contribution pour les graphes dynamiques représentant des données à la fois relationnelles et temporelles, est le morphing de graphe. L'objectif est de faire ressortir les tendances significatives en se basant sur la représentation, dans un premier temps, d'un graphe global toutes périodes confondues puis en réalisant une animation entre les visualisations successives des graphes attachés à chaque période. Ce procédé permet d'identifier des structures ou des événements, de les situer temporellement et d'en faire une lecture prédictive.<br />Ainsi notre contribution permet la représentation des informations, et plus particulièrement l'identification, l'analyse et la restitution des structures stratégiques sous jacentes qui relient entre eux et à des moments donnés les acteurs d'un domaine, les mots-clés et concepts qu'ils utilisent.
18

Un langage contrôlé pour les instructions nautiques du Service Hydographique et Océanographique de la Marine / A controlled language for the french national Hydrographic and Oceanographic Service Coast Pilot Books instructions nautiques

Sauvage-Vincent, Julie 16 January 2017 (has links)
Les langages contrôlés sont des langages artificiellement définis utilisant un sous-ensemble du vocabulaire, des formes morphologiques, des constructions syntaxiques d'une langue naturelle tout en en éliminant la polysémie. En quelque sorte, ils constituent le pont entre les langages formels et les langues naturelles. De ce fait, ils remplissent la fonction de communication du médium texte tout en étant rigoureux et analysables par la machine sans ambiguïté. En particulier, ils peuvent être utilisés pour faciliter l'alimentation de bases de connaissances, dans le cadre d'une interface homme-machine.Le Service Hydrographique et Océanographique de la Marine (SHOM) publie depuis 1971 les Instructions nautiques, des recueils de renseignements généraux, nautiques et réglementaires, destinés aux navigateurs. Ces ouvrages complètent les cartes marines. Elles sont obligatoires à bord des navires de commerce et de pêche. D'autre part, l'Organisation Hydrographique Internationale (OHI) a publié des normes spécifiant l'échange de données liées à la navigation et notamment un modèle universel de données hydrographiques (norme S-100, janvier 2010). Cette thèse se propose d'étudier l'utilisation d'un langage contrôlé pour représenter des connaissances contenues dans les Instructions nautiques, dans le but de servir de pivot entre la rédaction du texte par l'opérateur dédié, la production de l'ouvrage imprimé ou en ligne, et l'interaction avec des bases de connaissances et des outils d'aide à la navigation. En particulier on étudiera l'interaction entre le langage contrôlé des Instructions nautiques et les cartes électroniques correspondantes. Plus généralement, cette thèse se pose la question de l'évolution d'un langage contrôlé et des ontologies sous-jacentes dans le cadre d'une application comme les Instructions nautiques, qui ont la particularité d'avoir des aspects rigides (données numériques, cartes électroniques, législation) et des aspects nécessitant une certaine flexibilité (rédaction du texte par des opérateurs humains, imprévisibilité du type de connaissance à inclure par l'évolution des usages et des besoins des navigants). De manière similaire aux ontologies dynamiques que l'on rencontre dans certains domaines de connaissance, on définit ici un langage contrôlé dynamique. Le langage contrôlé décrit dans cette thèse constitue une contribution intéressante pour la communauté concernée puisqu'il touche au domaine maritime, domaine encore inexploité dans l'étude des langages contrôlés, mais aussi parce qu'il présente un aspect hybride, prenant en compte les multiples modes (textuel et visuel) présents dans le corpus constitué par les Instructions nautiques et les documents qu'elles accompagnent. Bien que créé pour le domaine de la navigation maritime, les mécanismes du langage contrôlé présentés dans cette thèse ont le potentiel pour être adaptés à d'autres domaines utilisant des corpus multimodaux. Enfin, les perspectives d'évolution pour un langage contrôlé hybride sont importantes puisqu'elles peuvent exploiter les différents avantages des modes en présence (par exemple, une exploitation de l'aspect visuel pour une extension 3D). / Controlled Natural Languages (CNL) are artificial languages that use a subset of the vocabulary, morphological forms and syntactical constructions of a natural language while eliminating its polysemy. In a way, they constitute the bridge between formal languages and natural languages. Therefore, they perform the communicative function of the textual mode while being precise and computable by the machine without any ambiguity. In particular, they can be used to facilitate the population or update of knowledge bases within the framework of a human-machine interface.Since 1971, the French Marine Hydrographic and Oceanographic Service (SHOM) issues the French Coast Pilot Books Instructions nautiques , collections of general, nautical and statutory information, intended for use by sailors. These publications aim to supplement charts, in the sense that they provide the mariner with supplemental information not in the chart. They are mandatory for fishing and commercial ships. On the other hand, the International Hydrographic Organization (IHO) issued standards providing information about navigational data exchange. Among these standards, one of a particular interest is the universal model of hydrographic data (S-100 standard, January, 2010).This thesis analyses the use of a CNL to represent knowledge contained in the Instructions nautiques. This CNL purpose is to act as a pivot between the writing of the text by the dedicated operator, the production of the printed or online publication, and the interaction with knowledge bases and navigational aid tools. We will focus especially on the interaction between the Instructions nautiques Controlled Natural Language and the corresponding Electronic Navigational Charts (ENC).More generally, this thesis asks the question of the evolution of a CNL and the underlying ontologies involved in the Instructions nautiques project. Instructions nautiques have the particularity of combining both strictness (numerical data, electronic charts, legislation) and a certain amount of flexibility (text writing by human operators, unpredictability of the knowledge to be included due to the evolution of sailors¿ practices and needs). We define in this thesis a dynamic CNL in the same way that dynamic ontologies are defined in particular domains. The language described in this thesis is intended as an interesting contribution for the community involved in CNL. Indeed, it addresses the creation of a CNL for the unexploited domain of maritime navigation, but its hybrid aspects as well through the exploration of the multiple modalities (textual and visual) coexisting in a corpus comprising ENC and their companion texts. The mechanisms of the CNL presented in this thesis, although developed for the domain of the maritime navigation, have the potential to be adapted to other domains using multimodal corpuses. Finally, the benefits in the future of a controlled hybrid language are undeniable: the use of the different modalities in their full potential can be used in many different applications (for example, the exploitation of the visual modality for a 3D extension).

Page generated in 0.0665 seconds