• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 50
  • 22
  • 6
  • Tagged with
  • 79
  • 40
  • 36
  • 25
  • 25
  • 15
  • 14
  • 13
  • 13
  • 13
  • 10
  • 9
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Real-time Distributed Computation of Formal Concepts and Analytics / Calcul distribué des concepts formels en temps réel et analyse visuelle

De Alburquerque Melo, Cassio 19 July 2013 (has links)
Les progrès de la technologie pour la création, le stockage et la diffusion des données ont considérablement augmenté le besoin d’outils qui permettent effectivement aux utilisateurs les moyens d’identifier et de comprendre l’information pertinente. Malgré les possibilités de calcul dans les cadres distribuées telles que des outils comme Hadoop offrent, il a seulement augmenté le besoin de moyens pour identifier et comprendre les informations pertinentes. L’Analyse de Concepts Formels (ACF) peut jouer un rôle important dans ce contexte, en utilisant des moyens plus intelligents dans le processus d’analyse. ACF fournit une compréhension intuitive de la généralisation et de spécialisation des relations entre les objets et leurs attributs dans une structure connue comme un treillis de concepts. Cette thèse aborde le problème de l’exploitation et visualisation des concepts sur un flux de données. L’approche proposée est composé de plusieurs composants distribués qui effectuent le calcul des concepts d’une transaction de base, filtre et transforme les données, les stocke et fournit des fonctionnalités analytiques pour l’exploitation visuelle des données. La nouveauté de notre travail consiste à: (i) une architecture distribuée de traitement et d’analyse des concepts et l’exploitation en temps réel, (ii) la combinaison de l’ACF avec l’analyse des techniques d’exploration, y compris la visualisation des règles d’association, (iii) des nouveaux algorithmes pour condenser et filtrage des données conceptuelles et (iv) un système qui met en œuvre toutes les techniques proposées, Cubix, et ses étude de cas en biologie, dans la conception de systèmes complexes et dans les applications spatiales. / The advances in technology for creation, storage and dissemination of data have dramatically increased the need for tools that effectively provide users with means of identifying and understanding relevant information. Despite the great computing opportunities distributed frameworks such as Hadoop provide, it has only increased the need for means of identifying and understanding relevant information. Formal Concept Analysis (FCA) may play an important role in this context, by employing more intelligent means in the analysis process. FCA provides an intuitive understanding of generalization and specialization relationships among objects and their attributes in a structure known as a concept lattice. The present thesis addresses the problem of mining and visualising concepts over a data stream. The proposed approach is comprised of several distributed components that carry the computation of concepts from a basic transaction, filter and transforms data, stores and provides analytic features to visually explore data. The novelty of our work consists of: (i) a distributed processing and analysis architecture for mining concepts in real-time; (ii) the combination of FCA with visual analytics visualisation and exploration techniques, including association rules analytics; (iii) new algorithms for condensing and filtering conceptual data and (iv) a system that implements all proposed techniques, called Cubix, and its use cases in Biology, Complex System Design and Space Applications.
42

On Scalable Reconfigurable Component Models for High-Performance Computing / Modèles à composants reconfigurables et passant à l'échelle pour le calcul haute performance

Lanore, Vincent 10 December 2015 (has links)
La programmation à base de composants est un paradigme de programmation qui facilite la réutilisation de code et la séparation des préoccupations. Les modèles à composants dits « reconfigurables » permettent de modifier en cours d'exécution la structure d'une application. Toutefois, ces modèles ne sont pas adaptés au calcul haute performance (HPC) car ils reposent sur des mécanismes ne passant pas à l'échelle.L'objectif de cette thèse est de fournir des modèles, des algorithmes et des outils pour faciliter le développement d'applications HPC reconfigurables à base de composants. La principale contribution de la thèse est le modèle à composants formel DirectMOD qui facilite l'écriture et la réutilisation de code de transformation distribuée. Afin de faciliter l'utilisation de ce premier modèle, nous avons également proposé :• le modèle formel SpecMOD qui permet la spécialisation automatique d'assemblage de composants afin de fournir des fonctionnalités de génie logiciel de haut niveau ; • des mécanismes de reconfiguration performants à grain fin pour les applications AMR, une classe d'application importante en HPC.Une implémentation de DirectMOD, appelée DirectL2C, a été réalisée et a permis d'implémenter une série de benchmarks basés sur l'AMR pour évaluer notre approche. Des expériences sur grappes de calcul et supercalculateur montrent que notre approche passe à l'échelle. De plus, une analyse quantitative du code produit montre que notre approche est compacte et facilite la réutilisation. / Component-based programming is a programming paradigm which eases code reuse and separation of concerns. Some component models, which are said to be "reconfigurable", allow the modification at runtime of an application's structure. However, these models are not suited to High-Performance Computing (HPC) as they rely on non-scalable mechanisms.The goal of this thesis is to provide models, algorithms and tools to ease the development of component-based reconfigurable HPC applications.The main contribution of the thesis is the DirectMOD component model which eases development and reuse of distributed transformations. In order to improve on this core model in other directions, we have also proposed:• the SpecMOD formal component model which allows automatic specialization of hierarchical component assemblies and provides high-level software engineering features;• mechanisms for efficient fine-grain reconfiguration for AMR applications, an important application class in HPC.An implementation of DirectMOD, called DirectL2C, as been developed so as to implement a series of benchmarks to evaluate our approach. Experiments on HPC architectures show our approach scales. Moreover, a quantitative analysis of the benchmark's codes show that our approach is compact and eases reuse.
43

L’informité du traumatisme : plaidoyer pour une clinique et une topique dynamiques du traumatisme sexuel / Traumatic informity : plea for a dynamic clinical examination and topique of the sexual trauma

Calamote, Éric Pierre 28 June 2011 (has links)
Cette thèse s’attache à dégager les effets spécifiques des expériences traumatiques de nature sexuelle, et plus largement à modéliser le déploiement de tout traumatisme. L’informité traumatique y est particulièrement mise en évidence dans la façon dont l’expérience est atteinte au-delà de son contenu dans sa substance, ses contours et sa forme. Devant cette clinique de l’extrême où le patient se débat dans une économie le plus souvent paradoxale, le clinicien doit faire face à l’enchevêtrement des scènes traumatiques de l’histoire de son patient, d’un sujet n’abandonnant jamais véritablement le projet de configurer son expérience et de la situer topiquement. Pour rendre compte à la fois des effets du traumatisme et de son appel à former l’expérience, il convient de penser une topique au sein de laquelle peuvent se jouer et l’errance des éléments psychiques et la façon dont ils sont attractés pour arriver à configurer l’expérience, la symboliser. Cette topique est représentable par un cylindre développable en rubans de Möbius, cylindre contenant l’identité du sujet et dans lequel des zones de plis figurent les points où la matière psychique se forme et se spatialise. Ce cylindre où se joue l’expérience traumatique organisée en couple d’opposés, où se lisent également les efforts du sujet pour la circonscrire, n’est pensable que dans un modèle intersubjectif. Dans cette optique, et parce que l’économie traumatique impose plus que d’autres une réflexion sur le dispositif de soins et l’implication du thérapeute, on saisit mieux l’intérêt d’une double écoute (par deux psychologues cliniciens). Une part importante de ce travail de recherche concerne l’étude de la congruence de cette « copensée » avec la nouvelle modélisation du traumatisme. Ce travail de recherche laisse une large place à la clinique par l’exposé de longues vignettes retraçant le récit d’expériences traumatiques de patients, en replaçant ce déploiement (parfois sur plus de dix ans) dans l’épaisseur des séances, des échanges et des interactions entre les deux psychologues et leur patient. / The present thesis focuses on finding out the specific effects of a sexually traumatic experience and more generally on modelling the broadening of any trauma. It especially discusses the notion of traumatic informity by which an experience is impacted not simply in terms of its content, but also in terms of its essence, outline, and shape. Faced with these extreme clinical situations where the patient struggles in a most often paradoxical situation, the clinician must deal with the muddle of traumatic scenes characterizing his or her patient’s background, when the latter never completely gives up configurating his or her experience and topically situating it. In order to unearth the effects of the trauma as well as its ability to shape the experience, it is necessary to imagine a topique at the core of which the wandering psychic elements as the way they are attracted to each other - in such a way as to configurate and symbolize the experience - are at stake. This topique can be represented as a cylinder which can be unfolded into Möbius strips, and it contains the patient’s identity. The creases symbolize the places where psychic matter takes shape and broadens out. This cylinder, where the traumatic experience is at stake in opposed pairs and where the patient’s efforts to define it can be read, can only be envisioned as part of an intersubjective model. In this perspective, because traumatic economies necessitate pondering on health care measures and on the therapist’s level of engagement, it is easier for one to see how much more valuable a consultation with two clinical psychologists is. A significant part of this research work involves the study of the congruity of this “co-thought” with the new way of modelling a trauma. This research work leaves much room for clinical practice through long accounts retracing the patients’ history of traumatic experiences, as the two psychologists resituate the patient’s trauma’s broadening (sometimes over the course of ten years) during the intensity of the sessions, exchanges, and interactions.
44

Validation fonctionnelle de contrôleurs logiques : contribution au test de conformité et à l'analyse en boucle fermée / Functional validation of logic controllers : contribution to conformance test and closed-loop analysis

Guignard, Anaïs 04 December 2014 (has links)
Les travaux présentés dans ce mémoire de thèse s'intéressent à la validation fonctionnelle de contrôleurs logiques par des techniques de test de conformité et de validation en boucle fermée. Le modèle de spécification est décrit dans le langage industriel Grafcet et le contrôleur logique est supposé être un automate programmable industriel (API) mono-tâche. Afin de contribuer à ces techniques de validation fonctionnelle, ces travaux présentent : - Une extension d'une méthode de formalisation du Grafcet par traduction sous la forme d'une machine de Mealy. Cette extension permet de produire un modèle formel de la spécification lorsque le Grafcet est implanté selon un mode d'interprétation sans recherche de stabilité, qui n'est pas préconisé dans la norme IEC 60848 mais largement utilisé dans les applications industrielles. - Une contribution au test de conformité par la définition d'un ensemble de relations de conformité basées sur l'observation de plusieurs cycles d'exécution pour chaque pas de test. - Une contribution à la validation en boucle fermée par la définition d'un critère de fin d'observation et par une technique d'identification en boite grise pour la construction et l'analyse du système en boucle fermée. / The results presented in this PhD thesis deal with functional validation of logic controllers using conformance test and closed-loop validation techniques. The specification model is written in the Grafcet language and the logic controller is assumed to be a Programmable Logic Controller (PLC). In order to contribute to these validation techniques, this thesis presents: - An axtension to a fomalization methods for Grafcet languages by translation to a Mealy machine. This extension generates a formal model of a Grafcet specification that is interpreted without search of stability. This mode of interpretation is not recommended by the standard IEC 60848 but is widely used in industrial applications. - A contribution to conformance test by a definition of a set of conformance relation based on the observation of several execution cycles for each test step. - A contribution to closed-loop validation by the definition of a termination criterion and by a new gray-box identification technique that is used for construction and analysis of the closed-loop system.
45

Découverte interactive de connaissances dans le web des données / Interactive Knowledge Discovery over Web of Data

Alam, Mehwish 01 December 2015 (has links)
Récemment, le « Web des documents » est devenu le « Web des données », i.e, les documents sont annotés sous forme de triplets RDF. Ceci permet de transformer des données traitables uniquement par les humains en données compréhensibles par les machines. Ces données peuvent désormais être explorées par l'utilisateur par le biais de requêtes SPARQL. Par analogie avec les moteurs de clustering web qui fournissent des classifications des résultats obtenus à partir de l'interrogation du web des documents, il est également nécessaire de réfléchir à un cadre qui permette la classification des réponses aux requêtes SPARQL pour donner un sens aux données retrouvées. La fouille exploratoire des données se concentre sur l'établissement d'un aperçu de ces données. Elle permet également le filtrage des données non-intéressantes grâce à l'implication directe des experts du domaine dans le processus. La contribution de cette thèse consiste à guider l'utilisateur dans l'exploration du Web des données à l'aide de la fouille exploratoire de web des données. Nous étudions trois axes de recherche, i.e : 1) la création des vues sur les graphes RDF et la facilitation des interactions de l'utilisateur sur ces vues, 2) l'évaluation de la qualité des données RDF et la complétion de ces données 3) la navigation et l'exploration simultanée de multiples ressources hétérogènes présentes sur le Web des données. Premièrement, nous introduisons un modificateur de solution i.e., View By pour créer des vues sur les graphes RDF et classer les réponses aux requêtes SPARQL à l'aide de l'analyse formelle des concepts. Afin de naviguer dans le treillis de concepts obtenu et d'extraire les unités de connaissance, nous avons développé un nouvel outil appelé RV-Explorer (RDF View Explorer ) qui met en oeuvre plusieurs modes de navigation. Toutefois, cette navigation/exploration révèle plusieurs incompletions dans les ensembles des données. Afin de compléter les données, nous utilisons l'extraction de règles d'association pour la complétion de données RDF. En outre, afin d'assurer la navigation et l'exploration directement sur les graphes RDF avec des connaissances de base, les triplets RDF sont groupés par rapport à cette connaissance de base et ces groupes peuvent alors être parcourus et explorés interactivement. Finalement, nous pouvons conclure que, au lieu de fournir l'exploration directe nous utilisons ACF comme un outil pour le regroupement de données RDF. Cela permet de faciliter à l'utilisateur l'exploration des groupes de données et de réduire ainsi son espace d'exploration par l'interaction. / Recently, the “Web of Documents” has become the “Web of Data”, i.e., the documents are annotated in the form of RDF making this human processable data directly processable by machines. This data can further be explored by the user using SPARQL queries. As web clustering engines provide classification of the results obtained by querying web of documents, a framework for providing classification over SPARQL query answers is also needed to make sense of what is contained in the data. Exploratory Data Mining focuses on providing an insight into the data. It also allows filtering of non-interesting parts of data by directly involving the domain expert in the process. This thesis contributes in aiding the user in exploring Linked Data with the help of exploratory data mining. We study three research directions, i.e., 1) Creating views over RDF graphs and allow user interaction over these views, 2) assessing the quality and completing RDF data and finally 3) simultaneous navigation/exploration over heterogeneous and multiple resources present on Linked Data. Firstly, we introduce a solution modifier i.e., View By to create views over RDF graphs by classifying SPARQL query answers with the help of Formal Concept Analysis. In order to navigate the obtained concept lattice and extract knowledge units, we develop a new tool called RV-Explorer (Rdf View eXplorer) which implements several navigational modes. However, this navigation/exploration reveal several incompletions in the data sets. In order to complete the data, we use association rule mining for completing RDF data. Furthermore, for providing navigation and exploration directly over RDF graphs along with background knowledge, RDF triples are clustered w.r.t. background knowledge and these clusters can then be navigated and interactively explored. Finally, it can be concluded that instead of providing direct exploration we use FCA as an aid for clustering RDF data and allow user to explore these clusters of data and enable the user to reduce his exploration space by interaction.
46

Réseaux de service web : construction, analyse et applications / Web service networks : analysis, construction and applications

Naim, Hafida 13 December 2017 (has links)
Cette thèse se place dans le cadre de services web en dépassant leur description pour considérer leur structuration en réseaux (réseaux d'interaction et réseaux de similitude). Nous proposons des méthodes basées sur les motifs, la modélisation probabiliste et l'analyse des concepts formels, pour améliorer la qualité des services découverts. Trois contributions sont alors proposées: découverte de services diversifiés, recommandation de services et cohérence des communautés de services détectées. Nous structurons d'abord les services sous forme de réseaux. Afin de diversifier les résultats de la découverte, nous proposons une méthode probabiliste qui se base à la fois sur la pertinence, la diversité et la densité des services. Dans le cas de requêtes complexes, nous exploitons le réseau d'interaction de services construit et la notion de diversité dans les graphes pour identifier les services web qui sont susceptibles d'être composables. Nous proposons également un système de recommandation hybride basé sur le contenu et le filtrage collaboratif. L'originalité de la méthode proposée vient de la combinaison des modèles thématiques et les motifs fréquents pour capturer la sémantique commune maximale d'un ensemble de services. Enfin, au lieu de ne traiter que des services individuels, nous considérons aussi un ensemble de services regroupés sous forme de communautés de services pour la recommandation. Nous proposons dans ce contexte, une méthode qui combine la sémantique et la topologie dans les réseaux afin d'évaluer la qualité et la cohérence sémantique des communautés détectées, et classer également les algorithmes de détection de communautés. / As a part of this thesis, we exceed the description of web services to consider their structure as networks (i.e. similarity and interaction web service networks). We propose methods based on patterns, topic models and formal concept analysis, to improve the quality of discovered services. Three contributions are then proposed: (1) diversified services discovery, (2) services recommendation and (3) consistency of detected communities. Firstly, we propose modeling the space of web services through networks. To discover the diversified services corresponding to a given query, we propose a probabilistic method to diversify the discovery results based on relevancy, diversity and service density. In case of complex requests, it is necessary to combine multiple web services to fulfill this kind of requests. In this regard, we use the interaction web service network and the diversity notion in graphs to identify all possible services compositions. We also propose a new hybrid recommendation system based on both content and collaborative filtering. Its originality comes from the combination of probabilistic topic models and pattern mining to capture the maximal common semantic of a set of services. Finally, instead of processing individual services, we consider a set of services grouped into service communities for the recommendation. We propose in this context, a new method combining both topology and semantics to evaluate the quality and the semantic consistency of detected communities, and also rank the detection communities algorithms.
47

Acquisition et représentation de connaissances en musique

Bel, Bernard 30 November 1990 (has links) (PDF)
Cette étude traite de la représentation informatique de connaissances en musique, abordée à partir de deux expériences en grandeur réelle. La première est une méthode d'acquisition de connaissances en ethnographie mettant en interaction un expert (le musicien), un analyste (le musicologue) et une machine dans une situation d'apprentissage. Les schémas d'improvisation des musiciens sont identifiés et exprimés à l'aide de règles de production dans un formalisme dérivé des grammaires génératives et des langages de formes. Un algorithme déterministe de test d'appartenance de chaînes arbitraires au langage défini par une grammaire (sensible au contexte) est présenté, ainsi qu'une technique d'inférence inductive de langages réguliers permettant l'acquisition automatique de connaissances lexicales et syntaxiques. La seconde expérience s'insère dans l'élaboration d'un environnement de composition musicale assistée par ordinateur. Le problème est ici la représentation du temps dans une structure discrète d'“objets temporels”, et plus généralement la synchronisation de processus parallèles. Une méthode est proposée pour la détermination d'une structure à partir de données incomplètes sur la synchronisation des objets. La notion d'“objet sonore” est ensuite explicitée formellement. Un algorithme efficace permet l'instanciation des objets sonores affectés à une structure en tenant compte des contraintes liées à leurs propriétés métriques et topologiques.
48

De l'analogie rendant compte de la commutation en linguistique

Lepage, Yves 23 May 2003 (has links) (PDF)
Les analogies auxquelles nous nous intéressons mettent quatre chaînes de symboles en proportion, par exemple, fable : fabuleux :: miracle : miraculeux ou abc : aabbcc :: a^n.b^n.c^n : a^n+1.b^n+1.c^n+1. Une étude historique de l'analogie en linguistique nous a permis de dégager les deux articulations (conformité et rapport) et les notions constitutives (similarité et contiguïté) de ce type d'analogie. De postulats généraux nous avons tiré une caractérisation formelle (encore partielle) rendant compte de la commutation entre chaînes de symboles. Une application directe est la conjugaison automatique par analogie. Nous avons proposé de définir certains langages formels à l'aide de ce type d'analogie. La grammaticalité, c'est-à-dire l'appartenance à un langage, est testée par égalité avec certaines chaînes attestées après réduction selon des modèles analogiques, eux aussi attestés. L'absence de non-terminaux fait de ce type de grammaires des grammaires par l'exemple. Nous examinons la possible place de tels langages dans le débat sur l'adéquation des langages formels à la description des langues. En forçant la conservation des analogies entre deux langages de chaînes analogiques, on obtient une méthode générale applicable à divers problèmes du traitement automatique des langues, par exemple, l'analyse structurale ou la traduction automatique de phrases.
49

Production automatique d'interfaces graphiques 3D pour le Web

Esnault, Noémie 26 January 2011 (has links) (PDF)
Le Web 3D atteint actuellement un nouveau stade de maturité grâce à la convergence de nouvelles technologies et l'émergence de nouveaux standards permettant l'exploitation du matériel graphique depuis les navigateurs Web. Malgré l'émergence de ces technologies, nous pouvons constater une faible pénétration des contenus 3D sur le Web, due entre autre au manque d'outils de création de haut niveau facilitant la production d'interfaces graphiques 3D pour le Web. Afin de palier ce manque, nous proposons un formalisme basé sur les technologies Web permettant de définir des métaphores complètes, attractives et efficientes pour la visualisation de grands ensembles de données, ainsi que la génération des interfaces graphiques 3D correspondantes. Ce formalisme doit être flexible en termes d'extensibilité, de modularité, de généricité en ce qui concerne les formats de données en entrée et en sortie du système, ainsi qu'en terme de gamme d'interfaces graphiques 3D pouvant être définies par le concepteur d'une interface Web. Le pipeline de création que nous proposons permet la description de métaphores de visualisation d'information prenant en compte à la fois la structuration des données (la façon dont l'utilisateur explore et accède aux données), et la présentation (la géométrie et la présentation des données) et les interactions utilisateur. Les interfaces générées peuvent être de complexité variable allant des interfaces graphiques 3D immersives à l'intérieur desquelles l'utilisateur final est représenté par un avatar et peut interagir avec d'autres utilisateurs, à des interfaces graphiques 3D très simples.
50

Vers un calcul des constructions pédagogique

Demange, Vincent 07 December 2012 (has links) (PDF)
Les systèmes pédagogiques sont apparus récemment à propos des calculs propositionnels (jusqu'à l'ordre supérieur), et consistent à donner systématiquement des exemples des notions (hypothèses) introduites. Formellement, cela signifie que pour mettre un ensemble Delta de formules en hypothèse, il est requis de donner une substitution sigma telle que les instances de formules sigma(Delta) soient démontrables. Cette nécessité d'exemplification ayant été pointée du doigt par Poincaré (1913) comme relevant du bon sens: une définition d'un objet par postulat n'ayant d'intérêt que si un tel objet peut être construit. Cette restriction appliquée à des systèmes formels intuitionnistes rejoint l'idée des mathématiques sans négation défendues par Griss (1946) au milieu du siècle dernier, et présentées comme une version approfondie de l'intuitionnisme. À travers l'isomorphisme de Curry-Howard (1980), la contrepartie calculatoire est l'utilité des programmes définis dans les systèmes fonctionnels correspondants: toute fonction peut être appliquée à un argument clos. Les premiers résultats concernant les calculs propositionnels jusqu'au second ordre ont été publiés récemment par Colson et Michel (2007, 2008, 2009). Nous exposons dans cette thèse une tentative d'uniformisation et d'extension au Calcul des Constructions (CC) des précédents résultats. Tout d'abord une définition formelle et précise de sous-système pédagogique du Calcul des Constructions est introduite, puis différents tels sous-systèmes sont déclinés en exemple.

Page generated in 0.0413 seconds