• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 14
  • 8
  • 2
  • Tagged with
  • 23
  • 23
  • 8
  • 8
  • 8
  • 7
  • 6
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Contributions à l'alignement d'ontologies OWL par agrégation de similarités / Contributions to OWL ontologies alignment using similarity aggregation

Zghal, Sami 21 December 2010 (has links)
Dans le cadre de cette thèse, nous avons proposé plusieurs méthodes d'alignement à savoir: la méthode EDOLA, la méthode SODA et la méthode OACAS. Les trois méthodes procèdent dans une première phase à la transformation des deux ontologies à aligner sous la forme d'un graphe, O-Graph, pour chaque ontologie. Ces graphes permettent la représentation des ontologies sous une forme facile à l'exploitation. La méthode EDOLA est une approche se basant sur un modèle de calcul des similarités locale et globale. Ce modèle suit la structure du graphe pour calculer les mesures de similarité entre les noeuds des deux ontologies. Le module d'alignement associe pour chaque catégorie de noeuds une fonction d'agrégation. La fonction d'agrégation prend en considération toutes les mesures de similarités entre les couples de noeuds voisins au couple de noeud à apparier. La méthode SODA est une amélioration de la méthode EDOLA. En effet, la méthode SODA opère sur les ontologies OWL-DL, pour les aligner, à la place des ontologies décrites en OWL-Lite. La méthode SODA est une approche structurelle pour l'alignement d'ontologies OWL-DL. Elle opère en 3 étapes successives. La première étape permet de calculer la similarité linguistique à travers des mesures de similarité plus adaptées aux descripteurs des constituants des ontologies à apparier. La seconde étape détermine la similarité structurelle en exploitant la structure des deux graphes O-Graphs. La troisième étape déduit la similarité sémantique, en prenant en considération les deux types de similarités déjà calculées. La méthode d'alignement, OACAS, opère en 3 étapes successives pour produire l'alignement. La première étape permet de calculer la similarité linguistique composée. La similarité linguistique composée prend en considération tous les descripteurs des entités ontologiques à aligner. La seconde étape détermine la similarité de voisinage par niveau. La troisième étape agrège les composants de la similarité linguistique composée et la similarité de voisinage par niveau pour déterminer la similarité agrégée. / In this thesis, we have proposed three ontology alignment methods: EDOLA (Extended Diameter OWL-Lite Alignment) method, SODA (Structural Ontology OWL-DL Alignment) method and OACAS (Ontologies Alignment using Composition and Aggregation of Similarities) method. These methods rely on aggregation and composition of similarities and check the spread structure of the ontologies to be aligned. EDOLA method allows to align OWL-Lite ontologies whereas SODA and OACAS consider OWL-DL ontologies. The three proposed methods operate in a first step by transforming both ontologies to aligned as a graph, named O-Graph, for each ontology. This graph reproduces OWL ontologies to be easily manipulated during the alignment process. The obtained graphs describe all the information contained in the ontologies: entities, relations between entities and instances. Besides, the EDOLA method is a new approach that computes local and global similarities using a propagation technique of similarities through the O-Graphs. This model explores the structure of the considered O-Graphs to compute the similarity values between the nodes of both ontologies. The alignment model associates for each category of nodes an aggregation function. This function takes in consideration all the similarity measures of the couple of nodes to match. This aggregation function explores all descriptive information of this couple. EDOLA operates in two succesive steps. The first step computes the local similarity, terminological one, whereas the second step computes the global one. The SODA method is an improved version of EDOLA. In fact, it uses OWL-DL ontologies. SODA method is a structures approach for OWL-DL ontologies. The method operates in three successive steps and explores the structure the ontologies using O-Graphs. The first step computes linguistic similarity using appropriate similarity measures corresponding to the descriptors of ontological entities. The second step allows to compute structural similarity using the two graphs O-Graphs. The third step deduces the semantic similarity, by combining both similarities already computed, in order to outperform the alignment task.
2

Recalage multi-modal automatique : technique de multi-résolution parallèle appliquée à la TEP et l'IRM / Multi-modal automatic registration : A parallel multi-resolution approach applied to PET-MRI

Bernier, Michaël January 2012 (has links)
Résumé : Le recalage automatique des images issues de la tomographie par émission de positrons (TEP) et de l’imagerie par résonance magnétique (IRM) du petit animal pose un problème difficile à résoudre, tant sur l’aspect de la précision, du taux de réussite et de convergence que sur la rapidité d’exécution. En fait, la plupart des techniques de recalage actuelles sont développées et appliquées aux cerveaux humains, mais ne sont pas aussi efficaces lorsqu’appliquées sur des données animales. L’anisotropie impor¬tante des voxels (résolution fine dans le plan de l’acquisition, mais grande épaisseur de coupe) et la dégradation des images associée à ce type d’acquisition s’additionne au manque d’information d’intensité et de complexité anatomique de ce type de jeu de données. Ce mémoire met l’accent sur les techniques multimodales de recalage automatique et de leurs limites, appliquées particulièrement à la TEP et l’IRM du petit animal. Dans l’article principal présenté dans ce mémoire, nous proposons une mesure qui utilise un recalage multirésolution en parallèle (imbriqué dans la fonction d’énergie) au lieu d’une approche classique de multirésolution séquentielle, influen¬çant directement la procédure du recalage. En combinant les niveaux de basse et haute résolution des images, nous nous assurons une plus grande insensibilité par rapport au bruit, d’une ouverture accrue permettant une meilleure convergence et rapidité d’exécution. L’article démontre que notre nouvelle approche automatique est un algorithme de recalage robuste et efficace avec un taux de réussite élevé. Nous présentons également dans ce mémoire certains détails d’implantation de l’outil, qui a été créé par l’auteur de ce document, reposant sur le recalage classique et la nouvelle méthode décrite dans ce mémoire.||Abstract: Automatic registration of small animal Positron Emission Tomography (PET) and Magnetic Resonance Imaging (MRI) data represents a difficult problem in terms of convergence speed, accuracy and success rate. In fact, most existing registration methods are developed and applied to human brain volumes but these are not as effective for small animal data because of the lack of intensity information in the images and often the large anisotropy in voxel dimensions (very small in-plane resolution and large slice thickness). This master thesis focuses on multi-modal automatic registration techniques and their limitations, especially applied to PET-MRI registration. In the main article of this master thesis, we propose a new registration measure that combines multi-resolution in parallel (in the same energy function) instead of a classic sequential multi-resolution, which influence the procedure of the registration as well. By combining low and high resolution levels of images, we can gain from the low noise sensitivity and aperture at coarse levels and higher contrast and details at higher levels, which helps convergence accuracy and speed. The paper shows that our new approach is therefore an automatic, robust and efficient registration algorithm with a high success rate. We also present in this document some implementation details on the tool which was created by the author of this thesis based on the classic registration and the new approach described in this thesis.
3

Raisonnement à partir de cas dynamique multi-agents : application à un système de tuteur intelligent / Multi-agent dynamic case-based reasoning : eapplication to intelligent tutoring system

Zouhair, Abdelhamid 20 October 2014 (has links)
Nos travaux de thèse se situent dans le domaine des Systèmes d'Aide à la Décision (SAD) pour les situations dynamiques fondées sur les expériences passées. Plusieurs approches telles que les Réseaux de Neurones, Réseau de Petri et les Modèles de Markov Cachés ont été utilisées dans ce contexte mais elles souffrent de limites dans la gestion automatique et en temps réel des paramètres dynamiques. Nous proposons une architecture multi-agent multicouche fondée sur le raisonnement à partir de cas dynamique et incrémentale (RàPCDI) capable d’étudier les situations dynamiques (reconnaissance, prédiction, et apprentissage de situations). Nous proposons une approche générique qui acquiert elle-même les connaissances du système dynamique étudié. En outre, les systèmes de RàPC statiques souffrent de limites dans la gestion des paramètres dynamiques et ils sont incapables de détecter automatiquement l’évolution de ses paramètres ainsi que de s’adapter aux changements de la situation en cours d’évolution. En se basant sur le raisonnement à partir de cas et sur le paradigme multi-agent, nous proposons une modification du cycle statique de RàPC dans le but d’introduire un processus dynamique de raisonnement à partir de cas fondé sur une mesure de similarité dynamique, capable d'évaluer en temps réel la similarité entre une situation dynamique en cours de progression (cas cible) et des expériences passées stockées dans la mémoire du système (des cas sources) afin de prédire la suite de la situation cible. Nous validons l’approche proposée par la mise en œuvre d'un prototype de Tuteur Intelligent. Dans notre approche Incremental Dynamic Case Based Reasoning-Multi-Agent System (IDCBR-MAS), les expériences passées sont modélisées sous la forme des traces. Elles comprennent les productions et les actions résultantes de l’interaction de l'apprenant avec la plateforme d'apprentissage. IDCBR-MAS a été modélisé suivant la méthodologie AUML. Ses agents ont été développés en se basant sur JAVA et la plateforme SMA/JADE. / AOur thesis works are related in the field of Decision Support System (DSS) for dynamic situations based on past experiences. Several approaches have been used in this area such as neural networks, Petri Nets and Hidden Markov Model but they suffer from some limitations in automated real-time management dynamic parameters. We propose a multi-agent multi-layer architecture based on Incremental Dynamic Case-Based Reasoning (IDCBR) able to study dynamic situations (recognition, prediction, and learning situations). We propose a generic approach able to learn automatically from their experiences in order to acquire the knowledge automatically. In addition, the static CBR systems suffer from some limitations such as the problem of the static management for dynamic parameters of the situation and they are unable to detect automatically the changes in its parameters in order to adapt the situation during their evolution. Based on the Case-Based Reasoning and multi-agent paradigm, we propose a modification of the static CBR cycle in order to introduce a dynamic process of Case-Based Reasoning based on a dynamic similarity measure able to evaluate in real time the similarity between a dynamic situation in current progress (target case) and past experiences stored in the memory (sources case) in order to predict the target case in the future. We validate the approach proposed by the implementation of an intelligent tutoring system prototype. In our approach Incremental Dynamic Case-Based Reasoning-Multi-Agent System (IDCBR-MAS), the past experiences are structured and modeled as traces. They include the interaction of the learner with the platform, which include history, chronology of interactions and productions left by the learner during his/her learning process. IDCBR-MAS designed and modeled with AUML language. Its agents have been implemented with JAVA and SMA / JADE platform.
4

Contribution au recalage d'images de modalités différentes à travers la mise en correspondance de nuages de points : Application à la télédétection

Palmann, Christophe 23 June 2011 (has links)
L'utilisation d'images de modalités différentes est très répandue dans la résolution de problèmes liés aux applications de la télédétection. La raison principale est que chaque image d'une certaine modalité contient des informations spécifiques qui peuvent être intégrées en un modèle unique, afin d'améliorer notre connaissance à propos d'une scène spécifique. A cause du grand volume de données disponibles, ces intégrations doivent être réalisées de manière automatique. Cependant, un problème apparaît dès les premiers stades du processus : la recherche, dans des images de modalités différentes, de régions en correspondance. Ce problème est difficile à résoudre car la décision de regrouper des régions doit nécessairement reposer sur la part d'information commune aux images, même si les modalités sont différentes. Dans cette thèse, nous nous proposons donc d'apporter une contribution à la résolution de ce problème / The use of several images of various modalities has been proved to be quite useful for solving problems arising in many different applications of remote sensing. The main reason is that each image of a given modality conveys its own part of specific information, which can be integrated into a single model in order to improve our knowledge on a given area. With the large amount of available data, any task of integration must be performed automatically. At the very first stage of an automated integration process, a rather direct problem arises : given a region of interest within a first image, the question is to find out its equivalent within a second image acquired over the same scene but with a different modality. This problem is difficult because the decision to match two regions must rely on the common part of information supported by the two images, even if their modalities are quite different. This is the problem that we wish to address in this thesis
5

Apprentissage à base de Noyaux Sémantiques pour le Traitement de Données Textuelles

Aseervatham, Sujeevan 12 December 2007 (has links) (PDF)
Depuis le début des années 80, les méthodes statistiques et, plus spécifiquement, les méthodes d'apprentissage appliquées au traitement de données textuelles connaissent un intérêt grandissant. Cette tendance est principalement due au fait que la taille des corpus est en perpétuelle croissance. Ainsi, les méthodes utilisant le travail d'experts sont devenues des processus coûteux perdant peu à peu de leur popularité au profit des systèmes d'apprentissage.<br />Dans le cadre de cette thèse, nous nous intéressons principalement à deux axes.<br />Le premier axe porte sur l'étude des problématiques liées au traitement de données textuelles structurées par des approches à base de noyaux. Nous présentons, dans ce contexte, un noyau sémantique pour les documents structurés en sections notamment sous le format XML. Le noyau tire ses informations sémantiques à partir d'une source de connaissances externe, à savoir un thésaurus. Notre noyau a été testé sur un corpus de documents médicaux avec le thésaurus médical UMLS. Il a été classé, lors d'un challenge international de catégorisation de documents médicaux, parmi les 10 méthodes les plus performantes sur 44. <br />Le second axe porte sur l'étude des concepts latents extraits par des méthodes statistiques telles que l'analyse sémantique latente (LSA). Nous présentons, dans une première partie, des noyaux exploitant des concepts linguistiques provenant d'une source externe et des concepts statistiques issus de la LSA. Nous montrons qu'un noyau intégrant les deux types de concepts permet d'améliorer les performances. Puis, dans un deuxième temps, nous présentons un noyau utilisant des LSA locaux afin d'extraire des concepts latents permettant d'obtenir une représentation plus fine des documents.
6

Intégration d'une nouvelle approche sémantique basée sur les caractéristiques visuelles des concepts dans un système de recherche d'images par contenu et par texte

Id-Oumohmed, Ahmed January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
7

Mesures de similarité pour cartes généralisées

Combier, Camille 28 November 2012 (has links) (PDF)
Une carte généralisée est un modèle topologique permettant de représenter implicitementun ensemble de cellules (sommets, arêtes, faces , volumes, . . .) ainsi que l'ensemblede leurs relations d'incidence et d'adjacence au moyen de brins et d'involutions. Les cartes généralisées sont notamment utilisées pour modéliser des images et objets3D. A ce jour il existe peu d'outils permettant l'analyse et la comparaison de cartes généralisées.Notre objectif est de définir un ensemble d'outils permettant la comparaisonde cartes généralisées.Nous définissons tout d'abord une mesure de similarité basée sur la taille de la partiecommune entre deux cartes généralisées, appelée plus grande sous-carte commune.Nous définissons deux types de sous-cartes, partielles et induites, la sous-carte induitedoit conserver toutes les involutions tandis que la sous-carte partielle autorise certaines involutions à ne pas être conservées. La sous-carte partielle autorise que les involutionsne soient pas toutes conservées en analogie au sous-graphe partiel pour lequelles arêtes peuvent ne pas être toutes présentes. Ensuite nous définissons un ensembled'opérations de modification de brins et de coutures pour les cartes généralisées ainsiqu'une distance d'édition. La distance d'édition est égale au coût minimal engendrépar toutes les successions d'opérations transformant une carte généralisée en une autrecarte généralisée. Cette distance permet la prise en compte d'étiquettes, grâce à l'opérationde substitution. Les étiquettes sont posées sur les brins et permettent d'ajouter del'information aux cartes généralisées. Nous montrons ensuite, que pour certains coûtsnotre distance d'édition peut être calculée directement à partir de la plus grande souscartecommune.Le calcul de la distance d'édition est un problème NP-difficile. Nous proposons unalgorithme glouton permettant de calculer en temps polynomial une approximation denotre distance d'édition de cartes. Nous proposons un ensemble d'heuristiques baséessur des descripteurs du voisinage des brins de la carte généralisée permettant de guiderl'algorithme glouton, et nous évaluons ces heuristiques sur des jeux de test générésaléatoirement, pour lesquels nous connaissons une borne de la distance.Nous proposons des pistes d'utilisation de nos mesures de similarités dans le domainede l'analyse d'image et de maillages. Nous comparons notre distance d'éditionde cartes généralisées avec la distance d'édition de graphes, souvent utilisée en reconnaissancede formes structurelles. Nous définissons également un ensemble d'heuristiquesprenant en compte les étiquettes de cartes généralisées modélisant des images etdes maillages. Nous mettons en évidence l'aspect qualitatif de notre appariement, permettantde mettre en correspondance des zones de l'image et des points du maillages.
8

Mesures de similarité pour cartes généralisées / Similarity measures between generalized maps

Combier, Camille 28 November 2012 (has links)
Une carte généralisée est un modèle topologique permettant de représenter implicitementun ensemble de cellules (sommets, arêtes, faces , volumes, . . .) ainsi que l’ensemblede leurs relations d’incidence et d’adjacence au moyen de brins et d’involutions. Les cartes généralisées sont notamment utilisées pour modéliser des images et objets3D. A ce jour il existe peu d’outils permettant l’analyse et la comparaison de cartes généralisées.Notre objectif est de définir un ensemble d’outils permettant la comparaisonde cartes généralisées.Nous définissons tout d’abord une mesure de similarité basée sur la taille de la partiecommune entre deux cartes généralisées, appelée plus grande sous-carte commune.Nous définissons deux types de sous-cartes, partielles et induites, la sous-carte induitedoit conserver toutes les involutions tandis que la sous-carte partielle autorise certaines involutions à ne pas être conservées. La sous-carte partielle autorise que les involutionsne soient pas toutes conservées en analogie au sous-graphe partiel pour lequelles arêtes peuvent ne pas être toutes présentes. Ensuite nous définissons un ensembled’opérations de modification de brins et de coutures pour les cartes généralisées ainsiqu’une distance d’édition. La distance d’édition est égale au coût minimal engendrépar toutes les successions d’opérations transformant une carte généralisée en une autrecarte généralisée. Cette distance permet la prise en compte d’étiquettes, grâce à l’opérationde substitution. Les étiquettes sont posées sur les brins et permettent d’ajouter del’information aux cartes généralisées. Nous montrons ensuite, que pour certains coûtsnotre distance d’édition peut être calculée directement à partir de la plus grande souscartecommune.Le calcul de la distance d’édition est un problème NP-difficile. Nous proposons unalgorithme glouton permettant de calculer en temps polynomial une approximation denotre distance d’édition de cartes. Nous proposons un ensemble d’heuristiques baséessur des descripteurs du voisinage des brins de la carte généralisée permettant de guiderl’algorithme glouton, et nous évaluons ces heuristiques sur des jeux de test générésaléatoirement, pour lesquels nous connaissons une borne de la distance.Nous proposons des pistes d’utilisation de nos mesures de similarités dans le domainede l’analyse d’image et de maillages. Nous comparons notre distance d’éditionde cartes généralisées avec la distance d’édition de graphes, souvent utilisée en reconnaissancede formes structurelles. Nous définissons également un ensemble d’heuristiquesprenant en compte les étiquettes de cartes généralisées modélisant des images etdes maillages. Nous mettons en évidence l’aspect qualitatif de notre appariement, permettantde mettre en correspondance des zones de l’image et des points du maillages. / A generalized map is a topological model that allows to represent implicitly differenttypes of cells (vertices, edges, volumes, . . . ) and their relationship by using a set of dartsand some involutions. Generalized maps are used to model 3D meshes and images.Anyway there exists only few tools to compare theses generalized maps. Our main goalis to define some tools tolerant to error to compare them.We define a similarity measure based on the size of the common part of two generalizedmaps, called maximum common submap. Then we define two types of submaps,partial and induced, the induced submap needs to preserve all the involutions whereasthe partial one can allow some involutions to be removed. Then we define a set of operationsto modify a generalized map into another and the associated edit distance. Theedit distance is equal to the minimal cost of all the sequences of operations that modifya generalized map into the other. This edit distance can use labels to consider additionalinformation, with the operation called ’substitution’. Labels are set on darts. Wenext showa relation between our edit distance and the distance based on the maximumcommon submap.Computing theses distance are aNP-hard problem.We propose a greedy algorithmcomputing an approximation of it. We also propose a set of heuristics based on thedescription of the neighborhoob of the darts to help the greedy algorithm.We try thesesheuristics on a set of generalized maps randomly generated where a lower bound of thedistance is known. We also propose some applications of our similarity measures inthe image analysis domain. We compare our edit distance on generalized maps withthe edit distance on graphs. We also define a set of labels specific on images and 3Dmeshes. And we show that the matching computed by our algorithm construct a linkbetween images’s areas.
9

Indexation guidée par les connaissances en imagerie médicale

AL SUN, Mohammad Homam 10 January 2012 (has links) (PDF)
Dans ce travail de recherche, nous nous intéressons à l'exploitation des informations médicales pour l'aide à la décision diagnostique. Notre objectif est de définir un système capable de manipuler des données, des informations et des connaissances médicales d'une manière efficace afin de fournir au médecin, à la sortie du système, des informations permettant de faciliter la prise de décision diagnostique. Dans un premier temps, nous abordons les deux phases essentielles dans un système d'aide au diagnostic : la phase de modélisation des connaissances et la phase de raisonnement ou de mécanisme de manipulation de ces connaissances modélisées. Dans le cadre de ce travail, deux modes de raisonnement sont particulièrement considérés : le raisonnement par classification et le raisonnement par similarité. La modélisation des connaissances et le raisonnement sont abordés à la lumière de deux caractéristiques de l'information médicale qui sont : l'hétérogénéité et l'imperfection. Comme cadre général du système proposé, nous avons opté pour l'application de la théorie des possibilités grâce à ses avantages par rapport à d'autres théories de décision en termes de capacités de modélisation et de traitement des informations hétérogènes et imparfaites. En se basant sur cette théorie, nous avons proposé deux modèles possibilistes des connaissances médicales, et pour chaque modèle possibiliste proposé, nous avons discuté les deux types de raisonnement adoptés, par classification et par similarité. Les performances du système d'aide au diagnostic proposé sont évaluées en considérant une application médicale endoscopique comportant deux bases : une base de connaissances constituée d'un ensemble des diagnostics et une base de cas de lésions. Les résultats obtenus sont très intéressants et montrent l'efficacité de la théorie des possibilités comme un cadre de représentation des connaissances médicales et comme outil de raisonnement diagnostique. De plus, l'approche proposée s'est montré très efficace pour l'intégration de plusieurs sources des connaissances, pour la définition de la similarité entre cas et pour l'utilisation l'indice de confiance comme critère de décision (en termes de qualité des informations fournies au médecin).
10

Approche générique d’extraction automatique des événements et leur exploitation / Generic Approach for the Automatic Events Extraction and their Exploitation

El Khelifi, Aymen 08 December 2012 (has links)
Dans le cadre de notre thèse, nous avons proposé une approche générique d’extraction automatique des événements et de leur exploitation. L’approche est organisée en quatre composantes indépendantes et réutilisables. Une première composante de prétraitement, où les textes sont nettoyés et segmentés. Au cours de la seconde étape, les événements sont extraits en sebasant sur notre algorithme AnnotEC qui dispose d’une complexité polynomiale et qui est associé à des cartes sémantiques et des ressources linguistiques dédiées. Nous avons mis en place deux nouvelles mesures de similarité SimCatégoreille et SimEvent pour regrouper les événementssimilaires dans le cadre de la troisième composante de clustering. Les annotations, ajoutées tout au long des trois premières étapes, sont exploitées au niveau de la dernière composante par le bais des fichiers de synthèse paramétrables par l’utilisateur.L’approche a été évaluée sur un corpus issu du Web 2.0. Nous avons comparé les résultats avec des méthodes d’apprentissage automatique et des méthodes linguistiques par compilation et nous avons obtenu de meilleurs résultats. / In the framework of our thesis, we proposed a generic approach for the automatic extraction of events and their exploitation. This approach is divided into four independent and reusable components. The first component of pretreatment, in which texts are cleaned and segmented. During the second stage, events are extracted based on our algorithm AnnotEC which has polynomial complexity. AnnotEC is associated with semantic maps and dedicated linguistic resources. We have proposed two new similarity measures SimCatégoreille and SimEvent to group similar events using clustering algorithms.Annotations, added throughout the first three steps, are used at the last component by summarizing files configurable by users. The approach was evaluated on a corpus of Web 2.0, we compared the obtained results with machine learning methods and linguistic compiling methods and we got good results.

Page generated in 0.1106 seconds