• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 199
  • 187
  • 118
  • 26
  • 15
  • 8
  • 7
  • 7
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • Tagged with
  • 622
  • 167
  • 161
  • 159
  • 135
  • 116
  • 98
  • 96
  • 94
  • 87
  • 82
  • 70
  • 63
  • 62
  • 58
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Extração de informação e documentação de laudos médicos. / Information extraction and medical reports documentation.

Alice Shimada Bacic 09 May 2007 (has links)
Os sistemas de informação hospitalares geram diariamente uma quantidade significativa de dados em formato de texto livre, principalmente através de laudos médicos. Os laudos geralmente são recuperados do sistema através de informações associadas, como identificação do paciente, por datas ou profissional responsável. A recuperação da informação a partir do conteúdo descritivo é uma tarefa não trivial, pois os sistemas hospitalares em geral não são capazes de verificar o conteúdo de um texto livre em uma busca. Não havendo uma estrutura básica de organização, categorização ou indexação do texto livre armazenado nas bases hospitalares, uma grande quantidade de informação deixa de estar disponível para profissionais que necessitam delas, pois não sabem como recuperá-las. A capacidade de recuperação do conhecimento armazenado nestas bases de dados seria de grande valia para pesquisadores, estudantes ou mesmo para o estudo de casos clínicos. Segundo o contexto descrito, este trabalho propõe a criação de uma ferramenta de documentação automática que tem por objetivo gerar uma formatação associada ao texto livre de laudos em radiologia através da adição de informações obtidas a partir de sistemas de terminologias médicos padronizados. Com este procedimento, pretende-se facilitar a pesquisa pelo conhecimento armazenado em uma base de dados médicos através da informação adicional gerada. Para tanto o trabalho envolve pesquisas nas áreas de Ontologias e Extração deInformação, uma subárea do Processamento de linguagem Natural. As ontologias são importantes neste trabalho por tratarem o problema da padronização das terminologias usadas na escrita dos laudos, bem como para fornecer a organização e formatação necessária para que os laudos passem a ser partes de uma base de conhecimento. ) A Extração de Informação fornece os algoritmos e técnicas necessárias para que os laudos sejam documentados de forma automática, minimizando a necessidade de intervenção humana, normalmente muito custosa em termos de trabalho manual e tempo. Como resultado final obteve-se um conjunto de metodologias e ferramentas capazes de receber um laudo em texto livre e gerar um documento XML rotulado com códigos de conceitos definidos em um sistema de terminologias médico, como o UMLS ou o Radlex. Em todas as fases de processamento, até a obtenção do arquivo XML de saída, obteve-se valores de precisão superiores a 70%, um resultado bastante satisfatório se considerado que os algoritmos de PLN utilizados são todos baseados em regras. Em adição às ferramentas de PLN desenvolvidas, cita-se como resultados, os trabalhos desenvolvidos para avaliação de ontologias médicas segundo uma área médica prédefinido, a organização das ontologias em um formato útil para a utilização por algoritmos de PLN, a criação de um Corpus de laudos de Raio-X de Tórax em português para treinamento e testes de aplicações de PLN e um modelo de informação para documentação dos laudos. / Hospital Information Systems generate each day a significant amount of data in free text format, mainly as medical reports. Normally the reports are recovered from the system through associated information like patient identification, dates or responsible identification, for example. To recover a report by its content is not a trivial task since hospital systems are not capable of searching the free text content. Without a basic organizational structure, some categorization and indexing the free text stored on the hospital database is not accessible, since it cannot be recovered in the right context when it is needed. The ability of recovering the knowledge stored on these databases would be valuable for researchers, students or for the study of clinical cases. According to the described context, this work considers the creation of a tool for automatic documentation of medical reports written in free text. The main objective is to format radiological reports to achieve a more efficient way of recovering the knowledge stored in medical report\'s databases. To achieve this goal, information from medical terminology systems is added to the original report automatically. Such task requires some research in the field of Ontologies and Information Extraction, a sub field of Natural Language Processing. Ontologies are important in this work because they provide the standardization needed for the terminologies used in the written reports. It is important too forsupplying the organization necessary to format the reports in an adequate way to be stored on the knowledge base. Information Extraction supplies the algorithms and the necessary techniques to register in an automatic way the radiological reports, minimizing the human intervention, normally with a high cost in terms of handwork and time. ) The final result achieved was a set of methodologies and tools used to process a free text report, generating a XML document tagged with codes extracted from a medical terminology system. Considering all process steps, it was achieved a precision of at least 70%, in each step, a good score, if we consider that all the algorithms are rule based. In addiction to the NLP tools results, there are results concerning to medical ontologies evaluation for a pre-defined medical area, the organization need to make the ontologies usable by the NLP tools, the creation of a x-ray Corpus of reports in Portuguese and an information model used to document the reports. The Corpus could be used on the evaluation and test of NLP tools.
362

MADAE-PRO: UM PROCESSO BASEADO NO CONHECIMENTO PARA ENGENHARIA DE DOMÍNIO E DE APLICAÇÕES MULTIAGENTE. / MADAE-PRO: A knowledge-based process for Domain Engineering and multiagent applications.

COSTA, Adriana Leite 17 February 2009 (has links)
Submitted by Maria Aparecida (cidazen@gmail.com) on 2017-08-21T13:05:14Z No. of bitstreams: 1 Adriana Leite.pdf: 5184172 bytes, checksum: 6e560c465acfbbc76b4bfc1dd01bd86b (MD5) / Made available in DSpace on 2017-08-21T13:05:14Z (GMT). No. of bitstreams: 1 Adriana Leite.pdf: 5184172 bytes, checksum: 6e560c465acfbbc76b4bfc1dd01bd86b (MD5) Previous issue date: 2009-02-17 / The interest in the agent-oriented paradigm development has increased in recent years. This is due mainly to the increasing complexity of current software that requires new characteristics as autonomy behavior. In the agent-oriented paradigm, the software has no longer a strictly predictable behavior, has from the control over their own behavior and can make decisions based on observations the environment and inferences upon its knowledge base. A set of meth and process have been already proposed for agent-oriented software engineering. Domain Engineering is a process for the development of a reusable application family in a particular domain problem, and Application Engineering, the one for the construction of a specific application in a family based on the reuse of software artifacts in the application family previously produced in the Domain Engineering process. MADAE-Pro is an ontology-driven process for multi-agent domain and application engineering which promotes the construction and reuse of agent-oriented applications families. The process is specified in a formal representation language, thus avoiding ambiguous interpretations. Another differential of MADAE-Pro is the reuse of software support in all levels of abstraction, from the requirements to the deployment. / O interesse pelo paradigma de desenvolvimento orientado a agentes tem aumentado nos últimos anos. Isso se deve principalmente ao crescente aumento da complexidade dos produtos de software atuais que requerem novas características como comportamento autônomo. No paradigma orientado a agentes, o software deixa de ter comportamento estritamente previsível e passa a ter controle sobre seu próprio comportamento, podendo tomar decisões a partir de observações do ambiente e de inferências realizada em sua base de conhecimento. Para guiar o desenvolvimento orientado a agentes tem sido proposto um conjunto de metodologias e processos pela comunidade da Engenharia de Software. Nesse trabalho, apresenta-se MADAE-Pro, um processo para o desenvolvimento de sistemas multiagente com alguns diferenciais em relação aos já propostos pela comunidade. A Engenharia de Domínio é um processo para criação de abstrações de software reusáveis no desenvolvimento de uma família de aplicações em um domínio particular de problema. A Engenharia de Aplicações é um processo para construção de aplicações baseadas no reúso de artefatos de software previamente produzidos no processo da Engenharia de Domínio. O MADAE-Pro é um processo dirigido por ontologias para a Engenharia de Domínio e de Aplicações Multiagente, o qual promove a construção e o reúso de famílias de aplicações. O processo é especificado em uma linguagem de representação de processos formal, evitando assim interpretações ambíguas. Outro diferencial do MADAE-Pro é o suporte ao reúso de software em todos os níveis de abstração, desde os requisitos até a implementação.
363

UMA ONTOLOGIA DE APLICAÇÃO PARA APOIO À TOMADA DE DECISÕES EM SITUAÇÕES DE AMEAÇA À SEGURANÇA DA INFORMAÇÃO. / AN ONTOLOGY OF INFORMATION FOR DECISION SUPPORT IN SITUATIONS OF THREAT TO INFORMATION SECURITY.

SILVA, Rayane Meneses da 24 June 2015 (has links)
Submitted by Maria Aparecida (cidazen@gmail.com) on 2017-08-31T14:44:32Z No. of bitstreams: 1 Rayane.pdf: 4026589 bytes, checksum: 7e6066416420555456030ab6db3a1231 (MD5) / Made available in DSpace on 2017-08-31T14:44:32Z (GMT). No. of bitstreams: 1 Rayane.pdf: 4026589 bytes, checksum: 7e6066416420555456030ab6db3a1231 (MD5) Previous issue date: 2015-06-24 / Many security mechanisms, such as Intrusion Detection Systems (IDSs) have been developed to approach the problem of information security attacks but most of them are traditional information systems in which their threats repositories are not represented semantically. Ontologies are knowledge representation structures that enable semantic processing of information and the construction of knowledge-based systems, which provide greater effectiveness compared to traditional systems. This paper proposes an application ontology called “Application Ontology for the Development of Case-based Intrusion Detection Systems” that formally represents the concepts related to information security domain of intrusion detection systems and “Case Based Reasoning”. The “Case Based Reasoning” is an approach for problem solving in which you can reuse the knowledge of past experiences to solve new problems. The evaluation of the ontology was performed by the development of an Intrusion Detection System that can detect attacks on computer networks and recommend solutions to these attacks. The ontology was specified using the “Ontology Web Language” and the Protégé ontology editor and. It was also mapped to a cases base in Prolog using the “Thea” tool. The results have shown that the developed Intrusion Detection System presented a good effectiveness in detecting attacks that the proposed ontology conceptualizes adequately the domain concepts and tasks. / Muitos mecanismos de segurança, como os Sistemas de Detecção de Intrusão têm sido desenvolvidos para abordar o problema de ataques à Segurança da Informação. Porém, a maioria deles são sistemas de informação tradicionais nos quais seus repositórios de ameaças não são representados semanticamente. As ontologias são estruturas de representação do conhecimento que permitem o processamento semântico das informações bem como a construção dos sistemas baseados em conhecimento, os quais fornecem uma maior efetividade em relação aos sistemas tradicionais. Neste trabalho propõe-se uma ontologia de aplicação denominada “Application Ontology for the Development of Case-based Intrusion Detection Systems” que representa formalmente os conceitos relacionados ao domínio de Segurança da Informação, dos sistemas de detecção de intrusão e do “Case-Based Reasoning”. O “Case-Based Reasoning” é uma abordagem para resolução de problemas nos quais é possível reutilizar conhecimentos de experiências passadas para resolver novos problemas. A avaliação da ontologia foi realizada por meio do desenvolvimento de um Sistema de Detecção de Intrusão que permite detectar ataques a redes de computadores e recomendar soluções a esses ataques. A ontologia foi especificada na linguagem “Ontology Web Language” utilizando o editor de ontologias Protegé e, logo após, mapeada a uma base de casos em Prolog utilizando o ferramenta “Thea”. Os resultados mostraram que o Sistema de Detecção de Intrusão desenvolvido apresentou boa efetividade na detecção de ataques e portanto, conclui-se que a ontologia proposta conceitualiza de forma adequada os conceitos de domínio e tarefa abordados.
364

Estudo sobre aplicação de web semântica e visualização em dados abertos: proposta de portal para transparência em séries históricas de indicadores sociais, econômicos e financeiros, públicos na web / Study on application of semantic web and viewing in open data

Garcia, Paulo Sérgio Rangel 22 November 2011 (has links)
Made available in DSpace on 2016-04-29T14:23:04Z (GMT). No. of bitstreams: 1 Paulo Sergio Rangel Garcia.pdf: 2904735 bytes, checksum: 788a6453214c9f0a41c9629423741347 (MD5) Previous issue date: 2011-11-22 / This paper aims to discuss a model for constructing a transparent portal that contains historical trends of public social, economical and financial indicators, preferably if collected at e-Gov websites. In order to reach that objective, we researched extensively within Manuel Castells, Tim Berners-Lee, Vinton Cerf, Karin K. Breitman, Martha Gabriel and Fernanda Viegas s work, amongst others, about semantic web, ontologies, search engine optimization and data visualization. Starting from a study of the historical evolution of internet, we try to understand how was possible to forge this context of highly productive disorganized dynamics that provided the conditions of the massive availability of information and data that we see today. By utilizing concepts and technologies such as metadata, ontologies, web services, software agents, data visualization and optimization of research mechanisms, we discuss techniques and methodologies that could make collecting data as fast as possible feasible, as well as putting it together in a way that either humans or other computer systems may easily understand. We also analyze the current e-Gov services provided by the Brazilian government by evaluating its characteristics, tendencies and possibilities for evolution and growth by utilizing data and research provided by NIC.BR and W3C BR. Thus, based on research and the author s own experience, this dissertation will try to propose a model for a portal that allows human interaction and integration with other computer systems for historical trends collected via web and formats and provides this data to society in a structured way. Finally, we indicate future researches that may contribute to the discussion and development of websites and services that apropriate public open data / Este trabalho tem como objetivo discutir um modelo para a construção de portal que dê transparência a séries históricas de indicadores sociais, econômicos e financeiros, públicos e disponíveis na web. Para se chegar a esse objetivo, foram realizados estudos em autores como Manuel Castells, Tim Berners-Lee, Vinton Cerf, Karin K. Breitman, Martha Gabriel e Fernanda Viegas entre outros, sobre web semântica, ontologias, otimização em mecanismos de buscas e visualização de dados. A partir do estudo da evolução histórica da Internet, buscou-se compreender como foi possível formar esse contexto de dinamismo não ordenado, com alta produção, criando condições para a alta disponibilidade de dados e informações que existem hoje. Abordando conceitos e tecnologias relacionadas à web semântica, ontologias, web services, agentes de software, visualização de dados e otimização dos mecanismos de buscas, discutiu-se técnicas e metodologias que viabilizem a sua construção de maneira a permitir que tais dados sejam coletados e que estejam disponíveis em formatos compreensíveis para seres humanos e integráveis a outros sistemas computacionais. Foi também analisado o e-Gov atual, especialmente no Brasil, avaliando suas características, tendências e oportunidades de evolução utilizando dados e estudos disponibilizados pelo NIC.BR e W3C BR. Assim, com base nesses estudos e na experiência do autor, esta dissertação tem o objetivo de propor um modelo de portal que permita a interatividade humana e integração com outros sistemas computacionais, das séries históricas públicas coletadas, formatando e disponibilizando-as de maneira estruturada para a sociedade. ` Por fim, é feita a indicação de pesquisas futuras, as quais venham contribuir para a discussão e o desenvolvimento de sites e serviços que apropriem dados abertos públicos.
365

Aspectos ontológicos da web-semântica: investigação para a utilização do histórico da web-semântica como contribuição para a melhoria da navegação na web

Fontes, Mário Madureira 26 October 2009 (has links)
Made available in DSpace on 2016-04-29T14:23:50Z (GMT). No. of bitstreams: 1 Mario Madureira Fontes.pdf: 2351476 bytes, checksum: ff5ce95f3291028a7500e5b1b3730187 (MD5) Previous issue date: 2009-10-26 / This study presents a framework for considering the problems related to web-semantics and logic as applied to the cyberspace computational context, its agents and engines for searching purposes. Highlighting some historical issues concerning the philosophy of language and logic, the theoretical background contemplates the problems and methods tackled by websemantics. This reasoning involves the concepts of object, reference, research, data base e data classification, which are found in the work of building up a web-semantically oriented navigation. It is argued that a system of the history of the navigation can be built up in order to make the navigation by the user easier, supplying new computational ontologies. It is also demonstrated, by means of an experiment based in a search in the web, the troublesome areas involved in accessing contents. In the experiment, the results of each search are analyzed according to principles posed by Montague. Based on the theoretical background and the analysis of the results of the experiment, a draft of the architecture of a system of the history of navigation is proposed. It involves a semantic ontology server, which processes, by means of intelligent agents, the semantic history in OWL, republishes them, displays the semantic contents in P2P networks or in dedicated servers and validates these contents if necessary. This study shows the relevance of the historical research on logic so that a more comprehensive view of the problems related to the web is achieved and argues in favor of the necessity and importance of developing a multidisciplinary research comprising logics, computation and digital technologies / Este estudo apresenta uma proposta de leitura dos problemas relativos à lógica-semântica aplicados ao contexto computacional do ciberespaço, seus agentes e engines de busca. Ressaltando algumas questões históricas, relativas à filosofia da linguagem e à lógica, a fundamentação teórica propicia uma reflexão sobre os problemas atuais e os métodos abordados pela web-semântica. Essa reflexão incide sobre os conceitos de objeto, referência, pesquisa, base de dados e classificação de dados, os quais são encontrados no trabalho de construção de uma navegação orientada pelos princípios da web-semântica. Argumentamos que um sistema de histórico de navegação pode ser construído para ajudar a facilitar a navegação do usuário, fornecendo novas ontologias computacionais e demonstramos, por meio de um experimento baseado em uma busca efetuada, a problemática envolvida no acesso aos conteúdos. Analisamos nesse experimento, os resultados de cada busca com base em princípios propostos por Montague. Pautados nas reflexões teóricas e na análise do experimento efetuadas, propomos um esboço de arquitetura de um sistema de histórico de navegação que compreende um servidor de ontologias semânticas, o qual processa, por meio de agentes inteligentes, os históricos semânticos em OWL, republica-os, disponibiliza os conteúdos semânticos em redes P2P ou em servidores dedicados e valida tais conteúdos se necessário. O estudo mostra a relevância da pesquisa histórica da lógica para uma mais alargada compreensão dos problemas colocados pela WEB 2.0 e 3.0 e conclui pela necessidade e importância da pesquisa das relações entre lógica, computação e tecnologias digitais
366

Abordagem semântica aplicada à integração e gerenciamento de recursos e aplicações em grades computacionais. / Semantic approach to the integration and management of resources and applications in computing grids.

Alexandre César Tavares Vidal 21 November 2007 (has links)
O domínio de grades computacionais é fortemente associado ao compartilhamento de recursos para a resolução de problemas em ambientes dinâmicos e heterogê- neos. Reutilizar aplicações armazenadas na grade e alocar recursos para atender os requisitos das aplicações são tarefas essenciais na grade e dependem da qualidade das informações disponíveis. O presente trabalho propõe uma abordagem semântica para a construção de um serviço de metadados sobre grades e sobre as aplicações nelas disponibilizadas. A abordagem proposta explora a realização de inferência sobre ontologias de aplicações e recursos computacionais da grade e a realização de consultas sobre a base inferida para promover a realização de tarefas, tais como escalonamento de recursos para execução de aplicações na grade, de modo e_ciente. O middleware para Grades oportunistas, InteGrade, foi a base a para o desenvolvimento desse projeto. / The grid computing domain is strongly related to resource sharing for problem resolution in dynamic and heterogeneous environments. The reuse of applications stored on grids and the allocation of resources to meet application requirements are essential grid tasks. These tasks depend on the quality of available information. This work proposes a semantic approach to build a metadata service about grid models, resources and applications. This approach explores inference and queries on ontologies about applications and grid computational resources aiming to enhance the execution of grid tasks, such as resource scheduling on grids. We used InteGrade, an opportunistic grid middleware, as the ground for the development of our project. The metadata integration will contribute to promote the e_cient usage of grid resources and applications.
367

Abordagem semântica aplicada à integração e gerenciamento de recursos e aplicações em grades computacionais. / Semantic approach to the integration and management of resources and applications in computing grids.

Vidal, Alexandre César Tavares 21 November 2007 (has links)
O domínio de grades computacionais é fortemente associado ao compartilhamento de recursos para a resolução de problemas em ambientes dinâmicos e heterogê- neos. Reutilizar aplicações armazenadas na grade e alocar recursos para atender os requisitos das aplicações são tarefas essenciais na grade e dependem da qualidade das informações disponíveis. O presente trabalho propõe uma abordagem semântica para a construção de um serviço de metadados sobre grades e sobre as aplicações nelas disponibilizadas. A abordagem proposta explora a realização de inferência sobre ontologias de aplicações e recursos computacionais da grade e a realização de consultas sobre a base inferida para promover a realização de tarefas, tais como escalonamento de recursos para execução de aplicações na grade, de modo e_ciente. O middleware para Grades oportunistas, InteGrade, foi a base a para o desenvolvimento desse projeto. / The grid computing domain is strongly related to resource sharing for problem resolution in dynamic and heterogeneous environments. The reuse of applications stored on grids and the allocation of resources to meet application requirements are essential grid tasks. These tasks depend on the quality of available information. This work proposes a semantic approach to build a metadata service about grid models, resources and applications. This approach explores inference and queries on ontologies about applications and grid computational resources aiming to enhance the execution of grid tasks, such as resource scheduling on grids. We used InteGrade, an opportunistic grid middleware, as the ground for the development of our project. The metadata integration will contribute to promote the e_cient usage of grid resources and applications.
368

Extração de informação e documentação de laudos médicos. / Information extraction and medical reports documentation.

Bacic, Alice Shimada 09 May 2007 (has links)
Os sistemas de informação hospitalares geram diariamente uma quantidade significativa de dados em formato de texto livre, principalmente através de laudos médicos. Os laudos geralmente são recuperados do sistema através de informações associadas, como identificação do paciente, por datas ou profissional responsável. A recuperação da informação a partir do conteúdo descritivo é uma tarefa não trivial, pois os sistemas hospitalares em geral não são capazes de verificar o conteúdo de um texto livre em uma busca. Não havendo uma estrutura básica de organização, categorização ou indexação do texto livre armazenado nas bases hospitalares, uma grande quantidade de informação deixa de estar disponível para profissionais que necessitam delas, pois não sabem como recuperá-las. A capacidade de recuperação do conhecimento armazenado nestas bases de dados seria de grande valia para pesquisadores, estudantes ou mesmo para o estudo de casos clínicos. Segundo o contexto descrito, este trabalho propõe a criação de uma ferramenta de documentação automática que tem por objetivo gerar uma formatação associada ao texto livre de laudos em radiologia através da adição de informações obtidas a partir de sistemas de terminologias médicos padronizados. Com este procedimento, pretende-se facilitar a pesquisa pelo conhecimento armazenado em uma base de dados médicos através da informação adicional gerada. Para tanto o trabalho envolve pesquisas nas áreas de Ontologias e Extração deInformação, uma subárea do Processamento de linguagem Natural. As ontologias são importantes neste trabalho por tratarem o problema da padronização das terminologias usadas na escrita dos laudos, bem como para fornecer a organização e formatação necessária para que os laudos passem a ser partes de uma base de conhecimento. ) A Extração de Informação fornece os algoritmos e técnicas necessárias para que os laudos sejam documentados de forma automática, minimizando a necessidade de intervenção humana, normalmente muito custosa em termos de trabalho manual e tempo. Como resultado final obteve-se um conjunto de metodologias e ferramentas capazes de receber um laudo em texto livre e gerar um documento XML rotulado com códigos de conceitos definidos em um sistema de terminologias médico, como o UMLS ou o Radlex. Em todas as fases de processamento, até a obtenção do arquivo XML de saída, obteve-se valores de precisão superiores a 70%, um resultado bastante satisfatório se considerado que os algoritmos de PLN utilizados são todos baseados em regras. Em adição às ferramentas de PLN desenvolvidas, cita-se como resultados, os trabalhos desenvolvidos para avaliação de ontologias médicas segundo uma área médica prédefinido, a organização das ontologias em um formato útil para a utilização por algoritmos de PLN, a criação de um Corpus de laudos de Raio-X de Tórax em português para treinamento e testes de aplicações de PLN e um modelo de informação para documentação dos laudos. / Hospital Information Systems generate each day a significant amount of data in free text format, mainly as medical reports. Normally the reports are recovered from the system through associated information like patient identification, dates or responsible identification, for example. To recover a report by its content is not a trivial task since hospital systems are not capable of searching the free text content. Without a basic organizational structure, some categorization and indexing the free text stored on the hospital database is not accessible, since it cannot be recovered in the right context when it is needed. The ability of recovering the knowledge stored on these databases would be valuable for researchers, students or for the study of clinical cases. According to the described context, this work considers the creation of a tool for automatic documentation of medical reports written in free text. The main objective is to format radiological reports to achieve a more efficient way of recovering the knowledge stored in medical report\'s databases. To achieve this goal, information from medical terminology systems is added to the original report automatically. Such task requires some research in the field of Ontologies and Information Extraction, a sub field of Natural Language Processing. Ontologies are important in this work because they provide the standardization needed for the terminologies used in the written reports. It is important too forsupplying the organization necessary to format the reports in an adequate way to be stored on the knowledge base. Information Extraction supplies the algorithms and the necessary techniques to register in an automatic way the radiological reports, minimizing the human intervention, normally with a high cost in terms of handwork and time. ) The final result achieved was a set of methodologies and tools used to process a free text report, generating a XML document tagged with codes extracted from a medical terminology system. Considering all process steps, it was achieved a precision of at least 70%, in each step, a good score, if we consider that all the algorithms are rule based. In addiction to the NLP tools results, there are results concerning to medical ontologies evaluation for a pre-defined medical area, the organization need to make the ontologies usable by the NLP tools, the creation of a x-ray Corpus of reports in Portuguese and an information model used to document the reports. The Corpus could be used on the evaluation and test of NLP tools.
369

Integration multicapteurs et géométrie discrète en métrologie par coordonnées

Zhao, Haibin 18 January 2010 (has links) (PDF)
L'intégration de systèmes multi-capteurs est la réponse la plus adaptée aux besoins croissants en matière de complexité et d'exactitude de mesures en métrologie par coordonnées. Cette thèse a pour objectif l'intégration de systèmes multi-capteurs en métrologie par coordonnées selon deux aspects: la modélisation des fonctions et des données; et le traitement de la géométrie discrète. La modélisation des fonctions et des données permet une meilleure compréhension des exigences des fonctions du système et des spécifications des données pour l'intégration de systèmes multi-capteurs. Des modèles hiérarchiques fonctionnels du système sont construits en utilisant la méthodologie IDEF0. Une démarche à base d'ontologies est utilisée pour modéliser les différentes données et de leurs relations par leur représentation structurée. Des méthodes efficaces et robustes pour le traitement de la géométrie discrète dans le cadre de l'intégration multi-capteurs sont l'objet principal de cette thèse à travers le développement de méthodes robustes. Une méthode basée sur le tenseur de courbure est utilisée pour l'estimation des courbures discrètes. Une analyse comparative montre que la méthode proposée fournit de meilleures performances par rapport à d'autres méthodes existantes. Le recalage est l'une des étapes les plus importantes de l'intégration multi-capteurs. Les algorithmes de recalage permettent de recaler les ensembles de points mesurés issus de différents capteurs ou de plusieurs vues. Une méthode de recalage sans correspondance connue est proposée dans cette thèse. Une combinaison de la courbure et de la distance euclidienne est utilisée pour améliorer les performances de l'algorithme classique de recalage ICP. Une nouvelle méthode basée sur l'indice de forme (shape index) et ll'intensité de courbure (curvedness) est développée pour la reconnaissance et la segmentation des formes discrètes. Le type de surface locale d'un sommet est reconnu par l'intermédiaire de son indice de forme. Les sommets sont ensuite groupés en fonction de leurs surfaces locales. Un algorithme de connexité par région est mis en œuvre pour produire les résultats de segmentation. Plusieurs exemples ont été testés et la méthode proposée fournit des résultats satisfaisants. Ces différentes méthodes de traitement géométriques ont été implémentés dans un nouveau système informatisé appelé DSP-COMS. Une étude de cas détaillée d'une pièce industrielle numérisée par laser scanning et par palpage est présentée dans cette thèse. Les points mesurés sont ensuite traités dans DSP-COMS. Les résultats obtenus montrent bien la robustesse des méthodes développés dans cette thèse.
370

Analyse de concepts formels guidée par des connaissances de domaine : Application à la découverte de ressources génomiques sur le Web

Messai, Nizar 20 March 2009 (has links) (PDF)
Cette thèse porte sur l'exploitation des connaissances de domaine dans un processus de découvertes de sources de données biologiques sur le Web. Tout d'abord, des ontologies de domaine sont utilisées pour représenter un ensemble de connaissances qui reflètent le contenu et la qualité des sources de données. Ensuite, en s'appuyant sur ces connaissances, les sources sont organisées dans un treillis de concepts en fonction de leurs caractéristiques communes. Le treillis de concept constitue le support de la découverte qui peut être effectuée de deux manières différentes et complémentaires : par navigation et par interrogation. Dans les deux cas la découverte peut être guidée par des connaissances de domaines. Lors d'une découverte par navigation, les connaissances sont utilisées soit pour réduire l'espace de recherche soit pour orienter la navigation vers des concepts plutôt que d'autres. Lors d'une découverte par interrogation les connaissances de domaine sont soit exprimées sous la forme de préférences entre mots clés dans la requête soit utilisées pour l'enrichissement (ou reformulation) de la requête. Pour assurer une meilleure prise en compte des connaissances de domaine nous avons introduit les treillis de concepts multivalués. L'organisation des sources sous la forme d'un treillis de concepts multivalués permet de contrôler la taille de l'espace de recherche et d'augmenter la flexibilité et les performances du processus de découverte dans ses deux modes. La navigation peut être effectuée dans des treillis de différents niveaux de précision avec la possibilité d'effectuer des zooms dynamiques permettant le passage d'un treillis à l'autre. L'interrogation bénéficie d'une augmentation de l'expressivité dans les requêtes.

Page generated in 0.036 seconds