• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 199
  • 187
  • 118
  • 26
  • 15
  • 8
  • 7
  • 7
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • Tagged with
  • 622
  • 167
  • 161
  • 159
  • 135
  • 116
  • 98
  • 96
  • 94
  • 87
  • 82
  • 70
  • 63
  • 62
  • 58
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
551

Um sistema para sugestão e otimização de conteúdo aplicado ao servidor multimídia do SBTVD

Wickert, Toni Ismael 04 October 2012 (has links)
Submitted by Fabricia Fialho Reginato (fabriciar) on 2015-08-26T23:36:04Z No. of bitstreams: 1 ToniWickert.pdf: 3748993 bytes, checksum: d136cd157ac0c38a4b63acbf5d54142d (MD5) / Made available in DSpace on 2015-08-26T23:36:04Z (GMT). No. of bitstreams: 1 ToniWickert.pdf: 3748993 bytes, checksum: d136cd157ac0c38a4b63acbf5d54142d (MD5) Previous issue date: 2012-10-04 / Nenhuma / A televisão analógica aberta atinge aproximadamente 97% dos lares brasileiros. Com o advento do Sistema Brasileiro de Televisão Digital (SBTVD) os usuários terão a possibilidade de ter um canal de interatividade. Dessa forma, será possível ter acesso ao servidor de aplicações multimídia, ou seja, haverá a possibilidade de enviar ou receber e-mails, acessar aplicações interativas, assistir filmes ou notícias específicas. A Plataforma Digiconv tem como objetivo a geração de conteúdo digital para TV Digital, IPTV e dispositivos móveis. Esse trabalho apresenta o desenvolvimento e a implementação de um sistema dividido em dois módulos, o módulo de sugestão de conteúdo tem como objetivo sugerir conteúdos ao usuário, de acordo com o seu perfil, através do uso de agentes de software e ontologias. Nesse módulo, foi desenvolvido um sistema para sugestão com filtragem baseada em conteúdo, dessa forma, o sistema encontra conteúdos semelhantes àqueles que o usuário escolheu no passado para lhe sugerir. Já o módulo de transmissão de conteúdo, tem como objetivo otimizar os parâmetros de transmissão, que é abordado como um problema de otimização combinatória conhecido como Problema de Seleção de Partes que é classificado como NP-Completo. Nesse módulo formam utilizados agentes de software, Busca Tabu, Algoritmo Genético e um Algoritmo Híbrido com o objetivo de encontrar a melhor política de transmissão dos parâmetros de vídeo (LD, P1, SD, P2 e HD) e dos parâmetros de áudio (áudio estéreo e áudio 5.1). A validação desse módulo foi feita, através da média harmônica da distribuição do link de internet disponível no servidor. O resultado desse trabalho é um sistema com dois módulos, um para sugestão de conteúdo e outro módulo que define a melhor política de transmissão do conteúdo. / The open analogic television arrives on approximately 97% of Brazilian homes. With the advent of the Brazilian Digital Television System (SBTVD) users will be able to have an interactive channel. That way, users can access the multimedia applications server, to send or receive emails, access interactive applications, watch movies or specific news. The Digiconv Platform aims to generate digital content to Digital TV, IPTV and mobile devices. This work presents the development and implementation of an architecture divided into two modules, the content suggestion module aims to suggest content to the user, according to his profile, through the use of software agents and ontologies. In this module, a system was developed using content-based filtering, thus the system find similar content to suggest according to the content that the user liked in the past. The content transmission module aims to optimize the transmission parameters, which is addressed as a combinatorial optimization problem known as Part-Selection Problem that is classified as NPComplete. In this module, were used software agents, Tabu Search, Genetic Algorithm and Hybrid Algorithm with the goal to find the best transmission policy of the video parameters (LD, P1, SD, HD and P2) and the audio parameters (stereo audio and 5.1 audio). The validation of this module is done through the harmonic mean of the distribution of the internet link available on the server. The result of this work is a system with two modules, one module suggest content and the other module defines the best content transmission policy.
552

Terminologia e variação conceitual : um estudo de interface com ontoologias

Krebs, Luciana Monteiro 25 January 2016 (has links)
Submitted by Patrícia Valim Labres de Freitas (patricial) on 2016-03-18T14:03:10Z No. of bitstreams: 1 Luciana Monteiro Krebs_.pdf: 1391795 bytes, checksum: 587648c97bd0ea733d4c41cbe74697be (MD5) / Made available in DSpace on 2016-03-18T14:03:10Z (GMT). No. of bitstreams: 1 Luciana Monteiro Krebs_.pdf: 1391795 bytes, checksum: 587648c97bd0ea733d4c41cbe74697be (MD5) Previous issue date: 2016-01-25 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O trabalho tem por objetivo analisar a variação conceitual de termos do domínio jurídico, compreendendo como um procedimento que contribui para implementação de uma ontologia do domínio jurídico. Caracteriza-se como um estudo exploratório e interdisciplinar, baseado na Teoria Comunicativa da Terminologia (Cabré), trabalhando com o conceito de variação terminológica. Metodologicamente, utiliza-se a Lexicologia da Verticalidade (Wichter) que possibilita a análise da variação através de categorias conceituais. No estudo examinam-se os termos feminicídio, lenocínio e descaminho, três crimes previstos no Código Penal brasileiro. Para a análise, utilizou-se para cada termo três gêneros textuais com níveis de especialidade diferentes: a legislação, o artigo especializado e uma notícia de imprensa. No desenvolvimento do trabalho foram utilizadas categorias conceituais que emergiram dos textos analisados e balizaram o trabalho comparativo. Propuseram-se as seguintes categorias conceituais: Legislação, Classificação, Tipo, Sujeito do delito, Motivação, Características, Agravantes, Pena e Crimes relacionados. Algumas delas apresentaram facetas internas às quais chamou-se de subcategorias: Legislação (lei), Legislação (artigo do CPB), Legislação (nome popular), Sujeito do delito (ativo), Sujeito do delito (passivo), Motivação (individual), Motivação (coletiva), Pena (tempo), Pena (regime), Pena (com agravantes), Pena (se culposo) e Pena (anterior). A análise dividiu-se em duas partes, sendo a primeira organizada por termo e a segunda por gênero textual. Na primeira etapa (por termo) identificou-se que realização linguística privilegia o público alvo do gênero textual em questão. Também se destacaram diferentes níveis de profundidade conceitual na classificação dos crimes. Na segunda etapa (análise contrastiva entre os gêneros textuais), o texto menos especializado apresentou mais vazios conceituais e o mais especializado, menos. Também identificou-se três casos de esvaziamento conceitual, onde a densidade conceitual diminui do texto mais especializado para o menos especializado. Viu-se ainda que o artigo especializado apresentou mais repetidamente novos conteúdos conceituais no texto. Por fim, apresentou-se os componentes estruturais prototípicos de cada gênero textual para a variação conceitual dos crimes. As descobertas contribuem na implementação de uma ontologia do domínio jurídico em diversos aspectos: percebeu-se que através da análise de diferentes gêneros textuais é possível identificar a relação de causa e efeito de um crime, suas características, definir o que um crime não é, que diferentes leis influenciam a penalidade, que a classificação de um crime influencia diretamente o tempo de pena e a forma como ela será cumprida, e assim por diante. Em síntese, os textos permitiram recuperar atributos do conceito que podem ser aplicados tanto na criação da entidade quanto no posicionamento adequado da entidade em uma estrutura conceitual, atribuindo-lhe propriedades e estabelecendo diferentes tipos de relações. Concluímos que os termos apresentam diferentes densidades conceituais, variando conforme a situação discursiva imbricada no gênero textual e nível de especialidade do público a quem o texto se dirige. / This paper aims to analyze the conceptual variation of legal domain terms, seen here as a procedure that contributes to the implementation of a legal domain ontology. This procedure is an exploratory and interdisciplinary study based on the Communicative Theory of Terminology (Cabré), dealing with the concept of terminological variation. As a methodology, the Lexicology of Verticality (Wichter) is used to allow for the variation analysis through conceptual categories. Femicide, procuring, and embezzlement were the terms examined in the study, three crimes set forth in the Penal Code of Brazil. For this analysis, we used three text genres for each term with different levels of specialty: one legislation, one specialized article, and one press report. As the work unfolded, conceptual categories that emerged from the analyzed texts and that marked off the comparative work were used. The following conceptual categories were proposed: Legislation, Classification, Type, Subject of Crime, Motivation, Characteristics, Aggravating Circumstances, Penalty, and related Crimes. Some of them presented internal features, which were called subcategories: Legislation (law), Legislation (article of the Penal Code of Brazil), Legislation (popular name), Subject of Crime (active), Subject of Crime (passive), Motivation (individual), Motivation (collective), Penalty (time), Penalty (regime), Penalty (with aggravating circumstances), Penalty (if wrongful act) and Penalty (previous). The analysis was divided into two parts, being the first organized per term and the second per text genre. In the first stage (per term) we identified which linguistic realization favors the target-audience of the text genre at hand. We also highlighted different levels of conceptual depth in the classification of crimes. In the second stage (contrastive analysis among the text genres), the least specialized text presented more conceptual voids, and the most specialized one presented less conceptual voids. Three cases of conceptual emptying were also identified, where the conceptual density decreases from the most specialized to the least specialized texts. We further observed that the specialized article more repeatedly presented new conceptual contents in the text. Finally, we presented the structural components that are prototypical of each text genre for the conceptual variation of crimes. These findings contribute to the implementation of a legal domain ontology in several aspects: we realized that through the analysis of different text genres it is possible to identify the cause and effect relation of crime, its characteristics. It is also possible to define what crime is not, which different laws influence penalty, that crime classification directly influences the length of penalty and how it is to be served, and so forth. In sum, these texts allowed us to recover concept attributes that can be applied both to entity creation and to the entity proper positioning in a conceptual structure, assigning them with properties and setting different types of relations. We reached the conclusion that the terms present different conceptual densities, varying according to the discursive situation engendered in the text genre and to the level of specialty held by the audience the text is aimed at.
553

Semântica em um ambiente de desenvolvimento de software / Semantics in a software engineering environment

Ruy, Fabiano Borges 21 June 2006 (has links)
Made available in DSpace on 2016-12-23T14:33:34Z (GMT). No. of bitstreams: 1 dissertacao.pdf: 880937 bytes, checksum: 96f44c4a791390b6bc13a7054acf5636 (MD5) Previous issue date: 2006-06-21 / O desenvolvimento de software é uma tarefa de natureza complexa. Produzir software satisfazendo as restrições de prazo, custo e qualidade tem sido um dos maiores desafios da Engenharia de Software. Ambientes de Desenvolvimento de Software (ADSs) buscam fornecer um conjunto de ferramentas, métodos e técnicas para apoiar o engenheiro de software nessa tarefa. Nos últimos anos, para fornecer apoio mais efetivo, tornou-se imprescindível a introdução de gerência de conhecimento nesses ambientes. ADSs têm incorporado conhecimento de variados tipos como de engenharia de software, domínios de aplicação e organizacional. Durante a evolução desses ambientes, a necessidade de aplicação de semântica torna-se cada vez mais evidente, dadas características como a natureza complexa da Engenharia de Software, a premissa de integração dos ADSs e a grande quantidade de informações que armazenam. Nesse contexto, ontologias e máquinas de inferência são tecnologias-chave para possibilitar uma gerência mais adequada do conhecimento envolvido e fornecer apoio mais amplo aos usuários. Esta dissertação discute como ontologias estão sendo utilizadas no ambiente ODE (Ontology-based software Development Environment) com o objetivo de evoluí-lo para um ADS Semântico. Nesse intuito, foi desenvolvida uma Ontologia de Organizações de Software para que conhecimento organizacional seja incorporado ao ambiente. O trabalho também propõe uma infra-estrutura capaz de prover serviços semânticos baseados em conhecimento ontológico e que objetiva facilitar e disseminar o uso de semântica no ambiente ODE. / Software development is a complex task. One of the biggest challenges of Software Engineering is to produce software satisfying restrictions as time, cost, and quality. Software Engineering Environments (SEEs) try to provide a collection of tools, methods, and techniques to support the software engineer in this task. To offer a more effective support, in the last years, the introduction and management of knowledge in SEEs became indispensable. SEEs have been incorporating several types of knowledge, including software engineering, application domains, and organizational knowledge. During SEEs evolution, the need for the application of semantics becomes more and more evident, given characteristics such as the complex nature of Software Engineering, the integration premise of SEEs, and the great amount of information they store. In this context, ontologies and inference machines are key technologies to allow more adequate knowledge management and to provide a wider support to users. This work presents how ontologies have been used in ODE (Ontology-based software Development Environment), to make it a Semantic SEE (SSEE). For that, we developed a Software Organization Ontology to incorporate organizational knowledge to the environment. The work also proposes an infrastructure to provide semantic services based on ontological knowledge, aiming to facilitate and disseminate the use of semantics in ODE environment.
554

Definição de processos em um ambiente de desenvolvimento de software

Bertollo, Gleidson 13 June 2006 (has links)
Made available in DSpace on 2016-12-23T14:33:35Z (GMT). No. of bitstreams: 1 dissertacao.pdf: 1320402 bytes, checksum: 58c774125f5271f226c1ba4e28ce1358 (MD5) Previous issue date: 2006-06-13 / Atualmente, é amplamente reconhecido que a qualidade dos produtos de software depende da qualidade dos processos de software utilizados em seu desenvolvimento e manutenção. Com isso, muito trabalho tem sido feito no sentido de apoiar organizações em seus esforços pela busca da qualidade de processo. Pesquisas na área de processos de software têm explorado duas principais vertentes: (i) abordagens para modelagem, análise e melhoria do processo de software e (ii) tecnologia de apoio ao processo de software. A primeira vertente focaliza abordagens para estruturação, organização, documentação e descrição de processos de software e inclui normas de qualidade de processo de software. A segunda está voltada para o desenvolvimento de Ambientes de Desenvolvimento de Software (ADSs) Centrado em Processos, que integram ferramentas de apoio ao desenvolvimento de artefatos com ferramentas de apoio à modelagem e execução de processos de software, utilizados na construção desses artefatos. A representação explícita de processos, seus produtos e suas interações é a base sobre a qual modernos ambientes de desenvolvimento são construídos. Provendo formas mais poderosas de descrever e implementar processos de software, ADSs centrado em processos têm provido também um poderoso meio de integrar processos e ferramentas, e de automatizar, pelo menos parcialmente, tarefas. Esta dissertação apresenta uma infra-estrutura de processos de software que define uma ferramenta de definição de processos construída e integrada ao ambiente ODE (Ontologybased software Development Environment). Para apoiar essa integração, a infra-estrutura proposta foi construída tomando por base uma ontologia de processos de software. Essa ontologia foi evoluída no contexto deste trabalho, procurando capturar conceituações importantes definidas em normas e modelos de qualidade de processo recentes. / Nowadays, it is widely recognized that the quality of a software product depends on the quality of the software processes used in its development and maintenance. With this, much work has been done aiming to support organizations in their efforts towards process quality. The software process research area has explored two main directions: (i) approaches for modeling, analyzing and improving software processes, and (ii) support technology for software processes. The first goal focuses on approaches for structuring, organizing, documenting and describing software processes and includes process quality standards and maturity models. The second goal is concerned with the development of Process-Centered Software Engineering Environments (PSEEs) that integrate tool support for the development of artifacts with tool support for software process modeling and execution. The explicit representation of processes, its products and its interactions are the basis over which the modern development environments are built. Providing more powerful ways of describing and implementing software processes, PSEEs have also provided a powerful way to integrate processes and tools, and to automate, at least partially, tasks. This work presents a software process infrastructure that includes a tool for defining software processes. This tool was built and integrated to ODE (Ontology-based software Development Environment). To support this integration, the proposed infrastructure was built based on a software process ontology. This ontology was evolved in the context of this work, taking into account recent quality models and standards.
555

Uma arquitetura híbrida com aprendizagem para o desenvolvimento de agentes de software / A Hybrid Architecture with Learning for the Development of Software Agents

COSTA, Adriana Leite 14 August 2017 (has links)
Submitted by Rosivalda Pereira (mrs.pereira@ufma.br) on 2017-09-22T18:42:19Z No. of bitstreams: 1 AdrianaCosta.pdf: 3838428 bytes, checksum: 2c98d9d837cb8ba187aa038e80b2d304 (MD5) / Made available in DSpace on 2017-09-22T18:42:19Z (GMT). No. of bitstreams: 1 AdrianaCosta.pdf: 3838428 bytes, checksum: 2c98d9d837cb8ba187aa038e80b2d304 (MD5) Previous issue date: 2017-08-14 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Fundação de Amparo à Pesquisa e ao Desenvolvimento Científico e Tecnológico do Maranhão / Software agents represent an evolution of traditional software entities, having the ability to control their own behavior and acting with autonomy. Typically, software agents act reactively, where actions and perceptions are predefined at design time, or in a deliberative way, where the corresponding action for a given perception is found at run time through reasoning. Deliberative agents do not need all knowledge to be predefined; on the contrary, from an initial knowledge they can infer new knowledge. However, to find an action appropriate to a particular perception, they take a long time, generating a high computational cost. As a solution to this problem, a hybrid architecture with learning for the development of hybrid software agents is presented in this work. Hybrid agents combine reactive and deliberative behavior taking advantage of the speed of reactive behavior and the reasoning capability of the deliberative one are a better option for structuring software agents. The main advantages of the proposed architecture are learning of the reactive behavior, faster and more efficient, through the interactions of the agent with its environment and its consequent adaptability to the environment. The agent adapts to the environment as it learns new reactive behavior from frequent deliberative behavior. The proposed architecture was evaluated through the development of case studies in the information security domain using case-based reasoning, ontologies for the representation of domain knowledge and supervised learning for automatic generation of reactive rules. Results obtained with the case studies performed confirmed a greater effectiveness and a shorter response time of the hybrid agent with learning regarding both the reactive or deliberative agent as well as a hybrid agent without learning in the intrusion detection in computer networks domain. From the specification and evaluation of the hybrid architecture with supervised learning in the Information Security domain, a reference architecture for the development of hybrid agents with learning was generalized. In future works, we intend to evaluate this reference architecture in other domains, with other types of reasoning and learning techniques to evaluate its impact on the productivity and quality of the development of hybrid software agents. / Os agentes de software representam uma evolução do software tradicional, tendo a capacidade de controlar seu próprio comportamento e agir com autonomia. Tipicamente, os agentes de software agem de forma reativa, onde as percepções e ações são predefinidas no momento da sua concepção, ou de forma deliberativa, onde a ação correspondente para uma determinada percepção é encontrada em tempo de execução através de um processo de raciocínio. Os agentes deliberativos não necessitam que todo o conhecimento seja predefinido, ao contrário, a partir de um conhecimento inicial eles conseguem inferir novo conhecimento. Todavia, em muitos casos, para encontrar uma ação apropriada a uma determinada percepção eles levam muito tempo, gerando um alto custo computacional. Como solução a esse problema, apresentamos neste trabalho uma arquitetura híbrida com aprendizagem para o desenvolvimento de agentes de software híbridos. Os agentes híbridos, que combinam comportamento reativo e deliberativo, são uma opção melhor para estruturar os agentes de software. As principais vantagens da arquitetura tese é o aprendizado do comportamento reativo, mais rápido e eficiente, através de interações do agente com o seu ambiente e a sua consequente adaptabilidade ao ambiente. O agente se adapta ao ambiente na medida em que aprende novo comportamento reativo a partir de comportamento deliberativo frequente. A arquitetura tese foi avaliada através do desenvolvimento de estudos de casos no domínio da segurança da informação utilizando o raciocínio baseado em casos, ontologias para a representação do conhecimento do domínio de estudo e aprendizagem supervisionada para geração automática de regras reativas. Os resultados obtidos com os estudos de casos realizados confirmaram uma efetividade maior e um menor tempo de resposta do agente híbrido com aprendizagem em relação tanto ao comportamento isolado de um agente reativo ou deliberativo bem como de um agente híbrido sem aprendizagem no domínio da detecção de intrusões em redes de computadores. A partir da especificação e avaliação da arquitetura híbrida com aprendizagem supervisionada no domínio da Segurança da Informação, foi generalizada uma arquitetura de referência para o desenvolvimento de agentes híbridos com aprendizagem. Em trabalhos futuros, pretende-se avaliar esta arquitetura de referência em outros domínios, com outros tipos de raciocínio e técnicas de aprendizagem para avaliar o seu impacto na produtividade e qualidade do desenvolvimento de agentes de software híbridos.
556

Site com conteúdo apropriado à web semântica e mecanismos de busca / Site with appropriated content to semantic web and search engines

Leme, Luciano Gonzaga 27 April 2009 (has links)
Made available in DSpace on 2016-04-29T14:23:48Z (GMT). No. of bitstreams: 1 Luciano Gonzaga Leme.pdf: 2147873 bytes, checksum: 2282265d0f8e50945a1107e7cd36096b (MD5) Previous issue date: 2009-04-27 / This work introduces an approach which main purpose is to ask and present possible ways so that the web site s content will be appropriately offered related to Semantic Web and Search Engines. To achieve this purpose many researches were made and used the author s experience in this area. Therefore many concepts and technologies were combined and used, such as: metadata, ontologies, semantic web services and search engine optimization. Metadata allow qualifying informations appropriately, ontologies are used to improve domain s analysis problem and to obtain software components with semantic descriptions, which may be reused in a great variety of applications. Semantic web services may be used as software components spread through the Internet to perform applications complex tasks. Starting asking what should be published in a web site, or even better, how should be a web site s content the work exposes knowledges and technologies to answer the question: how to offer appropriated content? After exposing the associated concepts and showing possible solutions a conclusion is achieved with questions and possible researches which will allow appropriated content sites development with Semantic Web and its possible positive collateral effects, granting improvement in both: knowledge utilization and available informations in the web / Esta dissertação apresenta uma abordagem que tem como objetivo principal questionar e apresentar possíveis caminhos para que o conteúdo de um web site seja apropriadamente oferecido em termos de Web Semântica e Mecanismos de Busca. Para alcançar esse objetivo foram efetuadas pesquisas e utilizada a experiência do autor. Desse modo foram combinados os conceitos e as tecnologias envolvidas em relação a metadados, ontologias, serviços web semânticos e otimização de mecanismos de busca. Os metadados permitem qualificar informações apropriadamente, as ontologias são empregadas para aprimorar a análise do domínio do problema e para obter componentes de software com descrições semânticas, os quais podem ser reutilizados numa grande variedade de aplicações. Os serviços web semânticos são utilizados como componentes de software distribuídos pela Internet e podem realizar tarefas complexas de aplicações. Partindo do questionamento do que publicar em um web site, ou melhor, como deve ser o conteúdo de um web site - foram expostos conhecimentos e tecnologias que delineiam a questão: como oferecer conteúdo apropriado? Após a exposição dos conceitos associados e da apresentação de possíveis soluções concluímos com questionamentos e indicativos de possíveis pesquisas que muito contribuirão ao desenvolvimento de sites com conteúdo apropriado com a Web Semântica e seus possíveis efeitos colaterais positivos, propiciando a melhor utilização do conhecimento e das informações disponibilizadas na web
557

Representa??o de informa??o e conhecimento: estudo das diferentes abordagens entre a ci?ncia da informa??o e a ci?ncia da computa??o / Information and knowledge representation: an analysis of different approaches of information science and computer science

Furgeri, S?rgio 18 October 2006 (has links)
Made available in DSpace on 2016-04-04T18:36:24Z (GMT). No. of bitstreams: 1 Sergio Furgeri.pdf: 942403 bytes, checksum: a07b12b6b1cb4ccb6059ade6feece09f (MD5) Previous issue date: 2006-10-18 / The Information Science studies new. forms of information and knowledge representation for improving efficiency of information retrieval. The dissertation focus on information and knowledge representation, investigate the match and differential points between documentary languages, available in Information Science and markup languages, developed and used in Computer Science, with the objective of identify actions, theories and necessary processes for a bigger integration between the two areas. For this, it is established a revision of the necessary basic elements to the representation of the information and knowledge in the scope of the Information Science. To become possible the comparison between areas, consecrated knowledge and information representation models available in Information Science are presented, such as metadates, thesaurus and ontologies. In the scope of the Internet, the techniques of representation with the use of markup languages more used are presented and its contributions for the development of the Web Semantics. It is locked in presenting a proposal of structure of representation for information resources, especially developed for the Internet. The proposal was developed from the existing resources in the Computer Science, particularly, its available in language XML. It contemplates the definition of a ontology and culminates with the creation of a structure in XML to store metadates of electronic articles. / A Ci?ncia da Informa??o vem estudando formas de representa??o da informa??o e do conhecimento visando a recupera??o da informa??o. Esta pesquisa tem seu foco na representa??o do conhecimento e da informa??o, procurando investigar quais s?o os pontos convergentes e divergentes entre as linguagens document?rias da Ci?ncia da Informa??o e as linguagens de marca??o desenvolvidas e utilizadas na Ci?ncia da Computa??o, tendo em vista identificar as a??es, teorias e processos necess?rios para uma maior integra??o entre as duas ?reas. Para isso, faz-se uma revis?o dos elementos fundamentais necess?rios a represental??o da informa??o e do conhecimento no ?mbito da Ci?ncia da Informa??o. Para tornar poss?vel a compara??o entre ?reas, apresentam-se os modelos mais consagrados de representa??o do conhecimento e da informa??o provenientes da Ci?ncia da Informa??o, tais como metadados, tesauros e ontologias. No ?mbito da Internet, apresentam-se as t?cnicas de representa??o com o uso das linguagens de marca??o mais utilizadas e suas contribui??es para o desenvolvimento da Web Sem?ntica. Encerra-se apresentando uma proposta de estrutura de representa??o para recursos informacionais, especialmente os disponibilizados pela Internet. A proposta foi desenvolvida a partir dos recursos existentes na Ci?ncia da Computa??o, particularmente, os oferecidos pela linguagem XML. Contempla a defini??o de uma ontologia e culmina com a cria??o de uma estrutura em XML para armazenar metadados de artigos eletr?nicos.
558

[en] SEMANTIC INFERENCES IN INFORMATION RETRIEVAL FOR HYPERMEDIA APPLICATIONS / [pt] INFERÊNCIAS SEMÂNTICAS NA RECUPERAÇÃO DE INFORMAÇÕES PARA APLICAÇÕES HIPERMÍDIA

CRISTIANO BRAZ ROCHA 27 October 2003 (has links)
[pt] O problema de sobrecarga de informação é um dos mais sérios enfrentados atualmente. Para tentar resolver esse problema, áreas distintas como Gestão do Conhecimento, Web Semântica e Modelagem de Aplicações Hipermídia têm utilizado soluções parecidas que consistem basicamente na estruturação semântica da informação, para que ela seja mais facilmente acessada. Esta dissertação propõe uma infra-estrutura baseada em técnicas e algoritmos clássicos da área de Inteligência Artificial, que aproveita a crescente disponibilidade de modelos relativos a um domínio para permitir que as aplicações onde os mesmos estão definidos realizem inferências sobre o domínio em questão. Isso possibilita a introdução de diversas novas funcionalidades nessas aplicações. Foram propostas e desenvolvidas quatro novas funcionalidades, a principal sendo a busca semântica. As novas funcionalidades foram testadas com grande sucesso em duas aplicações: o site do Departamento de Informática da PUC-Rio e o Portal do Conhecimento a respeito da obra do grande pintor brasileiro Candido Portinari. / [en] The information overload problem is one of the most challenging problems being faced today. In order to solve this problem, different areas such as Knowledge Management, Semantic Web and Hypermedia Applications Modeling have used similar solutions that consist basically of semantically structuring the information so it can be better accessed. This dissertation proposes an infrastructure based on classic algorithms and techniques of Artificial Intelligence that utilizes the increase in the availability of domain specific models to enable the applications where they are defined to make inferences about these particular domains. These inferences enable the creation of new functionalities in these applications. Four new functionalities were proposed and implemented, the most important being a semantic search. The new functionalities presented were successfully tested in two existing applications: the website of the Computer Science Department of PUC-Rio and the Portinari Knowledge Portal that presents all the work of the famous brazilian painter Candido Portinari.
559

Partage de données biomédicales : modèles, sémantique et qualité

Choquet, Rémy 16 December 2011 (has links) (PDF)
Le volume de données disponibles dans les systèmes d'information est de plus en plus important et pour autant, nous n'avons jamais autant essayer d'interconnecter cette information pour en extraire de la connaissance sans véritable succès généralisable. L'origine du problème est multiple. Tout d'abord, l'information est représentée dans des structures différentes. Ensuite, les vocabulaires utilisés pour exprimer les données sont hétérogènes. Enfin, la qualité de l'information est souvent trop mauvaise pour utiliser une information et en déduire des connaissances. Ce diagnostic est d'autant plus vrai dans le cadre du partage d'information dans le domaine biomédical où il reste difficile de s'entendre sur des représentations (structures et vocabulaires) pivots d'un domaine de la médecine, et donc où il apparaît difficile de résoudre le problème du partage d'information par l'imposition de standard de codage et de structuration de l'information. Plus récemment, l'introduction de la sémantique dans des processus de partage d'information, nous offre la possibilité de mettre en oeuvre des représentations pivots indépendantes de la structuration ou du nommage d'une donnée. Cette thèse s'inscrit dans cette problématique de partage de données biomédicales dans le cadre de l'évaluation de l'évolution de la résistance des bactéries aux antibiotiques en Europe. L'hypothèse générale de travail que nous proposons est la suivante: comment partager de l'information biomédicale de manière non ambigüe, en temps réel, et à la demande en Europe. Cette hypothèse pose diverses problématiques que nous abordons dans ce mémoire. La problématique de la qualité des données. Celle de la représentation des données à travers leur structure, leur vocabulaire et de leur sémantique. Nous aborderons aussi les problèmes d'alignement de données aux ontologies de domaine et de la fédération de données aidée d'ontologie. Enfin, nous présenterons un système d'interopérabilité sémantique basé sur des règles qui aborde le problème d'alignement sémantique de systèmes hétérogènes appliqué à notre domaine. Nous discuterons finalement de l'apport de la sémantique pour le partage d'information et des limites des outils et méthodes actuels.
560

Polynomial-Time Reasoning Support for Design and Maintenance of Large-Scale Biomedical Ontologies

Suntisrivaraporn, Boontawee 05 February 2009 (has links) (PDF)
Description Logics (DLs) belong to a successful family of knowledge representation formalisms with two key assets: formally well-defined semantics which allows to represent knowledge in an unambiguous way and automated reasoning which allows to infer implicit knowledge from the one given explicitly. This thesis investigates various reasoning techniques for tractable DLs in the EL family which have been implemented in the CEL system. It suggests that the use of the lightweight DLs, in which reasoning is tractable, is beneficial for ontology design and maintenance both in terms of expressivity and scalability. The claim is supported by a case study on the renown medical ontology SNOMED CT and extensive empirical evaluation on several large-scale biomedical ontologies.

Page generated in 0.0694 seconds