• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 376
  • 36
  • 23
  • 22
  • 22
  • 22
  • 22
  • 5
  • 1
  • Tagged with
  • 427
  • 167
  • 148
  • 119
  • 102
  • 95
  • 93
  • 87
  • 83
  • 80
  • 73
  • 73
  • 69
  • 68
  • 64
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Conem

Vieira Filho, Sérgio Izack 25 October 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-graduação em Ciência da Computação, Florianópolis, 2011 / Made available in DSpace on 2012-10-25T16:36:20Z (GMT). No. of bitstreams: 1 297999.pdf: 9208793 bytes, checksum: d8d5b0071dd3f68c541c93b5e9ce9ec1 (MD5) / Um Data Warehouse Espaço-Temporal (DWET) manipula concomitantemente dados convencionais, espaciais e temporais. Uma necessidade ainda não atendida pela tecnologia de DWET é o suporte à análise de informação de redes complexas de elementos espaciais. Neste sentido, este trabalho propõe um modelo para a análise de redes complexas em DWET. Inspirado em ideias da Geografia, este modelo tem por objetivo representar a estrutura da rede e os estados dos elementos que a compõem, para suportar a análise da evolução do estado de diferentes porções da rede ao longo do tempo. O modelo proposto utiliza ontologias para descrever hierarquias de tipos de elementos da rede, baseadas em conceitualizações específicas do domínio de aplicação, além de ontologias sobre partições do espaço e do tempo. Dimensões de datamarts podem ser geradas a partir de visões dessas ontologias, para contemplar necessidades de análise específicas. O modelo proposto estende um modelo dimensional espaço-temporal para suportar OLAP espacial (SOLAP) com os elementos da rede, usando dimensões de análise definidas de acordo com hierarquias contidas nas ontologias. Ele também define um operador denominado Trace para permitir a análise da evolução do estado dos componentes de porções da rede, selecionadas de acordo com as dimensões de análise definidas para o datamart. O modelo proposto foi implementado em um protótipo. A interface gráfica, baseada em tabelas e mapas, está integrada ao módulo SOLAP. Ao navegar pelos mapas e tabelas apresentando resultados de operações SOLAP, outras operações SOLAP podem ser invocadas e os resultados apresentados em novos gráficos e tabelas. Um slider permite a análise da evolução temporal do estado de porções da rede. Por fim, a modelo é avaliado em um estudo de caso do setor elétrico, o qual possibilita a investigação de padrões e tendências espaço-temporais em diferentes porções de uma rede de distribuição de energia elétrica.
62

Modelo Computacional de Recuperação da Informação para Repositórios Digitais Utilizando Ontologias /

Coneglian, Caio Saraiva. January 2017 (has links)
Orientador: José Eduardo Santarem Segundo / Banca: Silvana Aparecida Borsetti Gregório Vidotti / Banca: Elvis Fusco / Resumo: A evolução das Tecnologias da Informação e Comunicação causaram um aumento exponencial na produção e disseminação de dados na Internet. Dentre estas informações, inclui-se a produção científica que vive hoje um momento de transição, em que os documentos deixaram de ser apenas publicados em livros e revistas impressas e passaram a se espalhar pela rede. A partir disto, surgiu uma nova tecnologia chamada de repositórios digitais, em que são armazenados documentos em diversos formatos. Junto com o surgimento dos repositórios digitais, cresceu o desafio da recuperação destes documentos de maneira eficiente, ou seja, como a máquina poderá compreender o que o usuário procura, para fornecer os documentos que este usuário necessita. Neste âmbito, a Web Semântica surgiu visando possibilitar com que os computadores consigam compreender o contexto em que as informações criadas pelos usuários se encontram, tendo em suas ferramentas a base para tornar tal propósito real. No contexto dos repositórios digitais, esta pesquisa tem como objetivo aprimorar o processo de recuperação de informação nesses ambientes informacionais por meio da utilização do conceito de representações semânticas no uso de ontologias de domínio, que permita uma maior aderência na intersecção entre os itens bibliográficos e as necessidades informacionais dos usuários. Para atingir tais objetivos, utilizou-se uma metodologia de natureza quantitativa, em que se criou um modelo utilizando conceitos e tecn... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The evolution of Information and Communication Technologies has caused an exponential increase in the production and dissemination of data on the Internet. Among these data, we include the scientific production that is now in a moment of transition, in which the documents are no longer only published in printed books and magazines, and are now spread throughout the network. From this, a new technology has emerged called digital repositories, in which documents are stored in various formats. Along with the emergence of digital repositories, the challenge of recovering these documents has grown in an efficient way, i.e., how the machine can understand what the user is looking for, to provide the documents that this user needs. In this context, the Semantic Web came about in order to enable computers to understand the context in which the information created by the users meet, having in their tools the basis to make such a real purpose. In the context of Digital Repositories, this research aims to improve the Information Retrieval process in these informational environments through the use of the concept of semantic representations in the use of domain ontologies, which allows greater adherence at the intersection between bibliographic items and Information needs of users. In order to achieve these objectives, a quantitative methodology was used, in which a digital repositories interoperability model was created, using Semantic Web concepts and technologies to contextualize the search domain performed by the user. As results, it was verified that the relationships of the ontologies can be extracted efficiently by means of a SPARQL query engine, that is able to locate a term in the ontology, as well as to extract the relations of this term. In addition, we have outlined the actions that OWL properties must possess, in the context of Information Retrieval, so that the relationships that a search term has ... / Mestre
63

Unificação semântica de esquemas conceituais de banco de dados geográficos

Hess, Guillermo Nudelman January 2004 (has links)
A modelagem conceitual de banco de dados geográficos (BDG) é um aspecto fundamental para o reuso, uma vez que a realidade geográfica é bastante complexa e, mais que isso, parte dela é utilizada recorrentemente na maioria dos projetos de BDG. A modelagem conceitual garante a independência da implementação do banco de dados e melhora a documentação do projeto, evitando que esta seja apenas um conjunto de documentos escritos no jargão da aplicação. Um modelo conceitual bem definido oferece uma representação canônica da realidade geográfica, possibilitando o reuso de subesquemas. Para a obtenção dos sub-esquemas a serem reutilizados, o processo de Descoberta de Conhecimento em Bancos de Dados (DCBD – KDD) pode ser aplicado. O resultado final do DCBD produz os chamados padrões de análise. No escopo deste trabalho os padrões de análise constituem os sub-esquemas reutilizáveis da modelagem conceitual de um banco de dados. O processo de DCBD possui várias etapas, desde a seleção e preparação de dados até a mineração e pós-processamento (análise dos resultados). Na preparação dos dados, um dos principais problemas a serem enfrentados é a possível heterogeneidade de dados. Neste trabalho, visto que os dados de entrada são os esquemas conceituais de BDG, e devido à inexistência de um padrão de modelagem de BDG largamente aceito, as heterogeneidades tendem a aumentar. A preparação dos dados deve integrar diferentes esquemas conceituais, baseados em diferentes modelos de dados e projetados por diferentes grupos, trabalhando autonomamente como uma comunidade distribuída. Para solucionar os conflitos entre esquemas conceituais foi desenvolvida uma metodologia, suportada por uma arquitetura de software, a qual divide a fase de préprocessamento em duas etapas, uma sintática e uma semântica. A fase sintática visa converter os esquemas em um formato canônico, a Geographic Markup Language (GML). Um número razoável de modelos de dados deve ser considerado, em conseqüência da inexistência de um modelo de dados largamente aceito como padrão para o projeto de BDG. Para cada um dos diferentes modelos de dados um conjunto de regras foi desenvolvido e um wrapper implementado. Para suportar a etapa semântica da integração uma ontologia é utilizada para integrar semanticamente os esquemas conceituais dos diferentes projetos. O algoritmo para consulta e atualização da base de conhecimento consiste em métodos matemáticos de medida de similaridade entre os conceitos. Uma vez os padrões de análise tendo sido identificados eles são armazenados em uma base de conhecimento que deve ser de fácil consulta e atualização. Novamente a ontologia pode ser utilizada como a base de conhecimento, armazenando os padrões de análise e possibilitando que projetistas a consultem durante a modelagem de suas aplicações. Os resultados da consulta ajudam a comparar o esquema conceitual em construção com soluções passadas, aceitas como corretas.
64

Integrating BDI model and Bayesian networks / Integrando modelo BDI e redes Bayesianas

Fagundes, Moser Silva January 2007 (has links)
Individualmente, as linhas de pesquisa da Inteligência Artificial têm proposto abordagens para a resolução de inúmeros problemas complexos do mundo real. O paradigma orientado a agentes provê os agentes autônomos, capazes de perceber os seus ambientes, reagir de acordo com diferentes circunstâncias e estabelecer interações sociais com outros agentes de software ou humanos. As redes Bayesianas fornecem uma maneira de representar graficamente as distribuições de probabilidades condicionais e permitem a realização de raciocínios probabilísticos baseados em evidências. As ontologias são especificações explícitas e formais de conceituações, que são usadas em uma variedade de áreas de pesquisa, incluindo os Sistemas Multiagentes. Contudo, existem aplicações cujos requisitos não podem ser atendidos por uma única tecnologia. Circunstâncias como estas exigem a integração de tecnologias desenvolvidas por distintas áreas da Ciência da Computação. Esta dissertação trata a integração do modelo de agentes BDI (Belief-Desire-Intention) e das redes Bayesianas. Além disso, é adotada uma abordagem baseada em ontologias para representar o conhecimento incerto dos agentes. O primeiro passo em direção a integração foi o desenvolvimento de uma ontologia para representar a estrutura das redes Bayesinas. Esta ontologia tem como principal objetivo permitir a interoperabilidade agentes compatíveis com a arquitetura proposta. No entanto, a ontologia também facilita o entendimento necessário para abstrair os estados mentais e processos cognitivos dos agentes através de elementos das redes Bayesianas. Uma vez construída a ontologia, a mesma foi integrada com a arquitetura BDI. Através da integração do modelo BDI com as redes Bayesianas foi obtida uma arquitetura cognitiva de agentes capaz de deliberar sob incerteza. O processo de integração foi composto de duas etapas: abstração dos estados mentais através de elementos das redes Bayesianas e especificação do processo deliberativo. Finalmente, foi desenvolvido um estudo de caso, que consistiu na aplicação da arquitetura proposta no Agente Social, um componente de um portal educacional multiagente (PortEdu). / Individually, Artificial Intelligence research areas have proposed approaches to solve several complex real-world problems. The agent-based paradigm provided autonomous agents, capable of perceiving their environment, reacting in accordance with different situations, and establishing social interactions with other software agents and humans. Bayesian networks provided a way to represent graphically the conditional probability distributions and an evidence-based probabilistic reasoning. Ontologies are an effort to develop formal and explicit specifications of concepts, which have been used by a wide range of research areas, including Multiagent Systems. However, there are applications whose requirements can not be addressed by a single technology. Circumstances like these demand the integration of technologies developed by distinct areas of Computer Science. This work is particularly concerned with the integration of Belief-Desire-Intention (BDI) agent architecture and Bayesian networks. Moreover, it is adopted an ontology-based approach to represent the agent’s uncertain knowledge. To bring together those technologies, it was developed an ontology to represent the structure of Bayesian networks knowledge representation. This ontology supports the interoperability among agents that comply with the proposed architecture, and it also facilitates the understanding necessary to abstract the agents’ mental states and cognitive processes through elements of Bayesian networks. Once specified the ontology, it was integrated with the BDI agent architecture. By integrating BDI architecture and Bayesian networks, it was obtained a cognitive agent architecture capable of reasoning under uncertainty. It was performed in two stages: abstraction of mental states through Bayesian networks and specification of the deliberative process. Finally, it was developed a case study, which consists in applying the probabilistic BDI architecture in the Social Agent, a component of a multiagent educational portal (PortEdu).
65

Usando bases de dados relacionais para geração semi-automática de ontologias destinadas à extração de dados

Vivan, Orlando Miguel January 2003 (has links)
Extração de dados é o processo utilizado para obter e estruturar informações disponibilizaadas em documentos semi-estruturados (ex.: páginas da Web). A importâmncia da extrtação de dados vem do fato que, uma vez extraídos, os dados podem ser armazenados e manipulados em uma forma estruturada. Dentre as abordagens existentes para extração de dados, existe a abordagem de extração baseada em ontologias. Nesta abordagem, ontologias são preciamente criadas para descrever um domínio de interesse, gerando um modelo conceitual enriquecido com informações necessárias para extração de dados das fontes semi-estruturadas. A ontologia é utilizada como guia ara um programa (¨parser¨) que executa a extração de dados dos documentos ou páginas fornecidos como enetrada. Oprocesso de criação da ontologia não é uma tarefa trtivial e requer um cuidado trabalho ee análise dos documentos ou páginas fontes dos dados. Este trabalho é feito manualmente por usuários especialistas no domínio de interesse da ontologia. Entretanto, em algumas situações os dados que se desejam extrair estão modelados em bancos de dados relacionais. Neste caso, o modelo realcional do banco de dados por ser utilizado para constrtução do modelo conceitual na ontologia. As instâncias dos dados armazenados neste mesmo banco podem ajudar a gerar as informações sobre conteúdo e formato dos dados a serem extraídos. Estas informações sobre conteúdo e formato de dados, na ontologia, são representadas por expressões regulares e estão inseridas nos chamados "data frames". O objetivo deste trabalho é apresentar um método para criação semi-automática de ontologias de extração a partir das informações em um banco de dados já existente. O processo é baseado na engenharia reversa do modelo relacional para o modelo conceitual da ontologia combinada com a análise das instâncias dos dados para geração das expressões regulares nos "data frames".
66

Um processo auto-documentável de geração de ontologias de domínio para dados semi-estruturados

Santi, Sergio Medeiros January 2002 (has links)
Dados são disponibilizados através dos mais distintos meios e com os mais variados níveis de estruturação. Em um nível baixo de estruturação tem-se arquivos binários e no outro extremo tem-se bancos de dados com uma estrutura extremamente rígida. Entre estes dois extremos estão os dados semi-estruturados que possuem variados graus de estruturação com os quais não estão rigidamente comprometidos. Na categoria dos dados semiestruturados tem-se exemplos como o HTML, o XML e o SGML. O uso de informações contidas nas mais diversas fontes de dados que por sua vez possuem os mais diversos níveis de estruturação só será efetivo se esta informação puder ser manejada de uma forma integrada e através de algum tipo de esquema. O objetivo desta dissertação é fornecer um processo para construção de uma ontologia de domínio que haja como esquema representativo de diferentes conjuntos de informação. Estes conjuntos de informações podem variar de dados semi-estruturados a dados estruturados e devem referir-se a um mesmo domínio do conhecimento. Esta proposta permite que qualquer modelo que possa ser transformado no modelo comum de integração possa ser utilizado com entrada para o processo de integração. A ontologia de domínio resultante do processo de integração é um modelo semântico que representa o consenso obtido através da integração de diversas fontes de forma ascendente (bottom-up), binária, incremental, semi-automática e auto-documentável. Diz-se que o processo é ascendente porque integra o modelo que representa a fonte de interesse sobre a ontologia, é binário porque trabalha com dois esquemas a cada integração o que facilita o processo de documentação das integrações realizadas, é incremental porque cada novo esquema de interesse é integrado sobre a ontologia vigente naquele momento, é semiautomático porque considera a intervenção do usuário durante o processo e finalmente é autodocumentável porque durante o processo, toda integração de pares de conceitos semanticamente equivalentes é registrada. O fato de auto-documentar-se é a principal característica do processo proposto e seu principal diferencial com relação a outras propostas de integração. O processo de mapeamento utiliza, dos esquemas de entrada, toda a informação presente ou que possa ser inferida. Informações como se o conceito é léxico ou não, se é raiz e os símbolos que permitem deduzir cardinalidades são consideradas. No processo de integração são consideradas práticas consagradas de integração de esquemas de BDs, na identificação de relacionamentos entre objetos dos esquemas, para geração do esquema integrado e para resolução de conflitos. As principais contribuições desta dissertação são (i) a proposta de um metamodelo capaz de manter o resultado dos mapeamentos e das integrações realizadas e (ii) a especificação de um processo auto-documentável que de sustentação a auditoria do processo de integração.
67

Sobre estatística de dados bibliométricos em grupos de pesquisadores : universalidade e avaliação / About statistics on bibliometric data of researchers’ groups: universality and evaluation

Kalil, Fahad January 2012 (has links)
Agências de fomento à pesquisa, centros de pesquisas, universidades e a comunidade científica de uma forma geral buscam incessantemente pelo aperfeiçoamento e aumento da qualidade da produção científica de seus pesquisadores. Logo, faz-se necessário que sejam providas ferramentas e métodos eficazes para obtenção de avaliações coerentes. Vários métodos têm sido propostos ao longo dos anos e diferentes formas de avaliação vêm sendo empregadas em órgãos reguladores, como a agência brasileira de pós-graduação CAPES (Coordenação de Aperfeiçoamento de Pessoal de Nível Superior), todavia algumas questões ainda foram pouco exploradas. Com o advento do índice h (hindex) de Hirsch, que une fundamentalmente quantidade com qualidade, pois avalia um conjunto de artigos de acordo com sua distribuição de citações, uma série de estudos com as mais variadas estatísticas têm sido propostos. Contudo, não há na literatura atual, por exemplo, uma expressão analítica para distribuição de índices h de um grupo de pesquisadores, nem a verificação da existência de universalidade desta distribuição para diferentes grupos e bases de dados. Este trabalho aborda, num primeiro momento, um estudo sobre a distribuição de índice h e de citações em três áreas científicas distintas: física, biologia e ciência da computação, que possuem diferentes práticas de publicações e métodos de pesquisa. O trabalho ainda propõe uma nova métrica para construção de rankings baseado no índice h sucessivo de segunda ordem, por nós denominada s-index, o qual torna possível a comparação entre grupos de pesquisadores de tamanhos diferentes, assim proporcionando, por exemplo, uma comparação em termos de produtividade de grupos com grande quantidade de pesquisadores e grupos menores, mas que ainda assim reflita seus potenciais de produção. Por fim, é realizado estudo da correlação entre o s-index desenvolvido no trabalho e a classificação de cursos de mestrado e doutorado recomendados e reconhecidos realizada pela CAPES, usando dados de pesquisadores de programas de pós-graduação em física e biologia. As abordagens apresentadas podem ser usadas na classificação de grupos de pesquisadores, a partir de uma visão quantitativa, tentando eliminar, assim, métodos qualitativos de avaliação de difícil generalização e replicação. / Research financing agencies, research centers, universities and the scientific community are frequently seeking for improvement and enhancement on the quality of researchers’ work. Therefore, it is necessary to provide optimized tools and methods to get consistent evaluations. Several methods have been proposed over the years and different forms of evaluation are used by agencies such as Coordination for the Improvement of Higher Level Personnel (Capes), although some issues have been overlooked. With the invention of the h-index (Hirsch), that binds quantity with quality by measuring a set of papers according to their citation distribution, many studies have been considered with several different statistical methods. In the current literature, it is not found an analytical expression for h-index distribution over a researchers’ group, nor the proof of universality in this kind of distribution for different groups and databases. This master thesis discusses primarily a study about h-index distribution and citations in three distinct scientific fields: physics, biology and computer science, which has different publication and research practices. Also, it is proposed a novel metric for ranking based on successive h-index, named as s-index, which makes possible to compare researchers’ groups with different sizes, providing for example, a comparison in terms of productivity on higher and smaller groups of researchers, reflecting their skills on scientific production. A correlation study is conducted in order to compare the s-index, developed in this thesis, with the classification of post-graduation courses performed by Capes, using data from postgraduation researchers in physics and biology. The approaches presented can be used to classify researchers’ groups through a quantitative view, by eliminating some qualitative evaluations that are hardly generalizable and replicable.
68

Usando bases de dados relacionais para geração semi-automática de ontologias destinadas à extração de dados

Vivan, Orlando Miguel January 2003 (has links)
Extração de dados é o processo utilizado para obter e estruturar informações disponibilizaadas em documentos semi-estruturados (ex.: páginas da Web). A importâmncia da extrtação de dados vem do fato que, uma vez extraídos, os dados podem ser armazenados e manipulados em uma forma estruturada. Dentre as abordagens existentes para extração de dados, existe a abordagem de extração baseada em ontologias. Nesta abordagem, ontologias são preciamente criadas para descrever um domínio de interesse, gerando um modelo conceitual enriquecido com informações necessárias para extração de dados das fontes semi-estruturadas. A ontologia é utilizada como guia ara um programa (¨parser¨) que executa a extração de dados dos documentos ou páginas fornecidos como enetrada. Oprocesso de criação da ontologia não é uma tarefa trtivial e requer um cuidado trabalho ee análise dos documentos ou páginas fontes dos dados. Este trabalho é feito manualmente por usuários especialistas no domínio de interesse da ontologia. Entretanto, em algumas situações os dados que se desejam extrair estão modelados em bancos de dados relacionais. Neste caso, o modelo realcional do banco de dados por ser utilizado para constrtução do modelo conceitual na ontologia. As instâncias dos dados armazenados neste mesmo banco podem ajudar a gerar as informações sobre conteúdo e formato dos dados a serem extraídos. Estas informações sobre conteúdo e formato de dados, na ontologia, são representadas por expressões regulares e estão inseridas nos chamados "data frames". O objetivo deste trabalho é apresentar um método para criação semi-automática de ontologias de extração a partir das informações em um banco de dados já existente. O processo é baseado na engenharia reversa do modelo relacional para o modelo conceitual da ontologia combinada com a análise das instâncias dos dados para geração das expressões regulares nos "data frames".
69

Um modelo para avaliação dinâmica de risco utilizando ontologia

Marinho, Roberto January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2014. / Made available in DSpace on 2015-03-18T21:04:56Z (GMT). No. of bitstreams: 1 332301.pdf: 1429721 bytes, checksum: 9940245dc8074c7e69cc3b8f776ce720 (MD5) Previous issue date: 2014 / Em computação, o controle de acesso é motivado pela necessidade de divulgar o acesso à informação, recursos e serviços somente para entidades autorizadas. Dentre os modelos de controle de acesso atuais, o RAdAC destaca-se por possibilitar um controle dinâmico e situacional na avaliação do acesso, baseando-se no risco de acesso para aceitar ou negar requisições. Neste contexto, o presente trabalho tem como objetivo oferecer um modelo para avaliação dinâmica de risco a partir do modelo RAdAC, amparando-se no uso de ontologia para realização do cálculo de risco. Na proposta apresentada, a composição do risco total relacionado a uma requisição de acesso é composta pelos riscos de contexto, riscos considerando confidencialidade, integridade e disponibilidade das ações, e do risco considerando o histórico do sujeito.A partir do mapeamento das diversas variáveis envolvidas no cálculo de risco de contexto em sentenças de uma ontologia, o modelo busca inferir dinamicamente o risco de contexto no acesso a um determinado dado, baseando-se nos fatores de risco disponíveis e seus determinados pesos.<br> / Abstract : In computing, access control is motivated by the need to promote access to information, resources and services only to authorized entities. Among the existing access control models, RAdAC stands out by allowing a dynamic and situational control in the evaluation of access, relying on the risk assessment to accept or deny requests.This work aims to provide a model for dynamic risk assessment from the RAdAC model, supported by the use of ontologies to perform the calculation of risk. In the proposal presented here, the composition of the total risk associated to an access request comprises the context risk, the risk considering confidentiality, integrity and availability of the actions, and the risk considering the history of the subject.From the mapping of the different variables involved in the calculation of context risk in sentences of an ontology, the model seeks to dynamically infer the context risk during the access to a specific data, based on the available risk factors and their weights.
70

Cuida: um modelo de conhecimento de qualidade de contexto aplicado aos ambientes ubíquos internos em domicílios assistidos

Nazário, Débora Cabral January 2015 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia e Gestão do Conhecimento, Florianópolis, 2015. / Made available in DSpace on 2015-09-01T04:09:40Z (GMT). No. of bitstreams: 1 334065.pdf: 5516322 bytes, checksum: 226e444f65f62d79c537a93d5bfee498 (MD5) Previous issue date: 2015 / O aumento da utilização de dispositivos portáteis vem gerando uma demanda de informações do ambiente e do usuário, o contexto. Contexto pode ser definido como a relação entre o texto e a situação em que ele ocorre. Em informática, o contexto é formado pelas circunstâncias as quais se utiliza um determinado dispositivo. O uso do contexto pode prover serviços mais dinâmicos e personalizados, sendo um aspecto essencial à garantia da Qualidade de Contexto (QoC), para atender a satisfação dos usuários. A QoC descreve a qualidade da informação que é usada para caracterizar o contexto. Através do levantamento de literatura, foi observada a falta de uniformização de nomenclatura e definições de parâmetros de QoC, além de diferentes formas de quantificação dos parâmetros. Estas dificuldades são refletidas nos modelos de representação, o que prejudica o entendimento e compartilhamento de informações de contexto e QoC. Neste sentido, a Engenharia do Conhecimento pode auxiliar na representação de conhecimento deste domínio, com a utilização de ontologia. Sendo assim, o objetivo desta tese foi pesquisar e desenvolver um modelo de conhecimento de qualidade de contexto, aplicado a um ambiente denominado CUIDA - Contexto Ubíquo Interno em Domicílios Assistidos. A utilização de ontologias como modelo de conhecimento é incentivada, visto que as ontologias representam conhecimento para a comunicação entre os seres humanos, primam pela estruturação, pela organização e pela integração de conhecimento. Desta forma, esta pesquisa contribuiu com um Modelo de Conhecimento de QoC para apoiar pesquisadores e desenvolvedores de computação sensível ao contexto, facilitando o entendimento e acesso aos conceitos deste domínio, permitindo sua reutilização. Com base no modelo desenvolvido foi proposta uma abordagem de avaliação de QoC aplicada a um cenário Ambient Assisted Living (AAL), chamado nesta tese de CUIDA. O objetivo foi demonstrar o uso da avaliação de QoC proposta, avaliando alguns parâmetros. Esta demonstração ocorreu inicialmente com uma prova de conceito através de simulação e em seguida com a certificação dos resultados obtidos através de um estudo experimental que utilizou um cenário real com sensores e-Health. A prova de conceito e o estudo experimental utilizaram sensores biomédicos como pressão arterial, pulso, temperatura corporal, com ênfase no monitoramento da saúde do usuário. O estudo experimental confirmou os bons resultados obtidos na prova de conceito. Foi possível demonstrar que vários casos de qualidade de contexto insuficiente podem ser detectados, assim como as prováveis causas relacionadas, gerando alertas, inclusive para possíveis problemas de saúde. Estes alertas podem com sucesso proporcionar o atendimento de um profissional de saúde de maneira diferenciada, em um tempo reduzido, essencial em casos de emergência.

Page generated in 0.0587 seconds