Spelling suggestions: "subject:"descoberta"" "subject:"descobertas""
51 |
Flexibilizando graus de colaboração, segurança e privacidade na descoberta de serviços / Flexible collaboration, security and privacy in service discovery systemsMoschetta, Eduardo 28 February 2008 (has links)
Made available in DSpace on 2015-03-05T13:59:44Z (GMT). No. of bitstreams: 0
Previous issue date: 28 / Nenhuma / Este trabalho apresenta Flexibel Secure Service Discovery (FSSD), um protocolo para a descoberta de serviços em sistemas ubíquos. Seu projeto é centrado no compromisso entre os níveis de colaboração, segurança e privacidade que os participantes desejam na descoberta. A abordagem proposta oferece gerenciamento de confiança, além de mecanismos de controle de exposição e de acesso descentralizados. As propriedades do protocolo foram avaliadas através de simulações, variando-se os níveis de segurança e privacidade do sistema para demonstrar que a abordagem proposta lida adequadamente com o compromisso em relação à colaboração entre pares / This work presents Flexibel Secure Service Discovery (FSSD), a protocol for service discovery in ubiquitous systems. Its design is centered by the participants. The proposed approach provides trust management, in addition to descentralized mechanisms to control the exposure and access to the service information. The protocol properties were evaluated with simulation, by varying both security and privacy levels of the system in order to demonstrate that the proposed approach properly addresses the tradeoff regarding peer collaboration
|
52 |
Um arcabouço cognitivamente inspirado para representação de conhecimento e raciocínioCarbonera, Joel Luis January 2016 (has links)
Seres humanos são capazes de desenvolver complexas estruturas de conhecimento que podem ser utilizadas de modo flexível para lidar com o ambiente de maneira apropriada. Estas estruturas de conhecimento constituem um núcleo que suporta processos cognitivos, tais como a percepção, a categorização, o planejamento, etc. A Inteligência Artificial, enquanto área de investigação, ocupa-se de desenvolver meios que viabilizem a reprodução destas capacidades cognitivas em agentes artificiais. Por este motivo, a investigação de abordagens que permitam a representação de conhecimento de um modo flexível se revela altamente relevante. Com o objetivo de superar algumas das limitações típicas da teoria clássica, que é adotada por várias abordagens propostas na Inteligência Artificial, este trabalho propõe um arcabouço cognitivamente inspirado para representação de conhecimento e raciocínio que integra aspectos de três diferentes teorias cognitivas a respeito de como conceitos são representados na cognição humana: teoria clássica, teoria do protótipo e teoria do exemplar. O arcabouço resultante é capaz de suportar a composicionalidade, a tipicalidade, a representação de instâncias atípicas dos conceitos, e a representação da variabilidade de indivíduos classificados por cada conceito. Consequentemente, o arcabouço proposto também suporta raciocínio lógico e baseado em similaridade. As principais contribuições deste trabalho são a concepção teórica e a formalização de um arcabouço cognitivamente inspirado para representação de conhecimento e raciocínio. Uma outra contribuição deste trabalho é uma abordagem de raciocínio para classificação que utiliza a abordagem de representação de conhecimento proposta. Além disso, este trabalho também apresenta duas abordagens para seleção de exemplares representativos de cada conceito e uma abordagem para extração de protótipos de conceitos. Nesta tese também é apresentado um sistema para interpretação automática de processos deposicionais que adota o arcabouço proposto. Experimentos realizados em uma tarefa de classificação sugerem que o arcabouço proposto é capaz de oferecer classificações mais informativas que as oferecidas por uma abordagem puramente clássica. / Human beings can develop complex knowledge structures that can be used for dealing with the environment in suitable ways. These knowledge structures constitute a core that supports several cognitive processes, such as perception, categorization, planning, etc. The Artificial Intelligence, as a research field, aims at developing approaches for mimicking these cognitive capabilities in machines. Due to this, it is important to investigate approaches that allow representing the knowledge in flexible ways. In order to overcome some limitations of the classical theory of knowledge representation, which is adopted by several approaches proposed in the Artificial Intelligence field, this work proposes a cognitively-inspired framework for knowledge representation and reasoning which integrates aspects from three different cognitive theories about concept representation in the human cognition: classical theory, prototype theory and exemplar theory. The resulting framework can support compositionality, typicality, representation of atypical instances of concepts, and representation of the variability of the individuals classified by each concept. Consequently, the proposed framework also supports logical reasoning and similarity-based reasoning. The main contributions of this work are the formalization of a cognitively-inspired framework for knowledge representation and reasoning, two approaches for selecting representative exemplars of each concept and an approach of reasoning for classification that integrates logical reasoning and similarity-based reasoning and that is supported by definitions, prototypes and exemplars of concepts. This thesis also presents a system for automatic interpretation of depositional processes application that adopts the proposed framework. The experiments, which were performed on a classification task, suggest that the proposed framework provides classifications that are more informative than the ones provided by a classical approach.
|
53 |
Um estudo sobre agrupamento de documentos textuais em processamento de informações não estruturadas usando técnicas de "clustering" / A study about arrangement of textual documents applied to unstructured information processing using clustering techniquesWives, Leandro Krug January 1999 (has links)
Atualmente, técnicas de recuperação e análise de informações, principalmente textuais, são de extrema importância. Após o grande BOOM da Internet, muitos problemas que já eram conhecidos em contextos fechados passaram a preocupar também toda a comunidade científica. No âmbito deste trabalho os problemas relacionados à sobrecarga de informações, que ocorre devido ao grande volume de dados a disposição de uma pessoa, são os mais importantes. Visando minimizar estes problemas, este trabalho apresenta um estudo sobre métodos de agrupamento de objetos textuais (documentos no formato ASCII), onde os objetos são organizados automaticamente em grupos de objetos similares, facilitando sua localização, manipulação e análise. Decorrente deste estudo, apresenta-se uma metodologia de aplicação do agrupamento descrevendo-se suas diversas etapas. Estas etapas foram desenvolvidas de maneira que após uma ter sido realizada ela não precisa ser refeita, permitindo que a etapa seguinte seja aplicada diversas vezes sobre os mesmos dados (com diferentes parâmetros) de forma independente. Além da metodologia, realiza-se um estudo comparativo entre alguns algoritmos de agrupamento, inclusive apresentando-se um novo algoritmo mais eficiente. Este fato é comprovado em experimentos realizados nos diversos estudos de caso propostos. Outras contribuições deste trabalho incluem a implementação de uma ferramenta de agrupamento de textos que utiliza a metodologia elaborada e os algoritmos estudados; além da utilização de uma fórmula não convencional de cálculo de similaridades entre objetos (de abordagem fuzzy), aplicada a informações textuais, obtendo resultados satisfatórios. / The Internet is the vital media of today and, as being a mass media, problems known before to specific fields of Science arise. One of these problems, capable of annoying many people, is the information overload problem caused by the excessive amount of information returned in response to the user’s query. Due to the information overload problem, advanced techniques for information retrieval and analysis are needed. This study presents some aids in these fields, presenting a methodology to help users to apply the clustering process in textual data. The technique investigated is capable of grouping documents of several subjects in clusters of documents of the same subject. The groups identified can be used to simplify the process of information analysis and retrieval. This study also presents a tool that was created using the methodology and the algorithms analyzed. The tool was implemented to facilitate the process of investigation and demonstration of the study. The results of the application of a fuzzy formula, used to calculate the similarity among documents, are also presented.
|
54 |
AAE-DeMo: uma proposta de arquitetura baseada em algoritmos evolutivos para descoberta de Motifs em moléculas biológicas / AAE-DeMo: An Architecture Proposal Based on Evolutionary Algorithms for the Discovery of Motifs in Biological MoleculesSchmidt, Augusto Garcia 18 July 2017 (has links)
Submitted by Aline Batista (alinehb.ufpel@gmail.com) on 2018-04-18T14:49:00Z
No. of bitstreams: 2
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Dissertacao_Augusto_Schmidt.pdf: 1380825 bytes, checksum: 43661cd55f67f8a90201f1208716e6c9 (MD5) / Approved for entry into archive by Aline Batista (alinehb.ufpel@gmail.com) on 2018-04-19T14:43:09Z (GMT) No. of bitstreams: 2
Dissertacao_Augusto_Schmidt.pdf: 1380825 bytes, checksum: 43661cd55f67f8a90201f1208716e6c9 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-04-19T14:43:17Z (GMT). No. of bitstreams: 2
Dissertacao_Augusto_Schmidt.pdf: 1380825 bytes, checksum: 43661cd55f67f8a90201f1208716e6c9 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Previous issue date: 2017-07-18 / Sem bolsa / Motivos não são entidades aleatórias encontradas em cadeias de DNA, podendo ser definidos como um fenômeno não único dentro de uma sequência genética. Os motivos, além de ter padrões recorrentes nas sequências analisadas, também possuem uma função biológica. Os algoritmos evolutivos são amplamente utilizados para encontrar soluções para otimização e padrões de pesquisa na área de ciência da computação. Encontrar motivos em sequências de genes é um dos problemas
mais importantes na bioinformática e pertence à classe NP-Difícil. Portanto, é plausível investigar a hibridação de ferramentas consolidadas, mas limitadas em seu desempenho, em combinação com técnicas de algoritmos evolutivos. Este trabalho tem a premissa de mostrar uma pesquisa das principais técnicas e conceitos de algoritmos evolutivos utilizados na descoberta de padrões (motivos) na em moléculas e também um estudo aprofundado dos principais algoritmos de bioinformática que são utilizados para esta função em recentes anos por pesquisadores. Entende-se que tais técnicas em combinação, podem obter resultados interessantes para pesquisa em bioinformática. Assim, propondo uma arquitetura otimizada para descoberta de motivos em moléculas de regiões promotoras da bactéria. Usando tanto algoritmos evolutivos, como algoritmos de bioinformática e técnicas de refinação de seus principais dados fornecidos pelos algoritmos utilizados. Assim, formando uma arquitetura com melhor desempenho devido à hibridização de ferramentas consolidadas para buscar padrões em expressões genéticas. / Motifs are not random entities found in DNA strands, and can be defined as a nonunique phenomenon within a genetic sequence. Motifs, besides having recurrent patterns in the analyzed sequences, also have a biological function. Evolutionary algorithms are widely used to find solutions for optimization and research standards in the area of computer science. Finding motifs in gene sequences is one of the most important problems in bioinformatics and belongs to the NP-Difficult class. Therefore, it is plausible to investigate the hybridization of consolidated but limited tools in their performance, in combination with evolutionary algorithm techniques. This work has the premise of showing a research of the main techniques and concepts of evolutionary algorithms used in the discovery of patterns in molecules and also an in depth study of the main bioinformatics algorithms that have been used for this
function in recent years by researchers. It is understood that such techniques in combination may yield interesting results for research in bioinformatics. Thus, proposing an architecture optimized for the discovery of motifs in molecules of promoter regions of the bacterium. Using both evolutionary algorithms, bioinformatics algorithms and refining techniques of its main data provided by the algorithms used. Thus, forming an architecture with better performance due to the hybridization of consolidated tools to look for patterns in genetic expressions.
|
55 |
"Desenvolvimento de um Framework para Análise Visual de Informações Suportando Data Mining" / "Development of a Framework for Visual Analysis of Information with Data Mining suport"Jose Fernando Rodrigues Junior 22 July 2003 (has links)
No presente documento são reunidas as colaborações de inúmeros trabalhos das áreas de Bancos de Dados, Descoberta de Conhecimento em Bases de Dados, Mineração de Dados, e Visualização de Informações Auxiliada por Computador que, juntos, estruturam o tema de pesquisa e trabalho da dissertação de Mestrado: a Visualização de Informações. A teoria relevante é revista e relacionada para dar suporte às atividades conclusivas teóricas e práticas relatadas no trabalho. O referido trabalho, embasado pela substância teórica pesquisada, faz diversas contribuições à ciência em voga, a Visualização de Informações, apresentando-as através de propostas formalizadas no decorrer deste texto e através de resultados práticos na forma de softwares habilitados à exploração visual de informações. As idéias apresentadas se baseiam na exibição visual de análises numéricas estatísticas básicas, frequenciais (Frequency Plot), e de relevância (Relevance Plot). São relatadas também as contribuições à ferramenta FastMapDB do Grupo de Bases de Dados e Imagens do ICMC-USP em conjunto com os resultados de sua utilização. Ainda, é apresentado o Arcabouço, previsto no projeto original, para construção de ferramentas visuais de análise, sua arquitetura, características e utilização. Por fim, é descrito o Pipeline de visualização decorrente da junção entre o Arcabouço de visualização e a ferramenta FastMapDB. O trabalho se encerra com uma breve análise da ciência de Visualização de Informações com base na literatura estudada, sendo traçado um cenário do estado da arte desta disciplina com sugestões de futuros trabalhos. / In the present document are joined the collaborations of many works from the fields of Databases, Knowledge Discovery in Databases, Data Mining, and Computer-based Information Visualization, collaborations that, together, define the structure of the research theme and the work of the Masters Dissertation presented herein. This research topic is the Information Visualization discipline, and its relevant theory is reviewed and related to support the concluding activities, both theoretical and practical, reported in this work. The referred work, anchored by the theoretical substance that was studied, makes several contributions to the science in investigation, the Information Visualization, presenting them through formalized proposals described across this text, and through practical results in the form of software enabled to the visual exploration of information. The presented ideas are based on the visual exhibition of numeric analysis, named basic statistics, frequency analysis (Frequency Plot), and according to a relevance analysis (Relevance Plot). There are also reported the contributions to the FastMapDB tool, a visual exploration tool built by the Grupo de Bases de Dados e Imagens do ICMC-USP, the performed enhancements are listed as achieved results in the text. Also, it is presented the Framework, as previewed in this work's original proposal, projected to allow the construction of visual analysis tools; besides its description are listed its architecture, characteristics and utilization. At last, it is described the visualization Pipeline that emerges from the joining of the visualization Framework and the FastMapDB tool. The work ends with a brief analysis of the Information Visualization science based on the studied literature, it is delineated a scenario of the state of the art of this discipline along with suggestions for future work.
|
56 |
Uma arquitetura híbrida para descoberta de conhecimento em bases de dados: teoria dos rough sets e redes neurais artificiais mapas auto-organizáveis. / An hybrid architecture for the knowledge discovery in databases: rough sets theory and artificial neural nets self-organizing maps.Renato José Sassi 28 November 2006 (has links)
As bases de dados do mundo real contêm grandes volumes de dados, e entre eles escondem-se diversas relações difíceis de descobrir através de métodos tradicionais como planilhas de cálculo e relatórios informativos operacionais. Desta forma, os sistemas de descoberta de conhecimento (Knowledge Discovery in Data Bases - KDD) surgem como uma possível solução para dessas relações extrair conhecimento que possa ser aplicado na tomada de decisão em organizações. Mesmo utilizando um KDD, tal atividade pode continuar sendo extremamente difícil devido à grande quantidade de dados que deve ser processada. Assim, nem todos os dados que compõem essas bases servem para um sistema descobrir conhecimento. Em geral, costuma-se pré-processar os dados antes de serem apresentados ao KDD, buscando reduzir a sua quantidade e também selecionar os dados mais relevantes que serão utilizados pelo sistema. Este trabalho propõe o desenvolvimento, aplicação e análise de uma Arquitetura Híbrida formada pela combinação da Teoria dos Rough Sets (Teoria dos Conjuntos Aproximados) com uma arquitetura de rede neural artificial denominada Mapas Auto-Organizáveis ou Self-Organizing Maps (SOM) para descoberta de conhecimento. O objetivo é verificar o desempenho da Arquitetura Híbrida proposta na geração de clusters (agrupamentos) em bases de dados. Em particular, alguns dos experimentos significativos foram feitos para apoiar a tomada de decisão em organizações. / Databases of the real world contain a huge amount of data within which several relations are hidden. These relations are difficult to discover by means of traditional methods such as worksheets and operational informative reports. Therefore, the knowledge discovery systems (KDD) appear as a possible solution to extract, from such relations, knowledge to be applied in decision taking. Even using a KDD system, such activity may still continue to be extremely difficult due to the huge amount of data to be processed. Thus, not all data which are part of this base will be useful for a system to discover knowledge. In general, data are usually previously processed before being presented to a knowledge discovery system in order to reduce their quantity and also to select the most relevant data to be used by the system. This research presents the development, application and analysis of an hybrid architecture formed by the combination of the Rough Sets Theory with an artificial neural net architecture named Self-Organizing Maps (SOM) to discover knowledge. The objective is to verify the performance of the hybrid architecture proposed in the generation of clusters in databases. In particular, some of the important performed experiments targeted the decision taking in organizations.
|
57 |
Geração automática de metadados: uma contribuição para a Web semântica. / Automatic metadata generation: a contribution to the semantic Web.Eveline Cruz Hora Gomes Ferreira 05 April 2006 (has links)
Esta Tese oferece uma contribuição na área de Web Semântica, no âmbito da representação e indexação de documentos, definindo um Modelo de geração automática de metadados baseado em contexto, a partir de documentos textuais na língua portuguesa, em formato não estruturado (txt). Um conjunto teórico amplo de assuntos ligados à criação de ambientes digitais semântico também é apresentado. Conforme recomendado em SemanticWeb.org, os documentos textuais aqui estudados foram automaticamente convertidos em páginas Web anotadas semanticamente, utilizando o Dublin Core como padrão para definição dos elementos de metadados, e o padrão RDF/XML para representação dos documentos e descrição dos elementos de metadados. Dentre os quinze elementos de metadados Dublin Core, nove foram gerados automaticamente pelo Modelo, e seis foram gerados de forma semi-automática. Os metadados Description e Subject foram os que necessitaram de algoritmos mais complexos, sendo obtidos através de técnicas estatísticas, de mineração de textos e de processamento de linguagem natural. A finalidade principal da avaliação do Modelo foi verificar o comportamento dos documentos convertidos para o formato RDF/XML, quando estes foram submetidos a um processo de recuperação de informação. Os elementos de metadados Description e Subject foram exaustivamente avaliados, uma vez que estes são os principais responsáveis por apreender a semântica de documentos textuais. A diversidade de contextos, a complexidade dos problemas relativos à língua portuguesa, e os novos conceitos introduzidos pelos padrões e tecnologias da Web Semântica, foram alguns dos fortes desafios enfrentados na construção do Modelo aqui proposto. Apesar de se ter utilizado técnicas não muito novas para a exploração dos conteúdos dos documentos, não se pode ignorar que os elementos inovadores introduzidos pela Web Semântica ofereceram avanços que possibilitaram a obtenção de resultados importantes nesta Tese. Como demonstrado aqui, a junção dessas técnicas com os padrões e tecnologias recomendados pela Web Semântica pode minimizar um dos maiores problemas da Web atual, e uma das fortes razões para a implementação da Web Semântica: a tendência dos mecanismos de busca de inundarem os usuários com resultados irrelevantes, por não levarem em consideração o contexto específico desejado pelo usuário. Dessa forma, é importante que se dê continuidade aos estudos e pesquisas em todas as áreas relacionadas à implementação da Web Semântica, dando abertura para que sistemas de informação mais funcionais sejam projetados / This Thesis offers a contribution to the Semantic Web area, in the scope of the representation and indexing of documents, defining an Automatic metadata generation model based on context, starting from textual documents not structured in the Portuguese language. A wide theoretical set of subjects related to the creation of semantic digital environments is also presented. As recommended in SemanticWeb.org, the textual documents studied here were automatically converted to Web pages written in semantic format, using Dublin Core as standard for definition of metadata elements, and the standard RDF/XML for representation of documents and description of the metadata elements. Among the fifteen Dublin Core metadata elements, nine were automatically generated by the Model, and six were generated in a semiautomatic manner. The metadata Description and Subject were the ones that required more complex algorithms, being obtained through statistical techniques, text mining techniques and natural language processing. The main purpose of the evaluation of the Model was to verify the behavior of the documents converted to the format RDF/XML, when these were submitted to an information retrieval process. The metadata elements Description and Subject were exhaustively evaluated, since these are the main ones responsible for learning the semantics of textual documents. The diversity of contexts, the complexity of the problems related to the Portuguese language, and the new concepts introduced by the standards and technologies of the Semantic Web, were some of the great challenges faced in the construction of the Model here proposed. In spite of having used techniques which are not very new for the exploration and exploitation of the contents of the documents, we cannot ignore that the innovative elements introduced by the Web Semantic have offered improvements that made possible the obtention of important results in this Thesis. As demonstrated here, the joining of those techniques with the standards and technologies recommended by the Semantic Web can minimize one of the largest problems of the current Web, and one of the strong reasons for the implementation of the Semantic Web: the tendency of the search mechanisms to flood the users with irrelevant results, because they do not take into account the specific context desired by the user. Therefore, it is important that the studies and research be continued in all of the areas related to the Semantic Web?s implementation, opening the door for more functional systems of information to be designed.
|
58 |
Access Miner : uma proposta para a extração de regras de associação aplicada à mineração do uso da webBrusso, Marcos Jose January 2000 (has links)
Este trabalho é dedicado ao estudo e à aplicação da mineração de regras de associação a fim de descobrir padrões de navegação no ambiente Web. As regras de associação são padrões descritivos que representam a probabilidade de um conjunto de itens aparecer em uma transação visto que outro conjunto está presente. Dentre as possibilidades de aplicação da mineração de dados na Web, a mineração do seu uso consiste na extração de regras e padrões que descrevam o perfil dos visitantes aos sites e o seu comportamento navegacional. Neste contexto, alguns trabalhos já foram propostos, contudo diversos pontos foram deixados em aberto por seus autores. O objetivo principal deste trabalho é a apresentação de um modelo para a extração de regras de associação aplicado ao uso da Web. Este modelo, denominado Access Miner, caracteriza-se por enfocar as etapas do processo de descoberta do conhecimento desde a obtenção dos dados até a apresentação das regras obtidas ao analista. Características específicas do domínio foram consideradas, como a estrutura do site, para o pósprocessamento das regras mineradas a fim de selecionar as potencialmente mais interessantes e reduzir a quantidade de regras a serem apreciadas. O projeto possibilitou a implementação de uma ferramenta para a automação das diversas etapas do processo, sendo consideradas, na sua construção, as características de interatividade e iteratividade, necessárias para a descoberta e consolidação do conhecimento. Finalmente, alguns resultados foram obtidos a partir da aplicação desta ferramenta em dois casos, de forma que o modelo proposto pôde ser validado.
|
59 |
Utilização de técnicas de mineração de dados considerando aspectos temporaisLucas, Anelise de Macedo January 2002 (has links)
Atualmente, o enorme volume de informações armazenadas em bancos de dados de organizações ultrapassa a capacidade dos tradicionais métodos de análise dos dados baseados em consultas, pois eles se tornaram insuficientes para analisar o conteúdo quanto a algum conhecimento implícito e importante na grande massa de dados. A partir disto, a mineração de dados tem-se transformado em um tópico importante de pesquisa, porque provê um conjunto de técnicas e ferramentas capazes de inteligente e automaticamente assistir o ser humano na análise de uma enorme quantidade de dados à procura de conhecimento relevante e que está encoberto pelos demais dados. O presente trabalho se propõe a estudar e a utilizar a mineração de dados considerando os aspectos temporais. Através de um experimento realizado sobre os dados da Secretaria da Saúde do Estado do Rio Grande do Sul, com a aplicação de uma metodologia para a mineração de dados temporais, foi possível identificar padrões seqüenciais nos dados. Este experimento procurou descobrir padrões seqüenciais de comportamento em internações médicas, objetivando obter modelos de conhecimento dos dados temporais e representá-los na forma de regras temporais. A descoberta destes padrões seqüenciais permitiu comprovar tradicionais comportamentos dos tratamentos médicos efetuados, detectar situações anômalas, bem como, acompanhar a evolução das doenças existentes.
|
60 |
Descoberta de recursos para o Middleware EXEHDA na perspectiva da Internet das CoisasAZEVEDO, Mauricio Madruga de 25 February 2017 (has links)
Submitted by Cristiane Chim (cristiane.chim@ucpel.edu.br) on 2018-04-11T13:39:26Z
No. of bitstreams: 1
Mauricio Azevedo.pdf: 2285891 bytes, checksum: e622be8d22d47662c4346e296a191d93 (MD5) / Made available in DSpace on 2018-04-11T13:39:26Z (GMT). No. of bitstreams: 1
Mauricio Azevedo.pdf: 2285891 bytes, checksum: e622be8d22d47662c4346e296a191d93 (MD5)
Previous issue date: 2017-02-25 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES# / #2075167498588264571# / #600 / We have witnessed the day-to-day evolution of the Internet of things, where the number of
connected objects has had a steady growth. These objects interoperate exploring different communication
features and provide information to a wide range of services and applications. This
advance in the area of Internet of Things causes the computer resources become increasingly integrated
into the routines of everyday life of its users, facilitating the collection and treatment of
information of different natures in such areas as agriculture, health, among others. This growth,
among other things, introduces the need of resources be identified, so that the user can have
the information that is available in the computing environment of your interest. In this sense,
the research for resource management in ubiquitous environments, such as those provided by
the IoT, are incorporating study fronts seeking alternatives for resource identification occurs
as transparent as possible, enabling the discovery and selection of resources available in the
modern computing infrastructures. The G3PD (Group of research on Parallel and distributed
Processing) has been articulating his studies related to IoT considering a middleware for providing
solutions in this area, named EXEHDA (Execution Environment for Highly Distributed
Applications). This dissertation aims to the central proposal of an architecture for Resource
Discovery, directed to the scenario of the Internet of things, to be integrated into the middleware
EXEHDA. The main features of the proposed architecture have been validated through
prototyping and simulation, where their results turned out to be promising using technologies
and Internet standards of Things already used by G3PD, corroborating research challenges in
the area of resource discovery in the context of the Internet of Things.
Keywords: Internet of Things, Ubicomp, Resource Discovery. / Temos presenciado dia-a-dia a evolução da Internet das Coisas, onde o número de objetos conectados
vem tendo um crescimento constante. Estes objetos interoperam explorando diferentes
recursos de comunicação e disponibilizam informações para uma ampla gama de serviços
e aplicações. Este avanço na área da Internet das Coisas faz com que os recursos computacionais
se tornem cada vez mais integrados às rotinas do dia-a-dia de seus usuários, facilitando
a obtenção e o tratamento de informações de diferentes naturezas em áreas como agricultura,
saúde, dentre outras. Este crescimento, dentre outros aspectos, introduz a necessidade dos recursos
serem identificados, para que o usuário possa ter as informações que estão disponíveis
no ambiente computacional de seu interesse. Neste sentido, as pesquisas para gerenciamento
de recursos em ambientes computacionais, como os providos pela IoT, estão incorporando frentes
de estudo buscando alternativas para que ocorra a identificação dos recursos da forma mais
transparente possível, permitindo a descoberta e seleção de recursos disponibilizados nas infraestruturas
computacionais modernas. O G3PD (Grupo de Pesquisa em Processamento Paralelo
e Distribuído) vem articulando seus estudos relacionadas à IoT considerando um middleware
para provimento de soluções nesta área, denominado EXEHDA (Execution Environment for
Highly Distributed Applications). A presente dissertação tem por objetivo central a proposta de
uma arquitetura para Descoberta de Recursos, direcionada ao cenário da Internet das Coisas, a
ser integrada ao middleware EXEHDA. As principais funcionalidades da arquitetura proposta
foram validadas por meio de prototipação e simulação, onde seus resultados se mostraram promissores
fazendo uso de tecnologias e padrões voltados para a Internet das Coisas já utilizadas
pelo G3PD, corroborando com os desafios de pesquisa na área de descoberta de recursos na
perspectiva da Internet das Coisas.
|
Page generated in 0.0456 seconds