Spelling suggestions: "subject:"descoberta"" "subject:"descobertas""
91 |
Testando a condição descoberta de paridade de juros entre Brasil e Estados Unidos: uma modelagem por meio de GARCH multivariado e volatilidades realizadasVillela, Lucas Moreira 12 June 2017 (has links)
Submitted by Silvania Ribas (silvania@mackenzie.br) on 2018-04-12T15:02:27Z
No. of bitstreams: 1
LUCAS MOREIRA VILLELA.pdf: 1800574 bytes, checksum: b56cda5494345eaee69d460f9e418ce5 (MD5) / Rejected by Paola Damato (repositorio@mackenzie.br), reason: Assuntos em cx alta on 2018-05-04T11:56:47Z (GMT) / Submitted by Silvania Ribas (silvania@mackenzie.br) on 2018-05-30T14:55:04Z
No. of bitstreams: 1
LUCAS MOREIRA VILLELA.pdf: 1800574 bytes, checksum: b56cda5494345eaee69d460f9e418ce5 (MD5) / Approved for entry into archive by Paola Damato (repositorio@mackenzie.br) on 2018-06-08T20:50:58Z (GMT) No. of bitstreams: 1
LUCAS MOREIRA VILLELA.pdf: 1800574 bytes, checksum: b56cda5494345eaee69d460f9e418ce5 (MD5) / Made available in DSpace on 2018-06-08T20:50:58Z (GMT). No. of bitstreams: 1
LUCAS MOREIRA VILLELA.pdf: 1800574 bytes, checksum: b56cda5494345eaee69d460f9e418ce5 (MD5)
Previous issue date: 2017-06-12 / This study tests the uncovered interest rate parity between the Brazilian and American markets during the period of June 1986 to August 2016. The validation of the uncovered parity condition implies efficiency between markets. The condition is tested through the VECM methodology proposed in Engle and Granger (1987) utilizing the cointegrating vector testing the uncovered parity on the long term. The Multivariate GARCH model proposed by Bollerslev, Engle and Wooldridge (1988) is used, modeling not only the mean but the variance of the model’s variables, that way controlling the ARCH (autoregressive conditional heteroscedastic) effect in financial series. The variances of the variables are estimated through the Realized Variance estimator, first proposed in Andersen and Bollerslev (1998), in which the authors show it to be a consistent estimate of the integrated variance of a given process. The results validate the uncovered interest parity, showing it to be valid as a long-term equilibrium and that any deviation is corrected in the long term through the exchange rate between Brazil and the United States. / Este estudo propõe-se a testar a condição da paridade descoberta de juros, entre os mercados do Brasil e do Estados Unidos, para o período de Junho de 1986 a Agosto de 2016. A comprovação da condição descoberta implica em eficiência entre os mercados brasileiro e americano. A condição é testada por meio da metodologia de VECM proposta em Engle e Granger (1987) utilizando-se do vetor de cointegração para testar a condição no longo prazo. O modelo de GARCH Multivariado proposto por Bollerslev, Engle e Wooldridge (1988) é utilizado, modelando não só a média das variáveis em questão, mas, também sua variância para controlar o efeito ARCH (autoregressive conditional heteroscedastic) em series financeiras. As variâncias das series são estimadas por meio do estimador de Volatilidade Realizada, proposto em Andersen e Bollerslev (1998), que gera uma estimativa consistente da variância integrada de um processo. Os resultados do modelo comprovam a condição descoberta da paridade de juros, mostrando que essa é válida no longo prazo e que desequilíbrios na condição são corrigidos no longo prazo por meio do câmbio entre o Brasil e Estados Unidos.
|
92 |
Integrando mineração de séries temporais e fractais para encontrar padrões e eventos extremos em bases de dados climáticas e de sensoriamento remoto / Integrating time series mining and fractals to discover patterns and extreme events in climate and remote sensing databasesLuciana Alvim Santos Romani 13 December 2010 (has links)
Esta tese apresenta novos metodos baseados na teoria dos fractais e em tecnicas de mineração de dados para dar suporte ao monitoramento agrícola em escala regional, mais especicamente areas com plantações de cana-de-açucar que tem um papel importante na economia brasileira como uma alternativa viavel para a substituição de combustíveis fósseis. Uma vez que o clima tem um grande impacto na agricultura, os agrometeorologistas utilizam dados climáticos associados a índices agrometeorológicos e mais recentemente dados provenientes de satélites para apoiar a tomada de decisão. Neste sentido, foi proposto um método que utiliza a dimensão fractal para identicar mudanças de tendências nas séries climáticas juntamente com um módulo de análise estatística para definir quais atributos são responsáveis por essas alterações de comportamento. Além disso, foram propostos dois métodos de medidas de similaridade para auxiliar na comparação de diferentes regiões agrícolas representadas por múltiplas variáveis provenientes de dados meteorológicos e imagens de sensoriamento remoto. Diante da importância de se estudar os extremos climáticos que podem se intensicar dado os cenários que preveem mudanças globais no clima, foi proposto o algoritmo CLIPSMiner que identifica padrões relevantes e extremos em séries climáticas. CLIPSMiner também permite a identificação de correlação de múltiplas séries considerando defasagem de tempo e encontra padrões de acordo com parâmetros que podem ser calibrados pelos usuários. A busca por padrões de associação entre séries foi alcançada por meio de duas abordagens distintas. A primeira delas integrou o cálculo da correlação de dimensão fractal com uma técnica para tornar os valores contínuos das séries em intervalos discretos e um algoritmo de regras de associação gerando o método Apriori-FD. Embora tenha identificado padrões interessantes em relação a temperatura, este método não conseguiu lidar de forma apropriada com defasagem temporal. Foi proposto então o algoritmo CLEARMiner que de forma não-supervisionada minera padrões em uma série associando-os a padrões em outras séries considerando a possibilidade de defasagem temporal. Os métodos propostos foram comparados a técnicas similares e avaliados por um grupo composto por meteorologistas, agrometeorologistas e especialistas em sensoriamento remoto. Os experimentos realizados mostraram que a aplicação de técnicas de mineração de dados e fractais contribui para melhorar a análise dos dados agrometeorológicos e de satélite auxiliando no trabalho de pesquisadores, além de se configurar como uma ferramenta importante para apoiar a tomada de decisão no agronegócio / This thesis presents new methods based on fractal theory and data mining techniques to support agricultural monitoring in regional scale, specifically regions with sugar canefields. This commodity greatly contributes to the Brazilian economy since it is a viable alternative to replace fossil fuels. Since climate in uences the national agricultural production, researchers use climate data associated to agrometeorological indexes, and recently they also employed data from satellites to support decision making processes. In this context, we proposed a method that uses the fractal dimension to identify trend changes in climate series jointly with a statistical analysis module to define which attributes are responsible for the behavior alteration in the series. Moreover, we also proposed two methods of similarity measure to allow comparisons among different agricultural regions represented by multiples variables from meteorological data and remote sensing images. Given the importance of studying the extreme weather events, which could increase in intensity, duration and frequency according to different scenarios indicated by climate forecasting models, we proposed the CLIPSMiner algorithm to identify relevant patterns and extremes in climate series. CLIPSMiner also detects correlations among multiple time series considering time lag and finds patterns according to parameters, which can be calibrated by the users. We applied two distinct approaches in order to discover association patterns on time series. The first one is the Apriori-FD method that integrates an algorithm to perform attribute selection through applying the correlation fractal dimension, an algorithm of discretization to convert continuous values of series into discrete intervals, and a well-known association rules algorithm (Apriori). Although Apriori-FD has identified interesting patterns related to temperature, this method failed to appropriately deal with time lag. As a solution, we proposed CLEARMiner that is an unsupervised algorithm in order to mine the association patterns in one time series relating them to patterns in other series considering the possibility of time lag. The proposed methods were compared with similar techniques as well as assessed by a group of meteorologists, and specialists in agrometeorology and remote sensing. The experiments showed that applying data mining techniques and fractal theory can contribute to improve the analyses of agrometeorological and satellite data. These new techniques can aid researchers in their work on decision making and become important tools to support decision making in agribusiness
|
93 |
Computação Evolutiva para a Construção de Regras de Conhecimento com Propriedades Específicas / Evolutionary Computing for Knowledge Rule Construction with Specific PropertiesAdriano Donizete Pila 12 April 2007 (has links)
A maioria dos algoritmos de aprendizado de máquina simbólico utilizam regras de conhecimento if-then como linguagem de descrição para expressar o conhecimento aprendido. O objetivo desses algoritmos é encontrar um conjunto de regras de classificação que possam ser utilizadas na predição da classe de novos casos que não foram vistos a priori pelo algoritmo. Contudo, este tipo de algoritmo considera o problema da interação entre as regras, o qual consiste na avaliação da qualidade do conjunto de regras induzidas (classificador) como um todo, ao invés de avaliar a qualidade de cada regra de forma independente. Assim, como os classificadores têm por objetivo uma boa precisão nos casos não vistos, eles tendem a negligenciar outras propriedades desejáveis das regras de conhecimento, como a habilidade de causar surpresa ou trazer conhecimento novo ao especialista do domínio. Neste trabalho, estamos interessados em construir regras de conhecimento com propriedades específicas de forma isolada, i.e. sem considerar o problema da interação entre as regras. Para esse fim, propomos uma abordagem evolutiva na qual cada individuo da população do algoritmo representa uma única regra e as propriedades específicas são codificadas como medidas de qualidade da regra, as quais podem ser escolhidas pelo especialista do domínio para construir regras com as propriedades desejadas. O algoritmo evolutivo proposto utiliza uma rica estrutura para representar os indivíduos (regras), a qual possibilita considerar uma grande variedade de operadores evolutivos. O algoritmo utiliza uma função de aptidão multi-objetivo baseada em ranking que considera de forma concomitante mais que uma medida de avaliação de regra, transformando-as numa função simples-objetivo. Como a avaliação experimental é fundamental neste tipo de trabalho, para avaliar nossa proposta foi implementada a Evolutionary Computing Learning Environment --- ECLE --- que é uma biblioteca de classes para executar e avaliar o algoritmo evolutivo sob diferentes cenários. Além disso, a ECLE foi implementada considerando futuras implementações de novos operadores evolutivos. A ECLE está integrada ao projeto DISCOVER, que é um projeto de pesquisa em desenvolvimento em nosso laboratório para a aquisição automática de conhecimento. Analises experimentais do algoritmo evolutivo para construir regras de conhecimento com propriedades específicas, o qual pode ser considerado uma forma de análise inteligente de dados, foram realizadas utilizando a ECLE. Os resultados mostram a adequabilidade da nossa proposta / Most symbolic machine learning approaches use if-then know-ledge rules as the description language in which the learned knowledge is expressed. The aim of these learners is to find a set of classification rules that can be used to predict new instances that have not been seen by the learner before. However, these sorts of learners take into account the rule interaction problem, which consists of evaluating the quality of the set of rules (classifier) as a whole, rather than evaluating the quality of each rule in an independent manner. Thus, as classifiers aim at good precision to classify unseen instances, they tend to neglect other desirable properties of knowledge rules, such as the ability to cause surprise or bring new knowledge to the domain specialist. In this work, we are interested in building knowledge rules with specific properties in an isolated manner, i.e. not considering the rule interaction problem. To this end, we propose an evolutionary approach where each individual of the algorithm population represents a single rule and the specific properties are encoded as rule quality measure, a set of which can be freely selected by the domain specialist. The proposed evolutionary algorithm uses a rich structure for individual representation which enables one to consider a great variety of evolutionary operators. The algorithm uses a ranking-based multi-objective fitness function that considers more than one rule evaluation measure concomitantly into a single objective. As experimentation plays an important role in this sort of work, in order to evaluate our proposal we have implemented the Evolutionary Computing Learning Environment --- ECLE --- which is a framework to evaluate the evolutionary algorithm in different scenarios. Furthermore, the ECLE has been implemented taking into account future development of new evolutionary operators. The ECLE is integrated into the DISCOVER project, a major research project under constant development in our laboratory for automatic knowledge acquisition and analysis. Experimental analysis of the evolutionary algorithm to construct knowledge rules with specific properties, which can also be considered an important form of intelligent data analysis, was carried out using ECLE. Results show the suitability of our proposal
|
94 |
SNP discovery, high-density genetic map construction, and identification of genes associated with climate adaptation, and lack of intermuscular bone in tambaqui (Colossoma macropomum) / Descoberta de SNP, construção de mapa genético de alta densidade e identificação de genes associados com adaptação climática e ausência da espinha intermuscular em tambaqui (Colossoma macropomum)José de Ribamar da Silva Nunes 08 March 2017 (has links)
Tambaqui (Colossoma macropomum) is the largest native Characiform species from the Amazon and Orinoco river basins of South America. Tambaqui farming is growing rapidly in Brazil, its production reached 139.209 tons in 2014, what corresponds to 57.7% of increase compared with 2013. However, few genetic studies of tambaqui are currently available. The tambaqui genetic studies for cultured and wild populations need a holistic approach for a rational action facing ecological and market challenges in aquaculture. Approaches based on genetic studies have provided important tools to understand population dynamics, local adaptation, and gene function to improve selection strategies to be applied in breeding programs. The next-generation sequencing (NGS) allowed a great advance in genomic and transcriptomic approaches, especially related to non-model species. The genotype-by-sequencing (GBS) is one of this approaches based on genome complexity reduction using restriction enzymes (REs). This thesis presents the application of these approaches to provide advances in the genetic background for tambaqui studies. The GBS approach provided a high-density SNPs panel that allowed us to develop the first linkage map, and association studies with environmental variables, local adaptation, and lack of intermuscular bones, both using tambaqui as a model. This work can give us many theoretical references to be applied in genetic breeding programs for tambaqui, allowing a better understanding of genetic processes related to traits of interest in aquaculture. / O tambaqui (Colossoma macropomum) é a maior espécie nativa de Characiforme da América do Sul e é encontrado nas bacias do rio Amazonas e Orinoco. O cultivo do tambaqui está crescendo rapidamente no Brasil, sua produção atingiu 139.209 toneladas em 2014, o que corresponde a 57,7% de aumento em relação a 2013. No entanto, poucos estudos genéticos realizados com o tambaqui estão disponíveis atualmente. Estudos genéticos em tambaqui, tanto em populações cultivadas quanto em populações selvagens, necessitam de uma abordagem holística para uma ação racional frente aos desafios ecológicos e mercadológicos na aquicultura. Abordagens baseadas em estudos genéticos têm fornecido ferramentas importantes para se entender a dinâmica populacional, adaptação local e função gênica visando melhorar as estratégias de seleção a serem aplicadas em programas de melhoramento genético. O sequenciamento de nova geração (NGS) permitiu um grande avanço nas abordagens genômicas e transcriptômicas, especialmente relacionadas a espécies não-modelo. A genotipagem por sequenciamento (GBS) é uma dessas abordagens que utilizam enzimas de restrição (REs) para reduzir a complexidade do genoma. Esta tese apresenta a aplicação desta abordagem objetivando proporcionar avanços significativos nos estudos genéticos de base para tambaqui. A técnica de GBS forneceu um painel de SNPs de alta densidade que nos permitiu desenvolver o primeiro mapa de ligação e estudos de associação com variáveis ambientais, adaptação local e ausência de ossos intermusculares no tambaqui. Este trabalho pode nos dar muitas referências teóricas a serem aplicadas em programas de melhoramento genético do tambaqui, permitindo uma melhor compreensão dos processos genéticos relacionados a traços de interesse na aquicultura.
|
95 |
Geração automática de metadados: uma contribuição para a Web semântica. / Automatic metadata generation: a contribution to the semantic Web.Ferreira, Eveline Cruz Hora Gomes 05 April 2006 (has links)
Esta Tese oferece uma contribuição na área de Web Semântica, no âmbito da representação e indexação de documentos, definindo um Modelo de geração automática de metadados baseado em contexto, a partir de documentos textuais na língua portuguesa, em formato não estruturado (txt). Um conjunto teórico amplo de assuntos ligados à criação de ambientes digitais semântico também é apresentado. Conforme recomendado em SemanticWeb.org, os documentos textuais aqui estudados foram automaticamente convertidos em páginas Web anotadas semanticamente, utilizando o Dublin Core como padrão para definição dos elementos de metadados, e o padrão RDF/XML para representação dos documentos e descrição dos elementos de metadados. Dentre os quinze elementos de metadados Dublin Core, nove foram gerados automaticamente pelo Modelo, e seis foram gerados de forma semi-automática. Os metadados Description e Subject foram os que necessitaram de algoritmos mais complexos, sendo obtidos através de técnicas estatísticas, de mineração de textos e de processamento de linguagem natural. A finalidade principal da avaliação do Modelo foi verificar o comportamento dos documentos convertidos para o formato RDF/XML, quando estes foram submetidos a um processo de recuperação de informação. Os elementos de metadados Description e Subject foram exaustivamente avaliados, uma vez que estes são os principais responsáveis por apreender a semântica de documentos textuais. A diversidade de contextos, a complexidade dos problemas relativos à língua portuguesa, e os novos conceitos introduzidos pelos padrões e tecnologias da Web Semântica, foram alguns dos fortes desafios enfrentados na construção do Modelo aqui proposto. Apesar de se ter utilizado técnicas não muito novas para a exploração dos conteúdos dos documentos, não se pode ignorar que os elementos inovadores introduzidos pela Web Semântica ofereceram avanços que possibilitaram a obtenção de resultados importantes nesta Tese. Como demonstrado aqui, a junção dessas técnicas com os padrões e tecnologias recomendados pela Web Semântica pode minimizar um dos maiores problemas da Web atual, e uma das fortes razões para a implementação da Web Semântica: a tendência dos mecanismos de busca de inundarem os usuários com resultados irrelevantes, por não levarem em consideração o contexto específico desejado pelo usuário. Dessa forma, é importante que se dê continuidade aos estudos e pesquisas em todas as áreas relacionadas à implementação da Web Semântica, dando abertura para que sistemas de informação mais funcionais sejam projetados / This Thesis offers a contribution to the Semantic Web area, in the scope of the representation and indexing of documents, defining an Automatic metadata generation model based on context, starting from textual documents not structured in the Portuguese language. A wide theoretical set of subjects related to the creation of semantic digital environments is also presented. As recommended in SemanticWeb.org, the textual documents studied here were automatically converted to Web pages written in semantic format, using Dublin Core as standard for definition of metadata elements, and the standard RDF/XML for representation of documents and description of the metadata elements. Among the fifteen Dublin Core metadata elements, nine were automatically generated by the Model, and six were generated in a semiautomatic manner. The metadata Description and Subject were the ones that required more complex algorithms, being obtained through statistical techniques, text mining techniques and natural language processing. The main purpose of the evaluation of the Model was to verify the behavior of the documents converted to the format RDF/XML, when these were submitted to an information retrieval process. The metadata elements Description and Subject were exhaustively evaluated, since these are the main ones responsible for learning the semantics of textual documents. The diversity of contexts, the complexity of the problems related to the Portuguese language, and the new concepts introduced by the standards and technologies of the Semantic Web, were some of the great challenges faced in the construction of the Model here proposed. In spite of having used techniques which are not very new for the exploration and exploitation of the contents of the documents, we cannot ignore that the innovative elements introduced by the Web Semantic have offered improvements that made possible the obtention of important results in this Thesis. As demonstrated here, the joining of those techniques with the standards and technologies recommended by the Semantic Web can minimize one of the largest problems of the current Web, and one of the strong reasons for the implementation of the Semantic Web: the tendency of the search mechanisms to flood the users with irrelevant results, because they do not take into account the specific context desired by the user. Therefore, it is important that the studies and research be continued in all of the areas related to the Semantic Web?s implementation, opening the door for more functional systems of information to be designed.
|
96 |
[en] AN ARCHITECTURE FOR RDF DATA SOURCES RECOMMENDATION / [pt] ARQUITETURA PARA RECOMENDAÇÃO DE FONTES DE DADOS RDFJOSE EDUARDO TALAVERA HERRERA 25 March 2013 (has links)
[pt] Dentro do processo de publicação de dados na Web recomenda-se interligar
os dados entre diferentes fontes, através de recursos similares que descrevam
um domínio em comum. No entanto, com o crescimento do número dos conjuntos
de dados publicados na Web de Dados, as tarefas de descoberta e
seleção de dados tornam-se cada vez mais complexas. Além disso, a natureza
distribuída e interconectada dos dados, fazem com que a sua análise
e entendimento sejam muito demorados. Neste sentido, este trabalho visa
oferecer uma arquitetura Web para a identificação de fontes de dados em
RDF, com o objetivo de prover melhorias nos processos de publicação, interconex
ão, e exploração de dados na Linked Open Data. Para tal, nossa
abordagem utiliza o modelo de MapReduce sobre o paradigma de computa
ção nas nuvens. Assim, podemos efetuar buscas paralelas por palavraschave
sobre um índice de dados semânticos existente na Web. Estas buscas
permitem identificar fontes candidatas para ligar os dados. Por meio desta
abordagem, foi possível integrar diferentes ferramentas da web semântica em
um processo de busca para descobrir fontes de dados relevantes, e relacionar
tópicos de interesse denidos pelo usuário. Para atingir nosso objetivo foi
necessária a indexação e análise de texto para aperfeiçoar a busca de recursos
na Linked Open Data. Para mostrar a ecácia de nossa abordagem
foi desenvolvido um estudo de caso, utilizando um subconjunto de dados de
uma fonte na Linked Open Data, através do seu serviço SPARQL endpoint.
Os resultados do nosso trabalho revelam que a geração de estatísticas sobre
os dados da fonte é, de fato, um grande diferencial no processo de busca. Estas estatísticas ajudam ao usuário no processo de escolha de indivíduos. Um processo especializado de extração de palavras-chave é aplicado para cada indivíduo com o objetivo de gerar diferentes buscas sobre o índice semântico. Mostramos a escalabilidade de nosso processo de recomendação de fontes RDF através de diferentes amostras de indivíduos. / [en] In the Web publishing process of data it is recommended to link the data
from different sources using similar resources that describe a domain in
common. However, the growing number of published data sets on the Web
have made the data discovery and data selection tasks become increasingly
complex. Moreover, the distributed and interconnected nature of the data
causes the understanding and analysis to become too prolonged. In this
context, this work aims to provide a Web architecture for identifying RDF
data sources with the goal of improving the publishing, interconnection, and
data exploration processes within the Linked Open Data. Our approach
utilizes the MapReduce computing model on top of the cloud computing
paradigm. In this manner, we are able to make parallel keyword searches
over existing semantic data indexes available on the web. This will allow
to identify candidate sources to link the data. Through this approach, it
was possible to integrate different semantic web tools and relevant data
sources in a search process, and also to relate topics of interest denied
by the user. In order to achieve our objectives it was necessary to index
and analyze text to improve the search of resources in the Linked Open
Data. To show the effectiveness of our approach we developed a case study
using a subset of data from a source in the Linked Open Data through
its SPARQL endpoint service. The results of our work reveal that the
generation and usage of data source s statistics do make a great difference
within the search process. These statistics help the user within the choosing
individuals process. Furthermore, a specialized keyword extraction process
is run for each individual in order to create different search processes using
the semantic index. We show the scalability of our RDF recommendation
process by sampling several individuals.
|
97 |
Uma Proposta para Descoberta de Recursos na Computação Ubíqua com Suporte Semântico / A PROPOSAL FOR RESOURCE DISCOVERY IN UBIQUITOUS COMPUTING WITH SUPPORT SEMANTICDilli, Renato Marques 11 March 2010 (has links)
Made available in DSpace on 2016-03-22T17:26:47Z (GMT). No. of bitstreams: 1
dm2_rdilli.pdf: 6543916 bytes, checksum: c1e5f8d9e3780088d192fcc2919a072b (MD5)
Previous issue date: 2010-03-11 / In ubiquitous environments resources should be shared so that they can be accessed
from anywhere and anytime. In this approach the process of resource discovery
plays an important role in adequately satisfy the requests for resources. This paper
presents the proposed EXEHDA-SD, EXEHDA-Semantic Discovery, which consists of a
mechanism for resource discovery for ubiquitous computing, which combines technologies
into its architecture for the semantic processing of requests for resources, increasing
expressiveness in representation and consultation. The mechanism provides for the dynamics
in which resources enter and leave the environment and pursue issues such as
scalability and user preferences. In this sense, the work includes a study on mechanisms
of resource discovery in the context of ubiquitous computing and technology for semantic
processing with the intention of substantiating the architectural choices of the mechanism.
The EXEHDA-SD was modeled to be prototyped as a service to the EXEHDA middleware,
enabling the execution of search for resources located in the cells of the ubiquitous
environment, in a scalable perspective, through the use of ontologies and tools for
handling. Processing ontology expands the capacity for representation of environmental
resources and their location. The use of semantic description of resources, among other
things, facilitates the location of features similar to those requested. The model was compared
with the state of the art, and its differential was discussed. Moreover, their functions
were evaluated by three case studies / Em ambientes ubíquos os recursos devem estar compartilhados para que possam
ser acessados de qualquer lugar e a qualquer momento. Nesta abordagem o processo de
descoberta de recursos assume um importante papel em satisfazer adequadamente as requisições
por recursos. Este trabalho apresenta a proposta do EXEHDA-SD, EXEHDASemantic
Discovery, que consiste em um mecanismo de descoberta de recursos, para
computação ubíqua, que agrega tecnologias em sua arquitetura para o processamento semântico
de requisições por recursos, aumentando a expressividade na representação e
consulta. O mecanismo prevê a dinamicidade em que os recursos entram e saem do ambiente
e persegue aspectos como escalabilidade e preferências do usuário. Neste sentido,
o trabalho desenvolvido contempla um estudo sobre mecanismos de descoberta de recursos
no contexto da computação ubíqua e das tecnologias para processamento semântico
com a intenção de fundamentar as escolhas arquiteturais do mecanismo. O EXEHDA-SD
foi modelado para ser prototipado na forma de um serviço para o middleware EXEHDA,
possibilitando a realização de pesquisas por recursos localizados nas células do ambiente
ubíquo, em uma perspectiva escalável, através da utilização de ontologias e ferramentas
para sua manipulação. O processamento de ontologias expande a capacidade de representação
dos recursos do ambiente, bem como sua localização. A utilização de semântica
na descrição dos recursos, dentre outros aspectos, facilita a localização de recursos similares
ao solicitado. O modelo foi comparado com o estado da arte, e seu diferencial foi
discutido. Outrossim, suas funcionalidades foram avaliadas por três estudos de caso
|
98 |
Clarice Lispector autora de si: reflexões sobre o fazer literário em A descoberta do mundoRosa, Danielle Pedrassoli dos Santos 09 November 2018 (has links)
Submitted by Filipe dos Santos (fsantos@pucsp.br) on 2018-12-12T09:25:47Z
No. of bitstreams: 1
Danielle Pedrassoli dos Santos Rosa.pdf: 700381 bytes, checksum: a35d7c4d10cc5040ded1983415a37f5a (MD5) / Made available in DSpace on 2018-12-12T09:25:47Z (GMT). No. of bitstreams: 1
Danielle Pedrassoli dos Santos Rosa.pdf: 700381 bytes, checksum: a35d7c4d10cc5040ded1983415a37f5a (MD5)
Previous issue date: 2018-11-09 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Starting from a punctual study of the chronicle of Clarice Lispector, in its multiple faces of
revelation, the present research proposes to unveil the reflective and metalinguistic process of
its writing, passing through the fictionalized presence of the author, as well as her perspective
about the act of creation. The corpus of research is centered on the chronicles published
between 1967 and 1973, in the Jornal do Brasil newspaper and, later, collected in the book A
Descoberta do Mundo (1984). For this purpose, we examine the characteristics inherent to the
chronicle and how the writer works with this genre, then we grasp the issue of self-writing and
analyze how the reflections about the literary work are present in the space of the chronic. The
research is primarily analytical-reflexive and, in order to discuss the chronicle as genre, uses
articles by Antonio Candido, Davi Arrigucci and Marlise Meyer. In order to approach the
chronicle of Clarice, in particular, we use the studies by Nádia Gotlib and Walnice Nogueira.
About the presence of the writer in her writing, two key theorists on the subject were favored:
Roland Barthes and Michel Foucault. For the studies on autofiction and metafiction, the
following stand out among others: Philippe Lejeune, Diana Klinger and Linda Hutcheon,
whereas in the process of creative construction, our attention will focus primarily on Octávio
Paz and Leyla Perrone-Móises. In the Final Considerations, the chronicle is reiterated as a
scriptural testimony of the restless and questioning profile of the author observed and analyzed
throughout the research, as well as the creative and reflective mechanisms of her literary work / A partir de um estudo pontual da crônica de Clarice Lispector, em suas múltiplas faces de
revelação, a presente pesquisa propõe desvendar o processo reflexivo e metalinguístico de sua
escrita, passando pela presença ficcionalizada da autora, bem como por sua visão sobre o ato
de criação. O corpus de investigação está centrado nas crônicas publicadas entre os anos de
1967 e 1973, no Jornal do Brasil e, posteriormente, reunidas no livro A Descoberta do
Mundo (1984). Para tanto, examinam-se as características inerentes à crônica e de que forma
a escritora trabalha com este gênero para, em seguida, apreendermos a questão da escrita de si
e analisarmos como as reflexões sobre o fazer literário se fazem presentes no espaço da crônica.
A pesquisa tem caráter, prioritariamente, analítico-reflexivo e utiliza para a discussão da
crônica como gênero, artigos de Antonio Candido, Davi Arrigucci e Marlise Meyer. Para a
abordagem da crônica clariciana, em específico, recorre-se aos estudos de Nádia Gotlib e
Walnice Nogueira. Sobre a presença da escritora no corpo da escrita, privilegiaram-se dois
teóricos chave sobre a questão: Roland Barthes e Michel Foucault. Para os estudos sobre
autoficção e metaficção, destacam-se entre outros: Philippe Lejeune, Diana Klinger e Linda
Hutcheon, enquanto que sobre o processo da construção criativa, nossa atenção passa a centrarse,
prioritariamente, em Octávio Paz e Leyla Perrone-Móises. Nas Considerações Finais,
reitera-se a crônica como um testemunho escritural do perfil inquieto e questionador da autora
observado e analisado ao longo da pesquisa, assim como os mecanismos criativos e reflexivos
do seu fazer literário
|
99 |
Agrupamento de dados fuzzy colaborativo / Collaborative fuzzy clusteringColetta, Luiz Fernando Sommaggio 19 May 2011 (has links)
Nas últimas décadas, as técnicas de mineração de dados têm desempenhado um importante papel em diversas áreas do conhecimento humano. Mais recentemente, essas ferramentas têm encontrado espaço em um novo e complexo domínio, nbo qual os dados a serem minerados estão fisicamente distribuídos. Nesse domínio, alguns algorithmos específicos para agrupamento de dados podem ser utilizados - em particular, algumas variantes do algoritmo amplamente Fuzzy C-Means (FCM), as quais têm sido investigadas sob o nome de agrupamento fuzzy colaborativo. Com o objetivo de superar algumas das limitações encontradas em dois desses algoritmos, cinco novos algoritmos foram desenvolvidos nesse trabalho. Esses algoritmos foram estudados em dois cenários específicos de aplicação que levam em conta duas suposições sobre os dados (i.e., se os dados são de uma mesma npopulação ou de diferentes populações). Na prática, tais suposições e a dificuldade em se definir alguns dos parâmetros (que possam ser requeridos), podemn orientar a escolha feita pelo usuário entre os algoitmos diponíveis. Nesse sentido, exemplos ilustrativos destacam as diferenças de desempenho entre os algoritmos estudados e desenvolvidos, permitindo derivar algumas conclusões que podem ser úteis ao aplicar agrupamento fuzzy colaborativo na prática. Análises de complexidade de tempo, espaço, e comunicação também foram realizadas / Data mining techniques have played in important role in several areas of human kwnowledge. More recently, these techniques have found space in a new and complex setting in which the data to be mined are physically distributed. In this setting algorithms for data clustering can be used, such as some variants of the widely used Fuzzy C-Means (FCM) algorithm that support clustering data ditributed across different sites. Those methods have been studied under different names, like collaborative and parallel fuzzy clustring. In this study, we offer some augmentation of the two FCM-based clustering algorithms used to cluster distributed data by arriving at some constructive ways of determining essential parameters of the algorithms (including the number of clusters) and forming a set systematically structured guidelines as to a selection of the specific algorithm dependeing upon a nature of the data environment and the assumption being made about the number of clusters. A thorough complexity analysis including space, time, and communication aspects is reported. A series of detailed numeric experiments is used to illustrate the main ideas discussed in the study
|
100 |
Sec-SD: um modelo distribuído para descoberta segura de serviços em redes locaisLemos, Janaína Conceição Sutil 30 September 2011 (has links)
Submitted by Silvana Teresinha Dornelles Studzinski (sstudzinski) on 2015-07-06T19:27:00Z
No. of bitstreams: 1
JanainaConceicaoSutilLemos.pdf: 790058 bytes, checksum: 85e90c997855bb472d17380ce64d7c95 (MD5) / Made available in DSpace on 2015-07-06T19:27:00Z (GMT). No. of bitstreams: 1
JanainaConceicaoSutilLemos.pdf: 790058 bytes, checksum: 85e90c997855bb472d17380ce64d7c95 (MD5)
Previous issue date: 2011-09-30 / Nenhuma / Com a crescente popularização dos dispositivos móveis nos últimos anos, há uma necessidade cada vez maior de conectividade e de serviços nas redes de computadores. Nesse contexto, as tecnologias para descoberta de serviços simplificam a interação entre usuários e dispositivos, facilitando as tarefas administrativas, principalmente quando existe a necessidade de adicionar novos equipamentos. Devido a grande diversidade de ambientes onde essas tecnologias podem ser utilizadas, surge também a necessidade de tratar as questões relacionadas a segurança e ao mesmo tempo, preservar a facilidade de uso do sistema. Neste trabalho é apresentado um sistema para descoberta segura de serviços em redes locais com arquitetura descentralizada, o Sec-SD (Secure Service Discovery Protocol). Através do uso de mecanismos para criptografia e autenticação, o Sec-SD visa estabelecer uma relação de confiança entre as partes envolvidas na descoberta de serviços antes da divulgação de informações relacionadas a estas, prevenindo assim os ataques causados pelo anúncio de falsos serviços, bem como o acesso a serviços restritos por usuários ilegítimos, objetivando ser ao mesmo tempo seguro e de fácil uso para humanos. O presente sistema permite que uma entidade atue simultaneamente como cliente e provedor de serviços, sem a necessidade de utilizar diretórios para anunciar serviços e/ou realizar buscas pelos mesmos, fazendo ainda com que a existência de provedores redundantes para um mesmo serviço seja tratada de forma a ser transparente para os usuários. Para validação, é avaliado o tráfego gerado pelas mensagens do Sec-SD e além disso, foi desenvolvido um protótipo, que é utilizado para integrar funcionalidades para descoberta segura de serviços no LP2P (Local Peer-to-Peer Protocol), que é uma plataforma para compartilhamento de arquivos P2P para redes locais desenvolvida no Grupo de Redes de Computadores e Sistemas Distribuídos do PIPCA – UNISINOS. / Given the growing popularity of mobile devices in recent years, there is an increasing need for connectivity and services in computer networks. In this context, service discovery technologies aim to simplify the interaction between users and devices, facilitating administrative tasks, especially when there is a need to add new equipments. Due to the diversity of environments where these technologies can be used, there also the need to address security issues and, at the same time, to preserv the usability of the system. This work presents a system for secure service discovery on local networks with decentralized architecture, called Sec-SD – Secure Service Discovery Protocol. Sec-SD makes use of cryptography and authentication mechanisms in order to allow only valid users to obtain information about the available services. In this way, is possible to prevent several attacks caused by the advertisement of false services and by service access performed by illegitimate users, aiming to be at the same time secure and easy-of-use for humans. This model allows the same entity to act simultaneously as a client and a service provider, without the use of any directory to register services and/or search for available services. The existence of redundant service providers is also addressed by the model in order to be transparent for human users. For validation, the traffic generated by the Sec-SD messages is evaluated and a prototype is used to provide secure service discovery facilities into a P2P file sharing focused in Local Area Networks called LP2P (Local Peer-to-Peer Protocol), that was developed at PIPCA - UNISINOS.
|
Page generated in 0.0336 seconds