Spelling suggestions: "subject:"dados estruturadas"" "subject:"dados estruturado""
1 |
Análise de dados estruturados com balanceamento geral aplicados a ensaios agronômicos / not availableGuadanhin, Maria Helena de Carvalho 17 February 1992 (has links)
Na análise de experimentos, uma das preocupações e criar-se modelos que explicitem as estruturas do fenômeno em observação. Uma estratégia e supor que cada observação e formada por duas partes: previsíveis e aleatória. Considerando essas estruturas independentes e ligadas a uma matriz de alocação, temos uma análise simples. Este trabalho tem como objetivo estudar uma metodologia de análise, levando em conta uma estrutura de blocos e outra de tratamento, apresentando uma alternativa para a análise clássica. Esta nova metodologia trabalha diretamente com os operadores de projeção que geralmente envolvem apenas cálculos de medias sobre colunas, linhas, blocos, etc. Como aplicação considera-se exemplos já analisados, com o interesse de comparar os dois métodos de análise. Conclui-se que, considerando dados com uma estrutura de blocos e uma estrutura de tratamento, pode-se ter uma melhor flexibilidade no esquema adotado para a aleatorização dos tratamentos, isto e, pode-se adotar um esquema mais complicado na aplicação dos mesmos, com uma maneira simples de analisá-los, o que talvez tornasse inviável a análise pelo método clássico / not available
|
2 |
Análise de dados estruturados com balanceamento geral aplicados a ensaios agronômicos / not availableMaria Helena de Carvalho Guadanhin 17 February 1992 (has links)
Na análise de experimentos, uma das preocupações e criar-se modelos que explicitem as estruturas do fenômeno em observação. Uma estratégia e supor que cada observação e formada por duas partes: previsíveis e aleatória. Considerando essas estruturas independentes e ligadas a uma matriz de alocação, temos uma análise simples. Este trabalho tem como objetivo estudar uma metodologia de análise, levando em conta uma estrutura de blocos e outra de tratamento, apresentando uma alternativa para a análise clássica. Esta nova metodologia trabalha diretamente com os operadores de projeção que geralmente envolvem apenas cálculos de medias sobre colunas, linhas, blocos, etc. Como aplicação considera-se exemplos já analisados, com o interesse de comparar os dois métodos de análise. Conclui-se que, considerando dados com uma estrutura de blocos e uma estrutura de tratamento, pode-se ter uma melhor flexibilidade no esquema adotado para a aleatorização dos tratamentos, isto e, pode-se adotar um esquema mais complicado na aplicação dos mesmos, com uma maneira simples de analisá-los, o que talvez tornasse inviável a análise pelo método clássico / not available
|
3 |
Proposta de uma ferramenta de anotação semântica para publicação de dados estruturados na WebCalegari, Newton Juniano 02 April 2016 (has links)
Submitted by Filipe dos Santos (fsantos@pucsp.br) on 2016-09-02T14:31:38Z
No. of bitstreams: 1
Newton Juniano Calegari.pdf: 2853517 bytes, checksum: e1eda2a1325986c6284a5054d724a19f (MD5) / Made available in DSpace on 2016-09-02T14:31:38Z (GMT). No. of bitstreams: 1
Newton Juniano Calegari.pdf: 2853517 bytes, checksum: e1eda2a1325986c6284a5054d724a19f (MD5)
Previous issue date: 2016-04-02 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Pontifícia Universidade Católica de São Paulo / The tool proposed in this research aims at bringing together the Semantic Web technologies
and content publishers, this way enabling the latter to contribute to creating
structured data and metadata about texts and information they may make available
on the Web. The general goal is to investigate the technical feasibility of developing a
semantic annotation tool that enables content publishers to contribute to the Semantic
Web ecosystem. Based on (BERNERS-LEE et al., 2001; ALESSO; SMITH, 2006;
RODRÍGUEZ-ROCHA et al., 2015; GUIZZARDI, 2005; ISOTANI; BITTENCOURT,
2015), the Semantic Web is presented according to its technological stack. Considering
the importance of the ontologies and vocabularies used to create Semantic Web applications,
the essential subjects of the conceptual modelling and the ontology language
used on the Web are presented. In order to provide the necessary concepts to use semantic
annotations, this dissertation presents both the way annotations are used (manual,
semi-automatic, and automatic) as well as the way these annotations are integrated with
resources available on the Web. The state-of-the-art chapter describes recent projects and
related work on the use of Semantic Web within Web-content publishing context. The
methodology adopted by this research is based on (SANTAELLA; VIEIRA, 2008; GIL,
2002), in compliance with the exploratory approach for research. This research presents
the proposal and the architecture of the semantic annotation tool, which uses shared vocabulary
in order to create structured data based on textual content. In conclusion, this
dissertation addresses the possibilities of future work, both in terms of the implementation
of the tool in a real use case as well as in new scientific research / A proposta apresentada nesta pesquisa busca aproximar as tecnologias de Web Semântica
dos usuários publicadores de conteúdo na Web, permitindo que estes contribuam com a
geração de dados estruturados e metadados sobre textos e informações que venham disponibilizar
na Web. O objetivo geral deste trabalho é investigar a viabilidade técnica de
desenvolvimento de uma ferramenta de anotação semântica que permita aos usuários publicadores
de conteúdo contribuírem para o ecossistema de Web Semântica. Com suporte
de (BERNERS-LEE et al., 2001; ALESSO; SMITH, 2006; RODRÍGUEZ-ROCHA et al.,
2015; GUIZZARDI, 2005; ISOTANI; BITTENCOURT, 2015) apresenta-se o tópico de
Web Semântica de acordo com a pilha tecnológica que mostra o conjunto de tecnologias
proposto para a sua realização. Considerando a importância de ontologias e vocabulários
para a construção de aplicações de Web Semântica, são apresentados então os tópicos
fundamentais de modelagem conceitual e a linguagem de ontologias para Web. Para fornecer
a base necessária para a utilização de anotações semânticas são apresentados, além
da definição, os modos de uso de anotações (manual, semi-automático e automático) e
as formas de integrar essas anotações com recursos disponíveis nas tecnologias da Web
Semântica. O estado da arte contempla trabalhos e projetos recentes sobre o uso de Web
Semântica no contexto de publicação de conteúdo na Web. A metodologia é baseada
na proposta apresentada por SANTAELLA; VIEIRA (2008), seguindo uma abordagem
exploratória para a condução da pesquisa. É apresentada a proposta e os componentes
de uma ferramenta de anotação semântica que utiliza vocabulários compartilhados para
geração de dados estruturados a partir de conteúdo textual. Concluindo o trabalho, são
apresentadas as possibilidades futuras, tanto da implementação da ferramenta em um
cenário real, atestando sua viabilidade técnica, quanto novos trabalhos encaminhados a
partir desta pesquisa
|
4 |
Uma abordagem de predição estruturada baseada no modelo perceptronCoelho, Maurício Archanjo Nunes 25 June 2015 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-03-06T17:58:43Z
No. of bitstreams: 1
mauricioarchanjonunescoelho.pdf: 10124655 bytes, checksum: 549fa53eba76e81b76ddcbce12c97e55 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-03-06T20:26:43Z (GMT) No. of bitstreams: 1
mauricioarchanjonunescoelho.pdf: 10124655 bytes, checksum: 549fa53eba76e81b76ddcbce12c97e55 (MD5) / Made available in DSpace on 2017-03-06T20:26:44Z (GMT). No. of bitstreams: 1
mauricioarchanjonunescoelho.pdf: 10124655 bytes, checksum: 549fa53eba76e81b76ddcbce12c97e55 (MD5)
Previous issue date: 2015-06-25 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A teoria sobre aprendizado supervisionado tem avançado significativamente nas últimas
décadas. Diversos métodos são largamente utilizados para resoluções dos mais variados
problemas, citando alguns: sistemas especialistas para obter respostas to tipo verdadeiro/
falso, o modelo Perceptron para separação de classes, Máquina de Vetores Suportes
(SVMs) e o Algoritmo de Margem Incremental (IMA) no intuito de aumentar a margem
de separação, suas versões multi-classe, bem como as redes neurais artificiais, que apresentam
possibilidades de entradas relativamente complexas. Porém, como resolver tarefas
que exigem respostas tão complexas quanto as perguntas?
Tais respostas podem consistir em várias decisões inter-relacionadas que devem ser ponderadas
uma a uma para se chegar a uma solução satisfatória e globalmente consistente.
Será visto no decorrer do trabalho que existem problemas de relevante interesse que apresentam
estes requisitos.
Uma questão que naturalmente surge é a necessidade de se lidar com a explosão combinatória
das possíveis soluções. Uma alternativa encontrada apresenta-se através da construção
de modelos que compactam e capturam determinadas propriedades estruturais
do problema: correlações sequenciais, restrições temporais, espaciais, etc. Tais modelos,
chamados de estruturados, incluem, entre outros, modelos gráficos, tais como redes de
Markov e problemas de otimização combinatória, como matchings ponderados, cortes de
grafos e agrupamentos de dados com padrões de similaridade e correlação.
Este trabalho formula, apresenta e discute estratégias on-line eficientes para predição
estruturada baseadas no princípio de separação de classes derivados do modelo Perceptron
e define um conjunto de algoritmos de aprendizado supervisionado eficientes quando
comparados com outras abordagens.
São também realizadas e descritas duas aplicações experimentais a saber: inferência dos
custos das diversas características relevantes para a realização de buscas em mapas variados
e a inferência dos parâmetros geradores dos grafos de Markov. Estas aplicações têm
caráter prático, enfatizando a importância da abordagem proposta. / The theory of supervised learning has significantly advanced in recent decades. Several
methods are widely used for solutions of many problems, such as expert systems for
answers to true/false, Support Vector Machine (SVM) and Incremental Margin Algorithm
(IMA). In order to increase the margin of separation, as well as its multi-class versions,
in addition to the artificial neural networks which allow complex input data. But how to
solve tasks that require answers as complex as the questions? Such responses may consist
of several interrelated decisions to be considered one by one to arrive at a satisfactory and
globally consistent solution. Will be seen throughout the thesis, that there are problems
of relevant interest represented by these requirements.
One question that naturally arises is the need to deal with the exponential explosion of
possible answers. As a alternative, we have found through the construction of models
that compress and capture certain structural properties of the problem: sequential correlations,
temporal constraints, space, etc. These structured models include, among others,
graphical models, such as Markov networks and combinatorial optimization problems,
such as weighted matchings, graph cuts and data clusters with similarity and correlation
patterns.
This thesis formulates, presents and discusses efficient online strategies for structured
prediction based on the principle of separation of classes, derived from the Perceptron and
defines a set of efficient supervised learning algorithms compared to other approaches.
Also are performed and described two experimental applications: the costs prediction
of relevant features on maps and the prediction of the probabilistic parameters for the
generating Markov graphs. These applications emphasize the importance of the proposed
approach.
|
5 |
Abordagem para integração automática de dados estruturados e não estruturados em um contexto Big Data / Approach for automatic integration of structured and unstructured data in a Big Data contextKeylla Ramos Saes 22 November 2018 (has links)
O aumento de dados disponíveis para uso tem despertado o interesse na geração de conhecimento pela integração de tais dados. No entanto, a tarefa de integração requer conhecimento dos dados e também dos modelos de dados utilizados para representá-los. Ou seja, a realização da tarefa de integração de dados requer a participação de especialistas em computação, o que limita a escalabilidade desse tipo de tarefa. No contexto de Big Data, essa limitação é reforçada pela presença de uma grande variedade de fontes e modelos heterogêneos de representação de dados, como dados relacionais com dados estruturados e modelos não relacionais com dados não estruturados, essa variedade de representações apresenta uma complexidade adicional para o processo de integração de dados. Para lidar com esse cenário é necessário o uso de ferramentas de integração que reduzam ou até mesmo eliminem a necessidade de intervenção humana. Como contribuição, este trabalho oferece a possibilidade de integração de diversos modelos de representação de dados e fontes de dados heterogêneos, por meio de uma abordagem que permite o do uso de técnicas variadas, como por exemplo, algoritmos de comparação por similaridade estrutural dos dados, algoritmos de inteligência artificial, que através da geração do metadados integrador, possibilita a integração de dados heterogêneos. Essa flexibilidade permite lidar com a variedade crescente de dados, é proporcionada pela modularização da arquitetura proposta, que possibilita que integração de dados em um contexto Big Data de maneira automática, sem a necessidade de intervenção humana / The increase of data available to use has piqued interest in the generation of knowledge for the integration of such data bases. However, the task of integration requires knowledge of the data and the data models used to represent them. Namely, the accomplishment of the task of data integration requires the participation of experts in computing, which limits the scalability of this type of task. In the context of Big Data, this limitation is reinforced by the presence of a wide variety of sources and heterogeneous data representation models, such as relational data with structured and non-relational models with unstructured data, this variety of features an additional complexity representations for the data integration process. Handling this scenario is required the use of integration tools that reduce or even eliminate the need for human intervention. As a contribution, this work offers the possibility of integrating diverse data representation models and heterogeneous data sources through the use of varied techniques such as comparison algorithms for structural similarity of the artificial intelligence algorithms, data, among others. This flexibility, allows dealing with the growing variety of data, is provided by the proposed modularized architecture, which enables data integration in a context Big Data automatically, without the need for human intervention
|
6 |
Abordagem para integração automática de dados estruturados e não estruturados em um contexto Big Data / Approach for automatic integration of structured and unstructured data in a Big Data contextSaes, Keylla Ramos 22 November 2018 (has links)
O aumento de dados disponíveis para uso tem despertado o interesse na geração de conhecimento pela integração de tais dados. No entanto, a tarefa de integração requer conhecimento dos dados e também dos modelos de dados utilizados para representá-los. Ou seja, a realização da tarefa de integração de dados requer a participação de especialistas em computação, o que limita a escalabilidade desse tipo de tarefa. No contexto de Big Data, essa limitação é reforçada pela presença de uma grande variedade de fontes e modelos heterogêneos de representação de dados, como dados relacionais com dados estruturados e modelos não relacionais com dados não estruturados, essa variedade de representações apresenta uma complexidade adicional para o processo de integração de dados. Para lidar com esse cenário é necessário o uso de ferramentas de integração que reduzam ou até mesmo eliminem a necessidade de intervenção humana. Como contribuição, este trabalho oferece a possibilidade de integração de diversos modelos de representação de dados e fontes de dados heterogêneos, por meio de uma abordagem que permite o do uso de técnicas variadas, como por exemplo, algoritmos de comparação por similaridade estrutural dos dados, algoritmos de inteligência artificial, que através da geração do metadados integrador, possibilita a integração de dados heterogêneos. Essa flexibilidade permite lidar com a variedade crescente de dados, é proporcionada pela modularização da arquitetura proposta, que possibilita que integração de dados em um contexto Big Data de maneira automática, sem a necessidade de intervenção humana / The increase of data available to use has piqued interest in the generation of knowledge for the integration of such data bases. However, the task of integration requires knowledge of the data and the data models used to represent them. Namely, the accomplishment of the task of data integration requires the participation of experts in computing, which limits the scalability of this type of task. In the context of Big Data, this limitation is reinforced by the presence of a wide variety of sources and heterogeneous data representation models, such as relational data with structured and non-relational models with unstructured data, this variety of features an additional complexity representations for the data integration process. Handling this scenario is required the use of integration tools that reduce or even eliminate the need for human intervention. As a contribution, this work offers the possibility of integrating diverse data representation models and heterogeneous data sources through the use of varied techniques such as comparison algorithms for structural similarity of the artificial intelligence algorithms, data, among others. This flexibility, allows dealing with the growing variety of data, is provided by the proposed modularized architecture, which enables data integration in a context Big Data automatically, without the need for human intervention
|
7 |
Predição de dados estruturados utilizando a formulação Perceptron com aplicação em planejamento de caminhosCoelho, Maurício Archanjo Nunes 18 June 2010 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-03-07T15:27:21Z
No. of bitstreams: 1
mauricioarchanjonunescoelho.pdf: 2468130 bytes, checksum: 3f05daa8428e367942c4ad560b6375f2 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-03-10T12:19:13Z (GMT) No. of bitstreams: 1
mauricioarchanjonunescoelho.pdf: 2468130 bytes, checksum: 3f05daa8428e367942c4ad560b6375f2 (MD5) / Made available in DSpace on 2017-03-10T12:19:13Z (GMT). No. of bitstreams: 1
mauricioarchanjonunescoelho.pdf: 2468130 bytes, checksum: 3f05daa8428e367942c4ad560b6375f2 (MD5)
Previous issue date: 2010-06-18 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O problema de planejamento de caminhos apresenta diversas subáreas, muitas das
quais já extensamente abordadas na literatura. Uma dessas áreas em especial é a de determinação
de caminhos, os algoritmos empregados para a solução deste problema dependem
que os custos estipulados para os ambientes ou mapas sejam confiáveis. A dificuldade está
justamente na definição dos custos referentes a cada tipo de área ou terreno nos mapas
a serem examinados. Como se pode observar, o problema mencionado inclui a dificuldade
em se determinar qual o custo de cada característica relevante presente no mapa,
bem como os custos de suas possíveis combinações. A proposta deste trabalho é mostrar
como é feita a predição desses custos em novos ambientes tendo como base a predição
de dados estruturados definindo um aprendizado funcional entre domínios de entrada e
saída, estruturados e arbitrários. O problema de aprendizado em questão é normalmente
formulado como um problema de otimização convexa de máxima margem bastante similar
a formulação de máquinas de vetores suporte multi-classe. Como técnica de solução
realizou-se a implementação do algoritmo MMP (Maximum Margin Planning) (RATLIFF;
BAGNELL; ZINKEVICH, 2006). Como contribuição, desenvolveu-se e implementou-se dois
algoritmos alternativos, o primeiro denominado Perceptron Estruturado e o segundo Perceptron
Estruturado com Margem, ambos os métodos de relaxação baseados na formulação do Perceptron. Os mesmos foram analisados e comparados. Posteriormente temos a exploração
dos ambientes por um agente inteligente utilizando técnicas de aprendizado por
reforço. Tornando todo o processo, desde a análise do ambiente e descoberta de custos,
até sua exploração e planejamento do caminho, um completo processo de aprendizado. / The problem of path planning has several sub-areas, many of which are widely discussed
in the literature. One of these areas in particular is the determination of paths,
the algorithms used to solve this problem depend on the reliability of the estimated costs
in the environments and maps. The difficulty is precisely the definition of costs for each
type of area or land on the maps to be examined. As you can see, the problem mentioned
includes the difficulty in determining what the cost of each relevant characteristic on the
map, and the costs of their possible combinations. The purpose of this study is to show
how the prediction of these costs is made into new environments based on the prediction
of structured data by defining functional learning areas between input and output,
structured and arbitrary. The problem of learning in question is usually formulated as a
convex optimization problem of maximum margin very similar to the formulation of multiclass
support vector machines. A solution technic was performed through implementation
of the algorithm MMP (Maximum Margin Planning) (RATLIFF; BAGNELL; ZINKEVICH,
2006). As a contribution, two alternative algorithms were developed and implemented,
the first named Structured Perceptron, and the second Structured Perceptron with Margin
both methods of relaxation based formulation of the Perceptron. They were analyzed and
compared. Posteriorly we have the exploitation of the environment by an intelligent agent
using reinforcement learning techniques. This makes the whole process, from the environment
analysis and discovery of cost to the exploitation and path planning, a complete
learning process.
|
Page generated in 0.0844 seconds