• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • Tagged with
  • 9
  • 9
  • 9
  • 9
  • 9
  • 5
  • 4
  • 4
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modelo navegacional dinâmico, para implementação da integração inter-estrutural de dados. / Dynamic navigational model for implementation of the data inter-structural integration.

Gomes Neto, José 04 November 2016 (has links)
Na última década, observaram-se substanciais mudanças nos tipos de dados processados, quando comparados à definição convencional de dados estruturados. Neste contexto, sistemas computacionais que em sua maioria acessam bases de dados convencionais, centralizadas, que armazenam dados estruturados, necessitam cada vez mais acessarem e processarem também dados não estruturados, distribuídos e em grandes quantidades. Fatores tais como versatilidade em abrigar dados não estruturados, coexistência, integração e difusão de dados complexos a velocidades superiores as velocidades até então observadas, restringem, em determinadas situações, o uso dos modelos de dados convencionais. Dessa forma, nesta Tese é proposto e formalizado um modelo de dados pós relacional, baseado nos conceitos de grafos complexos, também denominados, Redes Complexas. Por intermédio da utilização do modelo de grafos, define-se uma forma de se implementar uma integração inter-estrutural de dados, ou seja, os tradicionais dados estruturados, com os mais recentemente utilizados dados não estruturados, tais como os dados multimídia. Tal integração envolve todas as transações presentes em um banco de dados, ou seja, consulta, inserção, atualização e exclusão de dados. A denominação dada a tal forma de trabalho e implementação foi Modelo Navegacional Dinâmico - MND. Esse modelo representa diferentes estruturas de dados e sobretudo, permite que essas diferentes estruturas coexistam de forma integrada, agregando à informação resultante maior completeza e abrangência. Portanto, o MND associa os benefícios da junção da estrutura das Redes Complexas ao contexto de dados não estruturados, sobretudo no que tange à integração resultante de dados com estruturas distintas, conferindo assim às aplicações que necessitam desta integração, melhoria no aproveitamento dos recursos. / Over the last decade several changes in data processing have been observed when compared to the conventional structured data definition. In such context, computational systems accessing centralized databases need to process large, distributed, non-structured data as well. Factors like versatility in hosting data, coexistence, integration and diffusion of such complex data at high speeds can be, in some cases, troublesome when using conventional data models. In this work a post-relational, graph-based (also known as Complex Network) model, is presented. Such model enables the integration of both structured data and non-structured data, such as multimedia, allowing such structures to coexist. This integration involves all transactions found in a database, such as select, insert, delete and update data. The name given to this form of work and implementation was Navigational Model Dynamic - MND. This model represents different data structures and above all, allows these different structures to coexist in an integrated way, adding to the resulting information greater completeness and comprehensiveness. Hence, MND harnesses the benefits of Complex Network and non-structured data providing all relational data handling already available in other databases but also integration and better use of resources.
2

Modelo navegacional dinâmico, para implementação da integração inter-estrutural de dados. / Dynamic navigational model for implementation of the data inter-structural integration.

José Gomes Neto 04 November 2016 (has links)
Na última década, observaram-se substanciais mudanças nos tipos de dados processados, quando comparados à definição convencional de dados estruturados. Neste contexto, sistemas computacionais que em sua maioria acessam bases de dados convencionais, centralizadas, que armazenam dados estruturados, necessitam cada vez mais acessarem e processarem também dados não estruturados, distribuídos e em grandes quantidades. Fatores tais como versatilidade em abrigar dados não estruturados, coexistência, integração e difusão de dados complexos a velocidades superiores as velocidades até então observadas, restringem, em determinadas situações, o uso dos modelos de dados convencionais. Dessa forma, nesta Tese é proposto e formalizado um modelo de dados pós relacional, baseado nos conceitos de grafos complexos, também denominados, Redes Complexas. Por intermédio da utilização do modelo de grafos, define-se uma forma de se implementar uma integração inter-estrutural de dados, ou seja, os tradicionais dados estruturados, com os mais recentemente utilizados dados não estruturados, tais como os dados multimídia. Tal integração envolve todas as transações presentes em um banco de dados, ou seja, consulta, inserção, atualização e exclusão de dados. A denominação dada a tal forma de trabalho e implementação foi Modelo Navegacional Dinâmico - MND. Esse modelo representa diferentes estruturas de dados e sobretudo, permite que essas diferentes estruturas coexistam de forma integrada, agregando à informação resultante maior completeza e abrangência. Portanto, o MND associa os benefícios da junção da estrutura das Redes Complexas ao contexto de dados não estruturados, sobretudo no que tange à integração resultante de dados com estruturas distintas, conferindo assim às aplicações que necessitam desta integração, melhoria no aproveitamento dos recursos. / Over the last decade several changes in data processing have been observed when compared to the conventional structured data definition. In such context, computational systems accessing centralized databases need to process large, distributed, non-structured data as well. Factors like versatility in hosting data, coexistence, integration and diffusion of such complex data at high speeds can be, in some cases, troublesome when using conventional data models. In this work a post-relational, graph-based (also known as Complex Network) model, is presented. Such model enables the integration of both structured data and non-structured data, such as multimedia, allowing such structures to coexist. This integration involves all transactions found in a database, such as select, insert, delete and update data. The name given to this form of work and implementation was Navigational Model Dynamic - MND. This model represents different data structures and above all, allows these different structures to coexist in an integrated way, adding to the resulting information greater completeness and comprehensiveness. Hence, MND harnesses the benefits of Complex Network and non-structured data providing all relational data handling already available in other databases but also integration and better use of resources.
3

Utilização de técnicas de dados não estruturados para desenvolvimento de modelos aplicados ao ciclo de crédito

Andrade Junior, Valter Lacerda de 13 August 2014 (has links)
Made available in DSpace on 2016-04-29T14:23:30Z (GMT). No. of bitstreams: 1 Valter Lacerda de Andrade Junior.pdf: 673552 bytes, checksum: 68480511c98995570354a0166d2bb577 (MD5) Previous issue date: 2014-08-13 / The need for expert assessment of Data Mining in textual data fields and other unstructured information is increasingly present in the public and private sector. Through probabilistic models and analytical studies, it is possible to broaden the understanding of a particular information source. In recent years, technology progress caused exponential growth of the information produced and accessed in the virtual media (web and private). It is estimated that by 2003 humanity had historically generated a total of 5 exabytes of content; today that asset volume can be produced in a few days. With the increasing demand, this project aims to work with probabilistic models related to the financial market in order to check whether the textual data fields, or unstructured information, contained within the business environment, can predict certain customers behaviors. It is assumed that in the corporate environment and on the web, there is great valuable information that, due to the complexity and lack of structure, they are barely considered in probabilistic studies. This material may represent competitive and strategic advantage for business, so analyzing unstructured information one can acquire important data on behaviors and mode of user interaction in the environment in which it operates, providing data as to obtain psychographic profile and satisfaction degree. The corpus of this study consists of the results of experiments made in negotiating environment of a financial company in São Paulo. On the foregoing analysis, it was applied statistical bias semiotic concepts. Among the findings of this study, it is possible to get a critical review and thorough understanding of the processes of textual data assessment / A necessidade de análise especializada de Mineração de Dados (Data Mining) em campos textuais e em outras informações não estruturadas estão, cada vez mais, presente nas instituições dos setores públicos e privados. Por meio de modelos probabilísticos e estudos analíticos, torna-se possível ampliar o entendimento sobre determinada fonte de informação. Nos últimos anos, devido ao avanço tecnológico, observa-se um crescimento exponencial na quantidade de informação produzida e acessada nas mídias virtuais (web e privada). Até 2003, a humanidade havia gerado, historicamente, um total de 5 exabytes de conteúdo; hoje estima-se que esse volume possa ser produzido em poucos dias. Assim, a partir desta crescente demanda identificada, este projeto visa trabalhar com modelos probabilísticos relacionados ao mercado financeiro com o intuito de analisar se os campos textuais e ilustrativos, ou informações não estruturadas, contidas dentro do ambiente de negócio, podem prever certos comportamentos de clientes. Parte-se do pressuposto que, no ambiente corporativo e na web, existem informações de grande valor e que, devido à complexidade e falta de estrutura, não são consideradas em estudos probabilísticos. Isso pode representar vantagem competitiva e estratégica para o negócio, pois, por meio da análise da informação não estruturada, podem-se conhecer comportamentos e modos de interação do usuário nestes ambientes, proporcionando obter dados como perfil psicográfico e grau de satisfação. O corpus deste estudo constitui-se de resultados de experimentos efetuados no ambiente negocial de uma empresa do setor financeiro. Para as análises, foram aplicados conceitos estatísticos com viés semiótico. Entre as informações obtidas por esta pesquisa, verifica-se a compreensão crítica e aprofundada dos processos de análise textual
4

Griddler: uma estratégia configurável para armazenamento distribuído de objetos peer-to-peer que combina replicação e erasure coding com sistema de cache / Griddler: a configurable strategy for distributed peer-to-peer object storage combining replication and erasure coding with a cache system

Caetano, André Francisco Morielo [UNESP] 10 August 2017 (has links)
Submitted by André Francisco Morielo Caetano null (andremorielo@hotmail.com) on 2017-08-18T20:54:09Z No. of bitstreams: 1 Dissertacao_Andre_Morielo-Principal.pdf: 2084639 bytes, checksum: d77158373f8168fc0224d407bb07aa99 (MD5) / Approved for entry into archive by Luiz Galeffi (luizgaleffi@gmail.com) on 2017-08-23T19:42:08Z (GMT) No. of bitstreams: 1 caetano_afm_me_sjrp.pdf: 2084639 bytes, checksum: d77158373f8168fc0224d407bb07aa99 (MD5) / Made available in DSpace on 2017-08-23T19:42:08Z (GMT). No. of bitstreams: 1 caetano_afm_me_sjrp.pdf: 2084639 bytes, checksum: d77158373f8168fc0224d407bb07aa99 (MD5) Previous issue date: 2017-08-10 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Sistemas de gerenciamento de banco de dados, na sua essência, almejam garantir o armazenamento confiável da informação. Também é tarefa de um sistema de gerenciamento de banco de dados oferecer agilidade no acesso às informações. Nesse contexto, é de grande interesse considerar alguns fenômenos recentes: a progressiva geração de conteúdo não-estruturado, como imagens e vídeo, o decorrente aumento do volume de dados em formato digital nas mais diversas mídias e o grande número de requisições por parte de usuários cada vez mais exigentes. Esses fenômenos fazem parte de uma nova realidade, denominada Big Data, que impõe aos projetistas de bancos de dados um aumento nos requisitos de flexibilidade, escalabilidade, resiliência e velocidade dos seus sistemas. Para suportar dados não-estruturados foi preciso se desprender de algumas limitações dos bancos de dados convencionais e definir novas arquiteturas de armazenamento. Essas arquiteturas definem padrões para gerenciamento dos dados, mas um sistema de armazenamento deve ter suas especificidades ajustadas em cada nível de implementação. Em termos de escalabilidade, por exemplo, cabe a escolha entre sistemas com algum tipo de centralização ou totalmente descentralizados. Por outro lado, em termos de resiliência, algumas soluções utilizam um esquema de replicação para preservar a integridade dos dados por meio de cópias, enquanto outras técnicas visam a otimização do volume de dados armazenados. Por fim, ao mesmo tempo que são desenvolvidas novas tecnologias de rede e disco, pode-se pensar na utilização de caching para otimizar o acesso ao que está armazenado. Este trabalho explora e analisa os diferentes níveis no desenvolvimento de sistemas de armazenamento distribuído. O objetivo deste trabalho é apresentar uma arquitetura que combina diferentes técnicas de resiliência. A contribuição científica deste trabalho é, além de uma sugestão totalmente descentralizada de alocação dos dados, o uso de uma estrutura de cache de acesso nesse ambiente, com algoritmos adaptáveis. / Database management systems, in essence, aim to ensure the reliable storage of information. It is also the task of a database management system to provide agility in accessing information. In this context, it is of great interest to consider some recent phenomena: the progressive generation of unstructured content such as images and video, the consequent increase in the volume of data in digital format in the most diverse media and the large number of requests by users increasingly demanding. These phenomena are part of a new reality, named Big Data, that imposes on database designers an increase in the flexibility, scalability, resiliency, and speed requirements of their systems. To support unstructured data, it was necessary to get rid of some limitations of conventional databases and define new storage architectures. These architectures define standards for data management, but a storage system must have its specificities adjusted at each level of implementation. In terms of scalability, for example, it is up to the choice between systems with some type of centralization or totally decentralized. On the other hand, in terms of resiliency, some solutions utilize a replication scheme to preserve the integrity of the data through copies, while other techniques are aimed at optimizing the volume of stored data. Finally, at the same time that new network and disk technologies are being developed, one might think of using caching to optimize access to what is stored. This work explores and analyzes the different levels in the development of distributed storage systems. This work objective is to present an architecture that combines different resilience techniques. The scientific contribution of this work is, in addition to a totally decentralized suggestion of data allocation, the use of an access cache structure with adaptive algorithms in this environment.
5

Analytics como uma ferramenta para Consumer Insights / Analytics as a Tool for Consumer Insights

Carvalho, André Silva de 24 March 2017 (has links)
Submitted by Adriana Alves Rodrigues (aalves@espm.br) on 2017-11-22T15:02:28Z No. of bitstreams: 1 ANDRE SILVA DE CARVALHO.pdf: 3017440 bytes, checksum: 72f0dd79324eb16e16c0fca2fea756db (MD5) / Approved for entry into archive by Adriana Alves Rodrigues (aalves@espm.br) on 2017-11-22T15:02:51Z (GMT) No. of bitstreams: 1 ANDRE SILVA DE CARVALHO.pdf: 3017440 bytes, checksum: 72f0dd79324eb16e16c0fca2fea756db (MD5) / Approved for entry into archive by Ana Cristina Ropero (ana@espm.br) on 2017-11-23T10:56:03Z (GMT) No. of bitstreams: 1 ANDRE SILVA DE CARVALHO.pdf: 3017440 bytes, checksum: 72f0dd79324eb16e16c0fca2fea756db (MD5) / Made available in DSpace on 2017-11-23T10:56:31Z (GMT). No. of bitstreams: 1 ANDRE SILVA DE CARVALHO.pdf: 3017440 bytes, checksum: 72f0dd79324eb16e16c0fca2fea756db (MD5) Previous issue date: 2017-03-24 / Being innovative in a more and more competitive market can be anything but trivial. There is a complex variables system to be taken into account throughout an innovation process, and hardly ever will there be enough data to support a research or decision. It is always possible to turn to human inference, or cognitive bias, when enough data is not available, or when time for decision-making is scarce. Consumer Insight technique has been used for this research purpose and aimed at lowering cognitive bias, seeking to find out what are consumers' wishes and needs so that decision-making or innovation could be supported. This paper proposes to mitigate the influence of cognitive bias, by means of data analysis techniques, in search for patterns which can identify opportunities to give both decision-making and search for innovation some support. In order to achive this purpose, unstructured data from 26.514 telephone talks had in a big financial market company between 01.12.2016 e 31.12.2016 have been used. Analysis has been carried out with the transcript from voice into text concomitantly with Text Mining and Social Network analysis. The results have led us to identify main client demands from a sales perspective, cancellation resquest, as well as the reason for inefficiency in offering new products from elements of higher centrality identified in the word association networks. It is implied that the combined use of analytical techniques applied to unstructured data may give rise to findings in which cognitive bias is lower. / Em um mercado cada vez mais competitivo, ser inovador pode ser um diferencial, porém não é uma atividade trivial. Existe um sistema de variáveis complexas que deve ser considerado ao longo de um processo de inovação e nem sempre há dados suficientes que suportem uma pesquisa ou decisão. A inferência humana, ou viés cognitivo, pode ser uma alternativa quando não existem dados suficientes ou quando o tempo para a tomada de decisão é menor que o necessário. A técnica de Consumer Insight foi utilizada nesta pesquisa com o objetivo de diminuir o viés cognitivo, buscando descobrir os anseios e necessidades do consumidor, para suportar o processo de tomada de decisão ou inovação. Este estudo apresenta uma proposta para mitigar a influência do viés cognitivo, a partir de técnicas de análise de dados, em busca de padrões que possam identificar as oportunidades para suportar o processo decisório ou a busca pela inovação. Neste trabalho foram utilizados dados não estruturados de 26.514 conversas telefônicas realizadas no período de 01/12/2016 a 31/12/2016, provenientes de uma empresa do mercado financeiro. A metodologia analítica consistiu na transcrição de voz para texto e no uso associado de técnicas de Text Mining e Análise de Redes Sociais. Os resultados obtidos permitiram identificar as principais demandas dos clientes na perspectiva de vendas, pedido de cancelamento e a razão da ineficiência das ofertas de novos produtos, a partir dos elementos de maior centralidade identificados nas redes de associação de palavras. Implica-se que o uso combinado de técnicas analíticas em dados não estruturados pode permitir a obtenção de achados com menor influência do viés cognitivo.
6

Big Data em conteúdo espontâneo não-estruturado da internet como estratégia organizacional de orientação para o mercado

Corrêa Junior, Dirceu Silva Mello 25 April 2018 (has links)
Submitted by JOSIANE SANTOS DE OLIVEIRA (josianeso) on 2018-09-25T15:42:43Z No. of bitstreams: 1 Dirceu Silva Mello Corrêa Junior_.pdf: 5130564 bytes, checksum: 9921c0e8eafdc5eb26cc6cf6211bdb01 (MD5) / Made available in DSpace on 2018-09-25T15:42:43Z (GMT). No. of bitstreams: 1 Dirceu Silva Mello Corrêa Junior_.pdf: 5130564 bytes, checksum: 9921c0e8eafdc5eb26cc6cf6211bdb01 (MD5) Previous issue date: 2018-04-25 / Nenhuma / O Big Data é uma realidade social, com crescente impacto nos negócios. Entretanto, uma pesquisa realizada com executivos americanos de grandes corporações identificou uma baixa capacidade no aproveitamento efetivo dessa oportunidade de inteligência competitiva em suas empresas. Ao aprofundar o entendimento desse contexto, a partir da perspectiva de Orientação para o Mercado, a presente dissertação apresentou uma análise exploratória sobre a atual capacidade de grandes empresas com atuação nacional em absorver valor do Big Data, focando sua atenção num tipo específico de conteúdo, chamado Dado Não-Estruturado. Como resultado, identificou-se que as empresas estudadas se encontram em um momento peculiar para a gestão moderna de Orientação para o Mercado, uma espécie de processo evolutivo e de transição na compreensão e aproveitamento desse dilúvio de dados. Tal momento de adaptação é ainda reforçado por uma tendência para o uso de dados mais espontâneos dos consumidores. Neste estudo inicialmente são apresentadas cinco dimensões desse momento peculiar, abordando sistematicamente quesitos relacionados à organização interna; fornecedores e perfis de investimentos; adaptações internas; entre outros achados estratégicos. Após, também é detalhada a atual caminhada na efetiva compreensão do Big Data, a partir das práticas possíveis identificadas nesse contexto empresarial. / Big Data is a social reality with growing business impact. However, a survey of US executives of large corporations identified a low capacity to effectively exploit this competitive intelligence opportunity in their companies. In order to deepen the understanding of this context, from the perspective of Market Orientation, the present dissertation presented an exploratory analysis about the current capacity of large companies with national performance in absorbing Big Data value, focusing their attention on a type of content, called Unstructured Data. As a result, it was identified that the companies studied are in a peculiar moment for the modern management of Market Orientation, a sort of evolutionary process and of transition in the understanding and use of this deluge of data. This moment of adaptation is further reinforced by a trend towards the use of more spontaneous data from consumers. In this study, five dimensions of this peculiar moment are presented, systematically addressing questions related to internal organization; suppliers and investment profiles; internal adaptations; among other strategic findings. Afterwards, the current path to the understanding of Big Data is also detailed, based on the possible practices identified in this business context.
7

Novas fontes de dados para inteligência analítica

Silva, João Gabriel Saraceni Lima da 28 February 2018 (has links)
Submitted by João Gabriel Saraceni Lima da Silva (joaosaraceni@id.uff.br) on 2018-03-28T14:50:00Z No. of bitstreams: 1 Joao Saraceni Dissertacao Revisado Banca _V04.pdf: 1375797 bytes, checksum: 36d698762a610b673b13e6a26444a31c (MD5) / Approved for entry into archive by Debora Nunes Ferreira (debora.nunes@fgv.br) on 2018-04-02T17:28:16Z (GMT) No. of bitstreams: 1 Joao Saraceni Dissertacao Revisado Banca _V04.pdf: 1375797 bytes, checksum: 36d698762a610b673b13e6a26444a31c (MD5) / Approved for entry into archive by Suzane Guimarães (suzane.guimaraes@fgv.br) on 2018-04-02T17:45:56Z (GMT) No. of bitstreams: 1 Joao Saraceni Dissertacao Revisado Banca _V04.pdf: 1375797 bytes, checksum: 36d698762a610b673b13e6a26444a31c (MD5) / Made available in DSpace on 2018-04-02T17:45:56Z (GMT). No. of bitstreams: 1 Joao Saraceni Dissertacao Revisado Banca _V04.pdf: 1375797 bytes, checksum: 36d698762a610b673b13e6a26444a31c (MD5) Previous issue date: 2018-02-28 / A diversificação das fontes de dados utilizadas em processos decisórios nas organizações é um dos elementos que fundamentam o conceito de big data, apontado como o futuro das aplicações de Inteligência Analítica. O desafio das organizações em trabalhar com dados não estruturados e dados externos torna-se importante para as que desejam evoluir suas iniciativas de Inteligência Analítica. A partir da revisão de literatura e entrevistas com profissionais que atuam neste campo, este trabalho explora quais as principais iniciativas para obtenção de novas fontes de dados em sistemas de informação de Inteligência Analítica. A abordagem metodológica utilizada foi o estudo de caso múltiplo. A pesquisa utilizou como perspectiva de análise a Teoria da Capacidade Absortiva, que oferece elementos para avaliar como a empresa obtém informações externas a ela e as utiliza no contexto organizacional, gerando valor a seu negócio. São discutidos os principais desafios para a diversificação das fontes de dados, que pode se dar em função da complexidade de diferentes tecnologias, fornecedores, integração de dados, entre outros fatores. Os resultados são apresentados explorando os constructos de Aquisição, Assimilação, Transformação e Utilização, presentes na teoria da Capacidade Absortiva, aplicado à diversificação das fontes de dados nas organizações. Foi possível notar que existem diferentes níveis de utilização de dados externos nas organizações, bem como diferentes arranjos organizacionais para consumir dados externos. As diferentes formas de consumir dados externos causam impacto na forma de alocação de investimentos, governança de dados, cultura organizacional, relacionada ao uso do dado e, por fim, na maturidade do uso de dados externos de forma sistêmica na organização. / The variety of data sources applied into decision-making processes in organizations is one of the factors that defines the concept of big data, indicated as the future of Business Intelligence & Analytics applications. Handle with not structured and/or external data diversifying data sources became important to organizations that evolve their BI&A initiatives. From the literature review and interviews with field professionals, this work explore the main initiatives of organizations to obtain new data sources in BI&A information systems. The methodology approach used is multiple case study. The research used the Absorptive Capacity theory as analytical perspective, which offers elements to evaluate how organization obtains external information and use it into organizational context. There are discussed the main challenges to diversifying data sources, such as the complexity of new technologies, suppliers, data integration, among others. The results are presented exploring the constructs Acquisition, Assimilation, Transformation and Explotation, built in Absorptive Capacity theory, applied to the diversification of data sources. It was possible to notice that there are different external and/or not structured data usage levels in organization, as well as different organizational arrangements for consuming external data. The ways of consuming external data have effects on the investment allocation, data governance, organizational culture related to the use of data, and ultimately on the maturity of external and/or not structured data usage in a systematic way in the organization.
8

Abordagem para integração automática de dados estruturados e não estruturados em um contexto Big Data / Approach for automatic integration of structured and unstructured data in a Big Data context

Keylla Ramos Saes 22 November 2018 (has links)
O aumento de dados disponíveis para uso tem despertado o interesse na geração de conhecimento pela integração de tais dados. No entanto, a tarefa de integração requer conhecimento dos dados e também dos modelos de dados utilizados para representá-los. Ou seja, a realização da tarefa de integração de dados requer a participação de especialistas em computação, o que limita a escalabilidade desse tipo de tarefa. No contexto de Big Data, essa limitação é reforçada pela presença de uma grande variedade de fontes e modelos heterogêneos de representação de dados, como dados relacionais com dados estruturados e modelos não relacionais com dados não estruturados, essa variedade de representações apresenta uma complexidade adicional para o processo de integração de dados. Para lidar com esse cenário é necessário o uso de ferramentas de integração que reduzam ou até mesmo eliminem a necessidade de intervenção humana. Como contribuição, este trabalho oferece a possibilidade de integração de diversos modelos de representação de dados e fontes de dados heterogêneos, por meio de uma abordagem que permite o do uso de técnicas variadas, como por exemplo, algoritmos de comparação por similaridade estrutural dos dados, algoritmos de inteligência artificial, que através da geração do metadados integrador, possibilita a integração de dados heterogêneos. Essa flexibilidade permite lidar com a variedade crescente de dados, é proporcionada pela modularização da arquitetura proposta, que possibilita que integração de dados em um contexto Big Data de maneira automática, sem a necessidade de intervenção humana / The increase of data available to use has piqued interest in the generation of knowledge for the integration of such data bases. However, the task of integration requires knowledge of the data and the data models used to represent them. Namely, the accomplishment of the task of data integration requires the participation of experts in computing, which limits the scalability of this type of task. In the context of Big Data, this limitation is reinforced by the presence of a wide variety of sources and heterogeneous data representation models, such as relational data with structured and non-relational models with unstructured data, this variety of features an additional complexity representations for the data integration process. Handling this scenario is required the use of integration tools that reduce or even eliminate the need for human intervention. As a contribution, this work offers the possibility of integrating diverse data representation models and heterogeneous data sources through the use of varied techniques such as comparison algorithms for structural similarity of the artificial intelligence algorithms, data, among others. This flexibility, allows dealing with the growing variety of data, is provided by the proposed modularized architecture, which enables data integration in a context Big Data automatically, without the need for human intervention
9

Abordagem para integração automática de dados estruturados e não estruturados em um contexto Big Data / Approach for automatic integration of structured and unstructured data in a Big Data context

Saes, Keylla Ramos 22 November 2018 (has links)
O aumento de dados disponíveis para uso tem despertado o interesse na geração de conhecimento pela integração de tais dados. No entanto, a tarefa de integração requer conhecimento dos dados e também dos modelos de dados utilizados para representá-los. Ou seja, a realização da tarefa de integração de dados requer a participação de especialistas em computação, o que limita a escalabilidade desse tipo de tarefa. No contexto de Big Data, essa limitação é reforçada pela presença de uma grande variedade de fontes e modelos heterogêneos de representação de dados, como dados relacionais com dados estruturados e modelos não relacionais com dados não estruturados, essa variedade de representações apresenta uma complexidade adicional para o processo de integração de dados. Para lidar com esse cenário é necessário o uso de ferramentas de integração que reduzam ou até mesmo eliminem a necessidade de intervenção humana. Como contribuição, este trabalho oferece a possibilidade de integração de diversos modelos de representação de dados e fontes de dados heterogêneos, por meio de uma abordagem que permite o do uso de técnicas variadas, como por exemplo, algoritmos de comparação por similaridade estrutural dos dados, algoritmos de inteligência artificial, que através da geração do metadados integrador, possibilita a integração de dados heterogêneos. Essa flexibilidade permite lidar com a variedade crescente de dados, é proporcionada pela modularização da arquitetura proposta, que possibilita que integração de dados em um contexto Big Data de maneira automática, sem a necessidade de intervenção humana / The increase of data available to use has piqued interest in the generation of knowledge for the integration of such data bases. However, the task of integration requires knowledge of the data and the data models used to represent them. Namely, the accomplishment of the task of data integration requires the participation of experts in computing, which limits the scalability of this type of task. In the context of Big Data, this limitation is reinforced by the presence of a wide variety of sources and heterogeneous data representation models, such as relational data with structured and non-relational models with unstructured data, this variety of features an additional complexity representations for the data integration process. Handling this scenario is required the use of integration tools that reduce or even eliminate the need for human intervention. As a contribution, this work offers the possibility of integrating diverse data representation models and heterogeneous data sources through the use of varied techniques such as comparison algorithms for structural similarity of the artificial intelligence algorithms, data, among others. This flexibility, allows dealing with the growing variety of data, is provided by the proposed modularized architecture, which enables data integration in a context Big Data automatically, without the need for human intervention

Page generated in 0.5109 seconds