• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 957
  • 31
  • 30
  • 23
  • 23
  • 23
  • 14
  • 12
  • 11
  • 9
  • 9
  • 9
  • 1
  • Tagged with
  • 1014
  • 1014
  • 266
  • 200
  • 191
  • 191
  • 172
  • 128
  • 123
  • 110
  • 110
  • 106
  • 105
  • 101
  • 87
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

Jornalismo de dados na web : estudo da produção de sentido na infografia do Blog do Estadão Dados e do La Nación Data Blog /

Rodrigues, Kelly De Conti. January 2016 (has links)
Orientador: Eliza Bachega Casadei / Banca: Mauro de Souza Ventura / Banca: Elizabeth Nicolau Saad Corrêa / Resumo: O estudo busca compreender a emergência da infografia em base de dados no jornalismo digital, a partir da investigação da estruturação discursiva dos dados textuais e imagéticos. Para isso, a análise empírica foca os casos do Blog Estadão Dados e La Nación Data Blog. Inicialmente, pretende-se definir, a partir de pesquisa bibliográfica e da análise dos casos específicos, o que pode ser considerado jornalismo de banco de dados, bem como as técnicas de composição e a evolução histórica da área da infografia. A pesquisa se guia, sobretudo, pela metodologia da análise do discurso para investigar a construção de sentido na organização de dados estatísticos no jornalismo digital, focando os casos das páginas do Blog Estadão Dados e La Nación Data Blog. A análise contempla as técnicas de organização dos infográficos na internet que são utilizadas para produção dos conteúdos gerados a partir de dados estatísticos, incluindo aqueles apresentados em tabelas e também os que estão dispostos em ilustrações, como mapas, gráficos e outros recursos imagéticos. Foram estudados como os processos de inovação tecnológica impactaram na produção e transmissão de mensagens na organização infográfica na internet analisando o impacto de recursos visuais e interativos que contribuem para a produção de sentido. A presente pesquisa espera contribuir para a reflexão sobre os efeitos semânticos e os processos argumentativos nos objetos selecionados, questionando a visão de narrativa objetiva e de interpr... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: This research has the intention to understand the emergence of infographics that use databases in digital journalism. We will study the different composition techniques and effects of meaning in the combination between text and image. For this, the empirical analysis will focus on the cases of Estado Data Base Blog and La Nación Data Bolog. Initially, we intend to define, from literature search and analysis of specific cases, what can be considered data-driven journalism. The historical evolution of kinds of use of infographics in journalism will also be studied. The research users the methodology of discourse analysis to investigate the construction of meaning in the organization of statistical data in digital journalism, focusing on the cases of Blog do Estadão Dados and La Nación Data Blog. The analysis will include the technical organization of ingographics that are used for production of content generated from statistical data, including those organized in tables and also those who are willing to graphics, such as charts and any other pictorial resources. We will study how the processes of technological innovation impacted the production and transmission of messages on the internet, specially focusing organization of infographics, analyzing the impact of visual and interactive features that contribute to the production of meaning. This research hopes to contribute to studies about semantic effects and argumentatitve processes, challenging the point of view of unique interpretation customarily attributed to numerical data / Mestre
322

Nubbe natural products, source of molecular diversity for the design of new anticancer agents /

Valli, Marilia. January 2014 (has links)
Orientador: Vanderlan da Silva Bolzani / Co-orientador: Adriano Defini Andricopulo / Banca: Ian Castro-Gamboa / Banca: Flávio da Silva Emery / Banca: Norberto Peporine Lopes / Banca: Sylvie Michel / Resumo: Os produtos naturais são uma importante fonte de inspiração para o desenvolvimento de novos fármacos. O presente trabalho visou identificar produtos naturais bioativos que pudessem ser usados como modelo para o planejamento de novos compostos com propriedades antitumorais. A falta de dados organizados é ainda uma das dificuldades das áreas de produtos naturais e química medicinal. Portanto, a compilação de dados disponíveis sobre os metabólitos secundários sejam de espécies vegetais ou de outras fontes é de grande valor. Esse fato nos motivou a propor como primeiro objetivo deste projeto, a criação de uma base de dados contendo informações botânicas, químicas e biológicas dos metabólitos secundários obtidos e publicados pelo NuBBE durante 15 anos. A base de dados poderá ser útil não apenas para a pesquisa em química de produtos naturais atual do grupo, mas para todos interessados em estudos de planejamento de moléculas bioativas, metabolômica e dereplication, já que está disponível para acesso livre na internet. Um artigo científico descrevendo a criação da base de dados foi publicado na revista Journal of Natural Products em 2013. Os compostos da base de dados foram utilizados como fonte de moléculas para uma triagem virtual baseada na estrutura do receptor com a proteína tubulina para a identificação de moduladores dessa proteína. Baseado nos resultados de triagem virtual foi realizada a avaliação biológica in vitro das substâncias utilizando a proteína tubulina e ensaios de migração celular (wound healing e câmara de Boyden). Os ensaios biológicos indicaram uma série de guanidinas e a piplartina como principais compostos bioativos dentre os avaliados. A piplartina foi selecionada como modelo para o planejamento de novos compostos, pois apresentou relevante inibição de migração celular, além de estar descrito na literatura como citotóxico e... / Abstract: Natural products are an important source for the design of new drugs. This thesis aimed at the identification of bioactive natural products to be used as models for the design of compounds with antitumor properties. The lack of organized data is still one of the drawbacks in the natural products and medicinal chemistry area. Therefore, the compilation of accessible data of secondary metabolites from plant species or other sources is of great value, especially for the identification of molecular leads. This fact inspired us to propose as first objective of this thesis, the creation of the NuBBE database (NuBBEDB) containing botanical, chemical, and biological information of the secondary metabolites obtained and published by NuBBE in 15 years. This database can be useful not only for the current research in natural products of the group, but for the scientific society interested in bioactive compounds, metabolomics, and dereplication. A scientific paper describing the creation of the database was published in the Journal of Natural Products in 2013. NuBBEDB compounds were used as molecular source for the virtual screening with the protein tubulin. Based on the results of the virtual screening the biological evaluation of selected compounds was performed with the protein tubulin, and cell migration assays (Wound Healing and Boyden Chamber). The results of the biological assays indicated a series of guanidines and piplartine as active compounds. Piplartine was selected to be a model for the design of new compounds because it inhibited cell migration and is described in the literature as cytotoxic and selective, an interesting profile for this project. A series of 5 analogue compounds were designed and synthesized aiming at a better understanding of structure activity relationship and improvement of the biological activity. The compound designed by molecular simplification showed activity in the cell... / Doutor
323

Proposta de um banco de dados biológicos para pesquisa do Mero (Epinephelus itajara)

Suzuki, Danielle Forbeci 09 September 2014 (has links)
CAPES / O aumento da coleta de dados biológicos e a ausência de uma padronização em pesquisas científicas requer uma melhor gestão da informação. O objetivo desta dissertação é propor um modelo de banco de dados para os pesquisadores do mero no Brasil, visando a melhor análise e centralização da informação. Na seleção de atributos foram utilizados conhecimentos das Áreas de Biologia e de Informática em uma abordagem multiprofissional. Foi pesquisada e elaborada uma seleção de atributos retirados da literatura científica especializada nacional e internacional, e validados mediante a aplicação de uma entrevista com especialista envolvido em pesquisas com o peixe Mero (Epinephelus Itajara). Ao final da pesquisa foram selecionados atributos que agrupados em tabelas foram usados na criação do banco de dados, nele foram inseridas as informações biológicas, ecológicas, geográficas coletadas de artigos e com especialistas. Com a criação deste modelo de banco de dados busca-se estabelecer uma integração entre todos os pesquisadores envolvidos, a fim de se criar uma base única de armazenamento e consulta em tempo real das informações. Constata-se que, com a padronização na coleta de dados e informações sobre esta espécie, pode-se promover um melhor status de avaliação e gestão de conservação da espécie. / The increase in data collect of biological and the lack of standardization in scientific research requires improved information management. The objective of this dissertation is to propose a model database for further analysis and centralization of information for brasilian scientists of mero. In the selection of attributes were used knowledge of the areas of biology and of informatics in a multidisciplinary approach. Was researched and was compiled a selection of attributes removed from from the specialized scientific literature national and international, and validated by the application of an interview with experts involved in research with the fish Mero (Grouper Itajara). At the end of the survey were selected attributes that grouped into tables were used in the creation of the database, it biological, ecological, geographical information collected from articles and with experts. With the creation of this database seeks to establish integration between all of the researchers involved in order to create a single query and storage base in real time information. It is noted that, with the standardization in the collection of data and information on this species, we can promote a better status of evaluation and management for the conservation of species.
324

Comparação da redução de dimensionalidade de dados usando seleção de atributos e conceito de framework: um experimento no domínio de clientes

Macedo, Dayana Carla de 05 March 2012 (has links)
Os dados de clientes nas empresas são coletados e armazenados em um Banco de Dados e sua administração requer o uso de uma ferramenta computacional. A construção de um modelo de Perfil de Cliente a partir de um banco de dados requer o processo descoberta de conhecimento em uma base de dados. Essa busca de conhecimento e extração de padrões das bases de dados demanda a utilização de um aplicativo com capacidade analítica para extrair informações que estão implícitas e desconhecidas, porém, potencialmente úteis. Um Banco de Dados por meio do processo de recuperação é capaz de obter informações dos clientes, mas a dificuldade é de que esses sistemas não geram padrões. Estes Bancos de dados contêm uma quantidade expressiva de atributos, os quais podem prejudicar o processo de extração de padrões. Assim, métodos de redução de dimensionalidade são empregados para eliminar atributos redundantes e melhorar o desempenho do processo de aprendizagem tanto na velocidade quanto na taxa de acerto. Também identificam um subconjunto de atributos relevantes e ideal para uma determinada base de dados. Os dois métodos de redução utilizados nesta pesquisa foram: Seleção de Atributos e Conceitos de Framework, até então não aplicados no domínio de Clientes. O Método de Seleção de Atributos tem o intuito de identificar os atributos relevantes para uma tarefa alvo na Mineração de Dados, levando em conta os atributos originais. Já os Conceitos de Framework promovem sucessivos refinamentos nos atributos que podem levar a construção de um modelo mais consistente em um domínio de aplicação. A presente pesquisa aplicou esses dois métodos para comparação destes no domínio Clientes,usando três bases de dados chamadas: Stalog, Customere Insurance. Identificaram-se cinco etapas principais para a comparação dos dois métodos de redução: Preparação das Bases de Dados, Escolha das Bases de Dados, Aplicação dos Métodos de Seleção de Atributos e dos Conceitos de Framework, Execução dos Algoritmos de Classificação e Avaliação dos Resultados. Com a operacionalização das cinco etapas, compostas por vários processos, foi possível comparar os dois métodos e identificar os melhores algoritmos que aumentam a taxa de acerto dos algoritmos classificadores e consequentemente gerar os atributos mais relevantes para uma base de dados, aumentando o desempenho do processo de aprendizagem. Desta forma, com os melhores subconjuntos identificados é possível submetê-los a aplicação de tarefas da Mineração de Dados as quais permitem a construção de regras que ajudam na Gestão do Conhecimento do Perfil do Cliente. / Information related to the Customers at companies are collected and stored in databases. The administration of these data often requires the use of a computational tool. The building of a Customer Profile model from the database requires the process of knowledge discovery in databases. This search of knowledge and extraction patterns of the databases demands the use of a tool with analytics capability to extract information that are implicit, and are previously unknown, but, potentially useful. A data base through of the recovery of date, obtain information of the Customers, but the difficulty is in the fact of these systems do not generate patterns. However, these databases have an expressive amount of data, where redundant information it prejudices this process of patterns extraction. Thus, dimensionality reduction methods are employed to remove redundant information and improve the performance of the learning processes the speed as in the performance of classifier. Furthermore, it identifies a subset of relevant and ideal attributes for a determinate database. The two methods of dimensionality reduction used in this search were: Attribute Selection and Framework Concepts which theretofore were not applied in Customer domain. The Attribute Selection Method has as goal to identify the relevant attributes for a target task, taking into account the original attributes. Considering the Framework Concepts it promotes successive refinements on the attributes where can tale he building of a model more consistent application domain. The present search applied these two methods in order to comparison of these in the Customer domain, using three databases called: Stalog, Customer e Insurance. This paper identified five main steps in order to comparison of the two methods: Preparation of Database, Choice of Database, Application of the Attributes Selection and Framework Concepts Methods, Execution of the Algorithms of the Classification and Evaluation of the Results. With the implementation of theses five steps composed of several processes, it was possible to compare the two methods and identify the best classifiers algorithms and consequently to create the attributes more relevant for a database, increasingthe performance of the learning process. Of this way, with the best subset identified is possible submit them to the application of the Data Mining Tasks which allow the building of rules that help the Knowledge Management of Customer Profile.
325

Avaliação dos impactos de um novo paradigma de virtualização de banco de dados

Lange, Timoteo Alberto Peters January 2013 (has links)
Made available in DSpace on 2014-01-23T01:01:07Z (GMT). No. of bitstreams: 1 000453303-Texto+Completo-0.pdf: 5877503 bytes, checksum: 864ef14a6664aa9942d6074775eee9e7 (MD5) Previous issue date: 2013 / Recent studies have demonstrated advantages in using Data Base Management System (DBMS) in virtual environments, like the consolidation of several DBMS isolated by virtual machines on a single physical machine to reduce maintenance costs and energy consumption. Furthermore, live migration can improve database availability, allowing transparent maintenance operations on host machines. However, there are issues that still need to be addressed, like overall performance degradation of the DBMS when running in virtual environments and connections instabilities during a live migration. In this context, new virtualization techniques are emerging, like the virtual database, which is considered a less intrusive alternative for the traditional database virtualization over virtual machines. This research analyzes aspects of this new virtualization approach, like performance and connection stability during a database migration process and its isolation capabilities. This evaluation shows very promising results compared to the traditional approach over virtual machines, including a more efficient and stable live migration, maintaining the required isolation characteristics for a virtualized DBMS. / Estudos recentes demonstraram vantagens na utilização de Sistemas Gerenciadores de Banco de Dados (SGBD) em ambientes virtuais, como a consolidação de vários SGBDs isolados por máquinas virtuais em uma única máquina física para reduzir os custos de manutenção e consumo de energia. Além disso, a migração em tempo real pode melhorar a disponibilidade do banco de dados, permitindo que as operações de manutenção sejam transparentes para os usuários. No entanto, há questões que ainda precisam ser resolvidas, como a degradação do desempenho do SGBD quando executado em ambientes virtuais e a instabilidade das conexões durante a etapa do migração do serviço. Neste contexto, novas técnicas de virtualização que estão surgindo, como o banco de dados virtual, podem ser consideradas uma alternativa menos intrusiva para a virtualização tradicional de SGBD sobre máquinas virtuais. Esta pesquisa analisa os aspectos desta nova abordagem de virtualização, como o desempenho, estabilidade de conexão durante um processo de migração de banco de dados e a capacidade de isolamento. Este trabalho mostra resultados muito promissores em comparação com a abordagem tradicional sobre máquinas virtuais, incluindo uma migração em tempo real mais eficiente e estável, mantendo as características de isolamento necessários para um SGBD virtualizado.
326

Uma abordagem lógica para o gerenciamento de identificadores de objetos em sistemas gerenciadores de banco de dados não convencionais /

Ferrizzi, André Cid. January 2010 (has links)
Orientador: Carlos Roberto Valêncio / Banca: Rogéria Cristiane Gratão de Souza / Banca: Marilde Terezinha Prado Santos / Resumo: Os Sistemas Gerenciadores de Banco de Dados Não Convencionais são utilizados por aplicações que necessitam de e ciência no gerenciamento de objetos complexos. Um dos conceitos fundamentais nestes sistemas e o de identidade de objetos, pois em uma base de dados cada objeto possui um identificador unico que e utilizado para acessá-lo e referenciá-lo em relacionamentos com outros objetos. A implementação de identidade pode ser feita com OIDs físicos ou OIDs lógicos. A abordagem física apresenta o problema de fragmentação da base de dados, pois os OIDs são formados diretamente pelos endereções dos objetos. Já a abordagem lógica não tem este problema, e as técnicas são arvore-B, hashing e mapeamento direto. Cada uma destas abordagens apresenta um determinado problema: arvore-B pode ocupar muita mem oria e o tempo de mapeamento possui complexidade logar tmica; em hashing ocorrem colisões pois o conhecimento prévio do tamanho da tabela hash se torna inviável em base de dados, que crescem de maneira imprevisível; e por ultimo, mapeamento direto, que apesar de possuir o menor tempo de mapeamento dentre as três abordagens, não permite a relocação de todas as páginas da base de dados. Uma outra abordagem lógica é utilizada no Núcleo Gerenciador de Dados Multimídia (NUGEM), o qual vem sendo desenvolvido junto ao Grupo de Banco de Dados do IBILCE de São José do Rio Preto com o intuito de gerenciar dados não convencionais. Neste trabalho e proposta uma nova estrutura e funcionalidades para a t ecnica de gerenciamento de OIDs, cuja experimenta cão foi efetivada junto ao NUGEM, caracterizando uma nova abordagem com um menor tempo de manipulação dos OIDs, a qual pode ser nomeada de mapeamento indireto. E tamb em avaliado o esgotamento de OIDs, comprovando-se que este não representa um problema para a abordagem de mapeamento indireto. Em comparaçãocom as abordagens... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Non-Conventional Database Management Systems are used for applications that require e cient management of complex objects. One fundamental concept of these systems is object identity, because in a database each object has a unique identi er that is used to access it and reference it in relationships with another objects. The implementation of identity can be made with physical OIDs or logical OIDs. The physical approach presents the problem of fragmenting the database, because the OIDs are formed directly by addresses of objects. The logical approach does not have this problem, and the techniques are B-tree, hashing and direct mapping. Each of these approaches presents a particular problem: B-tree can occupy a lot of memory and its mapping time is logarithmic, in hashing collisions occur because the prior knowledge of the table size becomes a problem in databases, which grow in unpredictable ways, and nally, direct mapping, which despite having the smallest mapping time of the three approaches, does not allow the relocation of all pages in the database. Another logical approach is used in the Multimedia Data Manager Kernel (NUGEM), which is being developed by the Database Group at IBILCE, S~ao Jos e do Rio Preto, S~ao Paulo, Brazil, in order to manage non-conventional data. This work proposes a new structure and features for the OID management, which was tested in NUGEM, featuring a new approach with a shorter handling time of OIDs, that can be named indirect mapping. It is also evaluated the exhaustion of OIDs, proving that this is not a problem for the indirect mapping approach. Compared with the approaches of the literature, the approach of indirect mapping has constant mapping time, uses less memory than the B-tree approach, has no problems like collisions and, unlike direct mapping, allows total exibility for relocating pages in the database / Mestre
327

Proposta de um banco de dados biológicos para pesquisa do Mero (Epinephelus itajara)

Suzuki, Danielle Forbeci 09 September 2014 (has links)
CAPES / O aumento da coleta de dados biológicos e a ausência de uma padronização em pesquisas científicas requer uma melhor gestão da informação. O objetivo desta dissertação é propor um modelo de banco de dados para os pesquisadores do mero no Brasil, visando a melhor análise e centralização da informação. Na seleção de atributos foram utilizados conhecimentos das Áreas de Biologia e de Informática em uma abordagem multiprofissional. Foi pesquisada e elaborada uma seleção de atributos retirados da literatura científica especializada nacional e internacional, e validados mediante a aplicação de uma entrevista com especialista envolvido em pesquisas com o peixe Mero (Epinephelus Itajara). Ao final da pesquisa foram selecionados atributos que agrupados em tabelas foram usados na criação do banco de dados, nele foram inseridas as informações biológicas, ecológicas, geográficas coletadas de artigos e com especialistas. Com a criação deste modelo de banco de dados busca-se estabelecer uma integração entre todos os pesquisadores envolvidos, a fim de se criar uma base única de armazenamento e consulta em tempo real das informações. Constata-se que, com a padronização na coleta de dados e informações sobre esta espécie, pode-se promover um melhor status de avaliação e gestão de conservação da espécie. / The increase in data collect of biological and the lack of standardization in scientific research requires improved information management. The objective of this dissertation is to propose a model database for further analysis and centralization of information for brasilian scientists of mero. In the selection of attributes were used knowledge of the areas of biology and of informatics in a multidisciplinary approach. Was researched and was compiled a selection of attributes removed from from the specialized scientific literature national and international, and validated by the application of an interview with experts involved in research with the fish Mero (Grouper Itajara). At the end of the survey were selected attributes that grouped into tables were used in the creation of the database, it biological, ecological, geographical information collected from articles and with experts. With the creation of this database seeks to establish integration between all of the researchers involved in order to create a single query and storage base in real time information. It is noted that, with the standardization in the collection of data and information on this species, we can promote a better status of evaluation and management for the conservation of species.
328

Comparação da redução de dimensionalidade de dados usando seleção de atributos e conceito de framework: um experimento no domínio de clientes

Macedo, Dayana Carla de 05 March 2012 (has links)
Os dados de clientes nas empresas são coletados e armazenados em um Banco de Dados e sua administração requer o uso de uma ferramenta computacional. A construção de um modelo de Perfil de Cliente a partir de um banco de dados requer o processo descoberta de conhecimento em uma base de dados. Essa busca de conhecimento e extração de padrões das bases de dados demanda a utilização de um aplicativo com capacidade analítica para extrair informações que estão implícitas e desconhecidas, porém, potencialmente úteis. Um Banco de Dados por meio do processo de recuperação é capaz de obter informações dos clientes, mas a dificuldade é de que esses sistemas não geram padrões. Estes Bancos de dados contêm uma quantidade expressiva de atributos, os quais podem prejudicar o processo de extração de padrões. Assim, métodos de redução de dimensionalidade são empregados para eliminar atributos redundantes e melhorar o desempenho do processo de aprendizagem tanto na velocidade quanto na taxa de acerto. Também identificam um subconjunto de atributos relevantes e ideal para uma determinada base de dados. Os dois métodos de redução utilizados nesta pesquisa foram: Seleção de Atributos e Conceitos de Framework, até então não aplicados no domínio de Clientes. O Método de Seleção de Atributos tem o intuito de identificar os atributos relevantes para uma tarefa alvo na Mineração de Dados, levando em conta os atributos originais. Já os Conceitos de Framework promovem sucessivos refinamentos nos atributos que podem levar a construção de um modelo mais consistente em um domínio de aplicação. A presente pesquisa aplicou esses dois métodos para comparação destes no domínio Clientes,usando três bases de dados chamadas: Stalog, Customere Insurance. Identificaram-se cinco etapas principais para a comparação dos dois métodos de redução: Preparação das Bases de Dados, Escolha das Bases de Dados, Aplicação dos Métodos de Seleção de Atributos e dos Conceitos de Framework, Execução dos Algoritmos de Classificação e Avaliação dos Resultados. Com a operacionalização das cinco etapas, compostas por vários processos, foi possível comparar os dois métodos e identificar os melhores algoritmos que aumentam a taxa de acerto dos algoritmos classificadores e consequentemente gerar os atributos mais relevantes para uma base de dados, aumentando o desempenho do processo de aprendizagem. Desta forma, com os melhores subconjuntos identificados é possível submetê-los a aplicação de tarefas da Mineração de Dados as quais permitem a construção de regras que ajudam na Gestão do Conhecimento do Perfil do Cliente. / Information related to the Customers at companies are collected and stored in databases. The administration of these data often requires the use of a computational tool. The building of a Customer Profile model from the database requires the process of knowledge discovery in databases. This search of knowledge and extraction patterns of the databases demands the use of a tool with analytics capability to extract information that are implicit, and are previously unknown, but, potentially useful. A data base through of the recovery of date, obtain information of the Customers, but the difficulty is in the fact of these systems do not generate patterns. However, these databases have an expressive amount of data, where redundant information it prejudices this process of patterns extraction. Thus, dimensionality reduction methods are employed to remove redundant information and improve the performance of the learning processes the speed as in the performance of classifier. Furthermore, it identifies a subset of relevant and ideal attributes for a determinate database. The two methods of dimensionality reduction used in this search were: Attribute Selection and Framework Concepts which theretofore were not applied in Customer domain. The Attribute Selection Method has as goal to identify the relevant attributes for a target task, taking into account the original attributes. Considering the Framework Concepts it promotes successive refinements on the attributes where can tale he building of a model more consistent application domain. The present search applied these two methods in order to comparison of these in the Customer domain, using three databases called: Stalog, Customer e Insurance. This paper identified five main steps in order to comparison of the two methods: Preparation of Database, Choice of Database, Application of the Attributes Selection and Framework Concepts Methods, Execution of the Algorithms of the Classification and Evaluation of the Results. With the implementation of theses five steps composed of several processes, it was possible to compare the two methods and identify the best classifiers algorithms and consequently to create the attributes more relevant for a database, increasingthe performance of the learning process. Of this way, with the best subset identified is possible submit them to the application of the Data Mining Tasks which allow the building of rules that help the Knowledge Management of Customer Profile.
329

Metodologia de mineração de dados para detecção de desvio de comportamento do uso de energia em concessionária de energia elétrica

Minussi, Marlon Mendes January 2008 (has links)
Made available in DSpace on 2013-08-07T18:52:59Z (GMT). No. of bitstreams: 1 000405417-Texto+Completo-0.pdf: 1389351 bytes, checksum: 6f00a0ed9add46a5b7f8106681a81fdd (MD5) Previous issue date: 2008 / With opening of the market of electric energy and increased competitiveness in the Brazilian electric sector, the energy companies seek tools to minimize losses and maximize their commercial profits. In order to have a balance it was developed a data mining method to discover the bad user behavior of the use of energy in electrical energy company. The less is lost, less needs to be generated and less natural resources are wasted. Stages of review and evaluation of data, as well as construction of a Data Warehouse more appropriate for the development of this work were accomplished. Customers Load curves were analyzed and through this analysis there was the profile of consumption of these customers and through this analysis the data mining algorithms are applied. The association algorithm provides indicators pattems of consumers profile besides a decision tree and Bayesianos Classifyings. The results validate the developed and implemented method allowing their use in an electric energy company being used as another tool for GLD to help and add to the existing actions in the company. / Com abertura do mercado de energia elétrica e o aumento da competitividade no setor elétrico brasileiro, as concessionárias de energia buscam ferramentas para minimizar as perdas comerciais e maximizar seus lucros. Visando solucionar este problema foi desenvolvido um método de mineração de dados para detecção de desvio de comportamento no uso de energia em concessionária de energia elétrica. Pois quanto menos perde-se, menos precisa ser gerado, e menos se desperdiça recursos naturais. Na elaboração do método compreendeu etapas de análise e avaliação dos dados, assim como construção de um Data Warehouse mais adequado para o desenvolvimento deste trabalho. Foram analisadas curvas de cargas dos clientes e através dessa análise observou-se o perfil de consumo dos mesmos, embasados na análise foram aplicados os algoritmos de mineração de dados, como o algoritmo de associação Apriori para fornecer padrões de indicadores de perfil dos consumidores bem como os algoritmos de Árvore de Decisão e Classificadores Bayesianos. Os resultados validam o método desenvolvido e implementado permitindo sua utilização em uma concessionária de energia elétrica sendo utilizado como mais uma ferramenta de GLD para auxiliar e somar-se a ações já existentes na concessionária.
330

Uma abordagem lógica para o gerenciamento de identificadores de objetos em sistemas gerenciadores de banco de dados não convencionais

Ferrizzi, André Cid [UNESP] 21 May 2010 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:29:41Z (GMT). No. of bitstreams: 0 Previous issue date: 2010-05-21Bitstream added on 2014-06-13T18:39:30Z : No. of bitstreams: 1 ferrizzi_ac_me_sjrp.pdf: 598030 bytes, checksum: 77b6ef0379d56ab11ae68873cafa2f56 (MD5) / Os Sistemas Gerenciadores de Banco de Dados Não Convencionais são utilizados por aplicações que necessitam de e ciência no gerenciamento de objetos complexos. Um dos conceitos fundamentais nestes sistemas e o de identidade de objetos, pois em uma base de dados cada objeto possui um identificador unico que e utilizado para acessá-lo e referenciá-lo em relacionamentos com outros objetos. A implementação de identidade pode ser feita com OIDs físicos ou OIDs lógicos. A abordagem física apresenta o problema de fragmentação da base de dados, pois os OIDs são formados diretamente pelos endereções dos objetos. Já a abordagem lógica não tem este problema, e as técnicas são arvore-B, hashing e mapeamento direto. Cada uma destas abordagens apresenta um determinado problema: arvore-B pode ocupar muita mem oria e o tempo de mapeamento possui complexidade logar tmica; em hashing ocorrem colisões pois o conhecimento prévio do tamanho da tabela hash se torna inviável em base de dados, que crescem de maneira imprevisível; e por ultimo, mapeamento direto, que apesar de possuir o menor tempo de mapeamento dentre as três abordagens, não permite a relocação de todas as páginas da base de dados. Uma outra abordagem lógica é utilizada no Núcleo Gerenciador de Dados Multimídia (NUGEM), o qual vem sendo desenvolvido junto ao Grupo de Banco de Dados do IBILCE de São José do Rio Preto com o intuito de gerenciar dados não convencionais. Neste trabalho e proposta uma nova estrutura e funcionalidades para a t ecnica de gerenciamento de OIDs, cuja experimenta cão foi efetivada junto ao NUGEM, caracterizando uma nova abordagem com um menor tempo de manipulação dos OIDs, a qual pode ser nomeada de mapeamento indireto. E tamb em avaliado o esgotamento de OIDs, comprovando-se que este não representa um problema para a abordagem de mapeamento indireto. Em comparaçãocom as abordagens... / Non-Conventional Database Management Systems are used for applications that require e cient management of complex objects. One fundamental concept of these systems is object identity, because in a database each object has a unique identi er that is used to access it and reference it in relationships with another objects. The implementation of identity can be made with physical OIDs or logical OIDs. The physical approach presents the problem of fragmenting the database, because the OIDs are formed directly by addresses of objects. The logical approach does not have this problem, and the techniques are B-tree, hashing and direct mapping. Each of these approaches presents a particular problem: B-tree can occupy a lot of memory and its mapping time is logarithmic, in hashing collisions occur because the prior knowledge of the table size becomes a problem in databases, which grow in unpredictable ways, and nally, direct mapping, which despite having the smallest mapping time of the three approaches, does not allow the relocation of all pages in the database. Another logical approach is used in the Multimedia Data Manager Kernel (NUGEM), which is being developed by the Database Group at IBILCE, S~ao Jos e do Rio Preto, S~ao Paulo, Brazil, in order to manage non-conventional data. This work proposes a new structure and features for the OID management, which was tested in NUGEM, featuring a new approach with a shorter handling time of OIDs, that can be named indirect mapping. It is also evaluated the exhaustion of OIDs, proving that this is not a problem for the indirect mapping approach. Compared with the approaches of the literature, the approach of indirect mapping has constant mapping time, uses less memory than the B-tree approach, has no problems like collisions and, unlike direct mapping, allows total exibility for relocating pages in the database

Page generated in 0.1835 seconds