• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 126
  • 5
  • Tagged with
  • 131
  • 131
  • 53
  • 25
  • 21
  • 19
  • 17
  • 17
  • 16
  • 15
  • 14
  • 13
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Modelagem In silico de propriedades farmacocinéticas para a avaliação de candidatos a novos fármacos / Pharmacokinetic Properties In Silico Modeling for New Chemical Entities Evaluation.

Moda, Tiago Luiz 30 August 2011 (has links)
Os processos farmacocinéticos de absorção, distribuição, metabolismo e excreção (ADME), têm sido identificados como as principais causas do insucesso de candidatos a fármacos em estágios avançados de desenvolvimento clínico. As metodologias modernas de modelagem in silico de propriedades farmacocinéticas estão integradas ao processo de planejamento de fármacos, sendo de extremo valor na identificação e seleção de novas entidades químicas candidatas a fármacos. Esta área emergente está atraindo grande atenção da indústria farmacêutica mundial, que tem integrado a otimização de múltiplas propriedades farmacodinâmicas e farmacocinéticas em todos os estágios de projetos de pesquisa e desenvolvimento (P&D). As propriedades farmacocinéticas podem ser estudadas através do uso de métodos in silico como o estudo das relações quantitativas entre a estrutura e atividade (QSAR), ou estrutura e propriedade (QSPR), entre outros. O trabalho desenvolvido nesta tese de doutorado teve como importante objetivo estudar as relações quantitativas entre a estrutura química e propriedades farmacocinéticas como absorção intestinal, metabolismo de primeira passagem mediado pelo CYP, permeabilidade da barreira hematoencefálica, bem como eventos de extremo interesse que as influenciem como a inibição da glicoproteína-P e solubilidade aquosa. Para a realização deste trabalho, conjuntos padrões de dados foram organizados para as propriedades farmacocinéticas contendo a informação qualificada sobre a estrutura química e a propriedade alvo correspondente. Os conjuntos de dados criados formaram as bases científicas para o desenvolvimento dos modelos preditivos empregando o método holograma QSAR (HQSAR). Os modelos finais de HQSAR gerados neste trabalho possuem elevada consistência interna e externa, apresentando bom poder de correlação e predição das propriedades alvo. Os modelos desenvolvidos, assim como os dados farmacocinéticos coletados, foram disponibilizados para acesso livre através da internet na base de dados PK/DB (www.pkdb.ifsc.usp.br). Devido à simplicidade, robustez e consistência, estes modelos são guias úteis em Química Medicinal nos estágios iniciais do processo de descoberta e desenvolvimento de fármacos. / The pharmacokinetic (PK) processes of absorption, distribution, metabolism and excretion (ADME), have been identified as one of the major causes of new chemical entities (NCEs) failure in early clinical trials. In silico models are receiving increased attention in recent years from the pharmaceutical industry, which is integrating a paradigm of multiple pharmacodynamic and pharmacokinetic properties optimization for the development of NCEs. ADME properties can be studied by in silico methods, such as quantitative structure-activity relationships (QSAR) or structure-property (QSPR), among other methodologies. The main goal of this PhD thesis was to study the quantitative relationships between chemical structure and pharmacokinetic properties, such as intestinal absorption, CYP mediated first pass metabolism, blood brain barrier permeability, as well as other important events that have influence on these PK properties, such as P-glycoprotein inhibition and water solubility. In the present work, standard data sets were organized encompassing the structural information and corresponding pharmacokinetic data. The standard data sets established the scientific basis for the development of predictive models using the hologram QSAR (HQSAR) method. The final HQSAR models possess high internal and external consistency with good correlative and predictive power for endpoint PK properties. All in silico models generated and standard data sets are freely available on the internet through the Database for Pharmacokinetic Properties (PK/DB - www.pkdb.ifsc.usp.br). Due to the simplicity, robustness and effectiveness, these models are useful guides in Medicinal Chemistry in the early stages of the drug discovery and development process.
62

Desenvolvimento de banco de dados de pacientes submetidos ao transplante de células-tronco hematopoéticas

Silva, Tatiana Schnorr January 2018 (has links)
Introdução: O transplante de células‐tronco hematopoéticas (TCTH) é um procedimento complexo, que envolve diferentes fatores e condições biopsicossociais. O acompanhamento dos dados desses pacientes é fundamental para a obtenção de informações que possam auxiliar a gestão, aperfeiçoar a assistência prestada e subsidiar novas pesquisas sobre o assunto. Objetivos: desenvolver um modelo de banco de dados (BD) de pacientes submetidos a TCTH, contemplando as principais variáveis de interesse na área. Métodos: Trata‐se de um estudo aplicado, onde utilizou‐se a metodologia de desenvolvimento de um BD relacional, seguindo três etapas principais (modelo conceitual, modelo relacional, modelo físico). O modelo físico proposto foi desenvolvido na plataforma Research Electronic Data Capture (REDCap). Um teste piloto foi realizado com dados de três pacientes submetidos a TCTH no Hospital Moinhos de Vento no ano de 2016/2017, a fim de avaliar a utilização das ferramentas e sua aplicabilidade. Resultados: Foram desenvolvidos nove formulários no REDCap: dados sociodemográficos; dados diagnósticos; histórico, dados clínicos prévios; avaliação prétransplante; procedimento; acompanhamento pós‐imediato; acompanhamento pós‐tardio; reinternações; óbito. Adicionalmente foram desenvolvidos três modelos de relatórios, com as variáveis contidas nos formulários para auxiliar na exportação de dados para as instituições envolvidas com o TCTH. Após o teste piloto foram realizados pequenos ajustes na nomenclatura de algumas variáveis e exclusão de outras devido à complexidade na sua obtenção. Conclusão: Espera‐se que com a sua utilização, o modelo de BD proposto possa servir como subsídio para qualificar a assistência prestada ao paciente, auxiliar a gestão e facilitar futuras pesquisas na área. / Introduction: hematopoietic stem cell transplantation (HSCT) is a complex procedure involving different biopsychosocial factors and conditions. Monitoring the data of these patients is fundamental for obtaining information that can help the management, improve the assistance provided and subsidize new research on the subject. Objectives: to develop a database model (DB) of patients submitted to HSCT, considering the main variables of interest in the area. Methods: it is an applied study, where the methodology of development of a relational DB was used, following three main steps (conceptual model, relational model, physical model). The proposed physical model was developed in the research electronic data capture (Redcap) platform. A pilot test was performed with data from three patients submitted to HSCT at Moinhos de Vento Hospital in 2016, in order to evaluate the use of the tools and their applicability. Results: nine forms were developed in redcap: demographic data; diagnostic data; previous clinical data; pre‐transplant evaluation; procedure; post‐immediate follow‐up; post‐late follow‐up; readmissions; death. In addition, three reporting models were developed, with the variables contained in the forms to assist in the export of data to the institutions involved with the TCTH. After the pilot test small adjustments were made in the nomenclature of some variables and others were excluded due to the complexity in obtaining them. Conclusion: it is hoped that with its use, the proposed BD model can serve as a subsidy to qualify the care provided to the patient, assist the management and facilitate research in the area.
63

[en] EXPERIMENTAL STUDY OF TECHNIQUES FOR PORTFOLIO OPTIMIZATION / [pt] ESTUDO EXPERIMENTAL DE TÉCNICAS PARA OTIMIZAÇÃO DE CARTEIRAS

THUENER ARMANDO DA SILVA 27 January 2011 (has links)
[pt] Markowitz em 1959 estruturou as bases da teoria moderna de seleção de carteiras através da análise do risco e do retorno de ativos. Mesmo após cinco décadas sua teoria ainda é amplamente utilizada como base para construção de carteiras de investimentos. Nessa dissertação investigamos variações do modelo de Markowitz para seleção de carteiras tanto de um ponto de vista teórico quanto prático. Analisamos o impacto dos diferentes métodos de estimativa de risco e retorno, custos transacionais, risco alvo e freqüência da revisão de carteira. Para que fosse possível testar e analisar as estratégias estudadas, implementamos um simulador versátil e robusto além de criar uma base de dados com dados diários de 41 ativos da bolsa de valores brasileira, CDI e IBOVESPA. / [en] Markowitz in 1959 structured the foundations of the modern portfolio theory through the analysis of risk and return of assets. Now, after five decades his theory is still widely used as a basis for building portfolios. In this thesis we investigate variations of the Markowitz model for portfolio selection from both a theoretical and practical point of view. We analyzed the impact of different methods for the prediction of risk and return, transaction costs, target risk and frequency of revision of the portfolio. In order to test and analyze the strategies studied we implemented a robust and versatile simulator and created a database with daily data of 41 assets from the Brazilian stock exchange, CDI and IBOVESPA.
64

Desenvolvimento de banco de dados de pacientes submetidos ao transplante de células-tronco hematopoéticas

Silva, Tatiana Schnorr January 2018 (has links)
Introdução: O transplante de células‐tronco hematopoéticas (TCTH) é um procedimento complexo, que envolve diferentes fatores e condições biopsicossociais. O acompanhamento dos dados desses pacientes é fundamental para a obtenção de informações que possam auxiliar a gestão, aperfeiçoar a assistência prestada e subsidiar novas pesquisas sobre o assunto. Objetivos: desenvolver um modelo de banco de dados (BD) de pacientes submetidos a TCTH, contemplando as principais variáveis de interesse na área. Métodos: Trata‐se de um estudo aplicado, onde utilizou‐se a metodologia de desenvolvimento de um BD relacional, seguindo três etapas principais (modelo conceitual, modelo relacional, modelo físico). O modelo físico proposto foi desenvolvido na plataforma Research Electronic Data Capture (REDCap). Um teste piloto foi realizado com dados de três pacientes submetidos a TCTH no Hospital Moinhos de Vento no ano de 2016/2017, a fim de avaliar a utilização das ferramentas e sua aplicabilidade. Resultados: Foram desenvolvidos nove formulários no REDCap: dados sociodemográficos; dados diagnósticos; histórico, dados clínicos prévios; avaliação prétransplante; procedimento; acompanhamento pós‐imediato; acompanhamento pós‐tardio; reinternações; óbito. Adicionalmente foram desenvolvidos três modelos de relatórios, com as variáveis contidas nos formulários para auxiliar na exportação de dados para as instituições envolvidas com o TCTH. Após o teste piloto foram realizados pequenos ajustes na nomenclatura de algumas variáveis e exclusão de outras devido à complexidade na sua obtenção. Conclusão: Espera‐se que com a sua utilização, o modelo de BD proposto possa servir como subsídio para qualificar a assistência prestada ao paciente, auxiliar a gestão e facilitar futuras pesquisas na área. / Introduction: hematopoietic stem cell transplantation (HSCT) is a complex procedure involving different biopsychosocial factors and conditions. Monitoring the data of these patients is fundamental for obtaining information that can help the management, improve the assistance provided and subsidize new research on the subject. Objectives: to develop a database model (DB) of patients submitted to HSCT, considering the main variables of interest in the area. Methods: it is an applied study, where the methodology of development of a relational DB was used, following three main steps (conceptual model, relational model, physical model). The proposed physical model was developed in the research electronic data capture (Redcap) platform. A pilot test was performed with data from three patients submitted to HSCT at Moinhos de Vento Hospital in 2016, in order to evaluate the use of the tools and their applicability. Results: nine forms were developed in redcap: demographic data; diagnostic data; previous clinical data; pre‐transplant evaluation; procedure; post‐immediate follow‐up; post‐late follow‐up; readmissions; death. In addition, three reporting models were developed, with the variables contained in the forms to assist in the export of data to the institutions involved with the TCTH. After the pilot test small adjustments were made in the nomenclature of some variables and others were excluded due to the complexity in obtaining them. Conclusion: it is hoped that with its use, the proposed BD model can serve as a subsidy to qualify the care provided to the patient, assist the management and facilitate research in the area.
65

O uso da teoria de conjuntos aproximados na modelagem de bases de dados relacionais e na extração de conhecimento.

Vieira, João Marcos 13 May 2005 (has links)
Made available in DSpace on 2016-06-02T19:06:24Z (GMT). No. of bitstreams: 1 DissJMV.pdf: 2450102 bytes, checksum: b1b886e21b1ae7831845abb32330cb4f (MD5) Previous issue date: 2005-05-13 / Financiadora de Estudos e Projetos / This work investigates two relational database models that extend the standard relational database model. Both models extend the standard relational model by allowing ways to represent uncertainty. The rough relational database model borrows the basic concepts form the rough set theory and deals with uncertainty by approaching relations using their lower and upper approximations. The fuzzy rough relational database model generalizes the rough relational model by introducing a degree of membership associated to elements, in a rough relation. The operators that are an intrinsic part of each of the models are formally defined and their pseudocodes are presented and discussed in details. A prototype system ROUGH-ID3, which implements a hybrid knowledge extraction approach by integrating a set of rough database operators with the symbolic system ID3 is proposed. / Este trabalho de pesquisa apresenta e investiga dois modelos teóricos de modelagem de bases de dados que incorporam conceitos da Teoria de Conjuntos Aproximados a uma Base de Dados Relacional. O primeiro, o Modelo Relacional Aproximado, incorpora conceitos como a indiscernibilidade buscando dar mais flexibilidade e versatilidade às Bases de Dados Relacionais, tornando a maneira como os dados são tratados mais próxima da maneira como a mente humana os trata. O segundo, o Modelo Relacional Aproximado Fuzzy, estende o Modelo Relacional Aproximado agregando conceitos da Teoria de Conjuntos Fuzzy, visando representar as relações do modelo por meio de uma função de pertinência fuzzy. Isso permite quantificar a pertinência das tuplas às relações da base. Ambos os modelos são implementados tendo os pseudocódigos de seus operadores desenvolvidos e implementados. Com base nestes modelos é proposto um sistema híbrido que utiliza os conceitos do Modelo Relacional Aproximado e Aproximado Fuzzy combinados a um método simbólico de aprendizado para viabilizar a extração de conhecimento certo e conhecimento com certo grau de incerteza, a partir de Bases de Dados Relacionais Aproximadas e Aproximadas Fuzzy.
66

DDAAV DETECTOR DO DESEMPENHO DO ALUNO EM AVAs / DDAAV DETECTOR PERFORMANCE OF STUDENTS IN VLES

Mühlbeier, Andreia Rosangela Kessler 15 April 2014 (has links)
Conselho Nacional de Desenvolvimento Científico e Tecnológico / The virtual learning environments (VLEs) are benefited with advances in the use of technologies in education, enabling a more dynamic and meaningful learning. In the face of increased interaction in these environments, greatly increases the amount of data stored. The process of knowledge discovery in database (KDDKnowledge Discovery in Databases) has been used successfully in several areas and in the academic area some results have been used to assist the teachers. This dissertation describes a survey conducted with the steps of KDD, which utilizes the WEKA tool (free data mining software), specifically the J48 algorithm, to apply data mining techniques on the information stored in the database, in order to detect the student performance while running the course. The research scenario was constructed with data from assessments of introduction to media in education, Integration of the specialization course in Media in education, composed of 134 (one hundred and thirty-four) students, distributed in 5 (five) different poles. In this way, with the results obtained in the research, noted that the application of rules of the algorithm, can be a valuable instrument to professor during the execution of the course, and not only a posteriori, because it allows a positive immediate intervention of even in several variables that impact on the success of the apprentice, as type of material, discussions, activities, methodologies and strategies. / Os Ambientes Virtuais de Aprendizagem (AVAs) são beneficiados com os avanços do uso de tecnologias na Educação, possibilitando uma aprendizagem mais dinâmica e significativa. Diante do aumento de interação nestes ambientes, aumenta consideravelmente o volume de dados armazenados. O processo de Descoberta de Conhecimento em Base de Dados (Knowledge Discovery in Databases - KDD) vem sendo utilizado com sucesso em diversas áreas e na área acadêmica alguns resultados têm sido utilizados para auxiliar os professores. A presente dissertação descreve uma pesquisa realizada com as etapas de KDD, que utiliza a ferramenta WEKA (software de mineração de dados livre), em específico o algoritmo J48, para aplicar técnicas de mineração de dados nas informações armazenadas no banco de dados, a fim de detectar o desempenho dos alunos durante a execução do curso. O cenário de investigação foi construído com os dados oriundos das avaliações da disciplina de Introdução à Integração de Mídias na Educação, do Curso de Especialização em Mídias na Educação, composto de 134 (cento e trinta e quatro) alunos, distribuídos em 5 (cinco) polos distintos. Dessa forma, com os resultados obtidos na pesquisa, observou se que a aplicação de regras do algoritmo, pode ser um valioso instrumento ao professor durante a execução do curso, e não apenas a posteriori, pois possibilita uma intervenção positiva imediata do mesmo, nas diversas variáveis que impactam no sucesso do aprendiz, como tipo de material, discussões, atividades, metodologias e estratégia.
67

Estudo da distribuição de uma base de dados apoiada no modelo de representação de objetos / Distribution modeling in the object representation model

João Eduardo Ferreira 23 October 1991 (has links)
A distribuição de uma Base de Dados convencional caracteriza-se pela necessidade dos dados estarem disponíveis, ao mesmo tempo, a todos os usuários, de modo que os problemas de conflito devido à concorrência para obtenção dos mesmos, tornam-se muito acentuados. A Base de Dados apoiada no Modelo de Representação de Objetos(MRO), devido a suas características semânticas,oferece o suporte necessário para atendimento das necessidades de distribuição num ambiente de desenvolvimento de projetos. Neste trabalho e feita uma proposta de um modelo lógico e funcional para a distribuição da Base de Dados apoiada no MRO. Esta distribuição se caracteriza pela disponibilidade dos dados de forma que cada item (objeto) da base cópia possua um tipo de ligação com a base original. Foram definidos cinco tipos de ligação: apenas leitura (r-), isolado(is), flagrante(fl), mutuamente exclusivo(me)e independente(in). Com isto, tanto a base cópia como a original, respeitando as limitações impostas pelo tipo de ligação entre as mesmas, podem evoluir, e depois de um determinado tempo sofrerem um processo de integração, que também e caracterizado pelo tipo de ligação entre a base original e cópia. / One of the most important characteristics of Distributed Database Systems is the permanent availability of data to all users every same time. This situation emphasizes the conflicts occurring due to the needs of users competing for the same data. Due to its semantics characteristics, the Database Management Systems based on the Object Representation Model (MRO) offer support to meet the distribution needs of computer-aided project development environments. In this work, a functional and logical model for the distribution of MRO based databases are presented. Distribution is characterized based on the required availability of each data item. Each item (object) in each copy database has a link of a specific link to the original database. Five types of links were defined: read only(r-), isolated(is), snapshot(fl), mutually exclusive(me) and independent(in). This arrangement allows both the copy and the original database to evolve in parallel, restricted by the limits imposed by the kinds of links between them. After a while, the copy and the original databases may enter into an integration process, which is also governed by these links.
68

Detecção de gestos manuais utilizando câmeras de profundidade / Detection of hand gestures using depth cameras

Elias Ximenes do Prado Neto 28 May 2014 (has links)
É descrito o projeto de um sistema baseado em visão computacional, para o reconhecimento de poses manuais distintas, além da discriminação e rastreamento de seus membros. Entre os requisitos prioritários deste software estão a eficácia e a eficiência para essas tarefas, de forma a possibilitar o controle em tempo real de sistemas computacionais, por meio de gestos de mãos. Além desses fatores, a portabilidade para outros dispositivos e plataformas computacionais, e a possibilidade de extensão da quantidade de poses iniciais, também consiste em condições importantes para a sua funcionalidade. Essas características tendem a promover a popularização da interface proposta, possibilitando a sua aplicação para diversas finalidades e situações; contribuindo dessa forma para a difusão deste tipo de tecnologia e o desenvolvimento das áreas de interfaces gestuais e visão computacional. Vários métodos foram desenvolvidos e pesquisados com base na metodologia de extração de características, utilizando algoritmos de processamento de imagens, análise de vídeo, e visão computacional, além de softwares de aprendizado de máquina para classificação de imagens. Como dispositivo de captura, foi selecionada uma câmera de profundidade, visando obter informações auxiliares aos vários processos associados, reduzindo assim os custos computacionais inerentes e possibilitando a manipulação de sistemas eletrônicos em espaços virtuais tridimensionais. Por meio desse dispositivo, foram filmados alguns voluntários, realizando as poses manuais propostas, de forma a validar os algoritmos desenvolvidos e possibilitar o treinamento dos classificadores utilizados. Esse registro foi necessário, já que não foram encontradas bases de dados disponíveis contendo imagens com informações adequadas para os métodos pesquisados. Por fim, foi desenvolvido um conjunto de métodos capaz de atingir esses objetivos, através de sua combinação para adequação a diferentes dispositivos e tarefas, abrangendo assim todos os requisitos identificados inicialmente. Além do sistema implementado, a publicação da base de imagens de poses de mãos produzida também consiste em uma contribuição para as áreas do conhecimento associadas a este trabalho. Uma vez que as pesquisas realizadas indicam que esta base corresponde ao primeiro conjunto de dados disponibilizado, compatíveis com vários métodos de detecção de gestos manuais por visão computacional, acredita-se que esta venha a auxiliar ao desenvolvimento de softwares com finalidades semelhantes, além possibilitar uma comparação adequada entre o desempenho desses, por meio de sua utilização. / A project of a computer vision based system is described here, for the recognition of different kinds of hand poses, in addition to the discrimination and tracking of its members. Among the software requirements priority, were the efficiency and effectiveness in these tasks, in order to enable the real time control of computer systems by hand gestures. Besides these features, the portability to various devices and computational platforms, and the extension possibility of initial pose number, are also importants conditions for its functionality. Several methods have been developed and researched, based on the methodology of feature extraction, using image processing, video analysis, and computer vision algorithms; in addition to machine learning software for image classification. As capture device, was selected a depth camera, in order to obtain helper information to several associated processes, so reducing the computational costs involved, and enabling handling electronic systems in three-dimensional virtual spaces. Through this device, some volunteers were recorded, performing the proposed hand poses, in order to validate the developed algorithms and to allow the used classifiers training. This record was required, since available databases containing images with relevant information for researched methods was not found. Finally, were developed a set of methods able to achieve these goals, through its combination for adaptation to different devices and tasks, thus covering all requirements initially identified. Besides the developed system, the publication of the hand poses image database produced, is also an contribution to the field of knowledge related with this work. Since the researches carried out indicated that this database is the first set of available data, compatible with different computer vision detection methods for hand gestures, it\'s believed that this will assist in developing software with similar purposes, besides permit a proper comparison of the performances, by means of its use.
69

Desenvolvimento de um sistema de informação para benchmarking e sua aplicação em arranjos produtivos locais / Development of a benchmarking information system and its application within industrial cluster

Olívia Toshie Oiko 06 June 2007 (has links)
Atualmente têm-se valorizado o aproveitamento das características das aglomerações, como os arranjos produtivos locais - APLs e a necessidade de cooperação entre as empresas. Neste contexto, a avaliação de desempenho em relação a um referencial externo e a identificação de melhores práticas, como proposto pelo benchmarking, pode ser de grande valia. Este trabalho apresenta o desenvolvimento de um sistema de informações para benchmarking com acesso via web e sua aplicação piloto. O trabalho de campo contou com a participação de 29 empresas de até médio porte, que fazem parte dos APLs de Ibitinga (confecções de bordados) e de Jaú (calçados femininos). A partir desta aplicação, discute-se a viabilidade operacional de tal sistema, os estímulos e resultados para as empresas usuárias e as relações de tal sistema com os agentes de governança dos APLs. A avaliação do processo de implementação, realizada essencialmente por meio de observações da pesquisadora (de caráter qualitativo), aponta para a necessidade de um mecanismo que possibilite a adesão e participação de um número elevado de empresas em um curto espaço de tempo ou com participação vinculada a outras iniciativas, a fim de que uma base robusta de dados seja criada, eliminando a principal razão para que as empresas percam o estímulo em participar. Outras alternativas de abordagem também são discutidas a fim de melhorar os benefícios deste sistema para empresas e para a governança, como a formação de grupos de empresas (mesmo de setores diferentes) interessados em trocar experiências em uma determinada área ou mesmo a troca de experiência entre instituições de governança. / Nowadays, the clustering approach and the development of joint actions have gained acceptance. In this scenario, performance assessment against an external reference and the identification of best practices, as proposed by benchmarking, can be very useful. This study presents the development of a web-based benchmarking information system and its pilot application. The fieldwork was developed with the participation of 29 small and medium-sized companies from the clusters of Ibitinga (garment for use in the house) and Jaú (female shoes). The objective is to discuss the operational viability of such system, the incentives and results for the users and the relationship of this system with the cluster governing agents. The assessment of the implementation (of qualitative features), points to the need of an organization that enables a high number of companies to participate in a short period of time, like binding the participation to other initiatives, in order to create a strong database, removing the main reason for the incentive missing. Other approaches are discussed aiming to increase the benefits to the companies and to the governing, e.g. experience exchange by groups of firms (even from different industrial sectors) interested in a specific area or by governing institutions.
70

Operação de carga-rápida (bulk-loading) em métodos de acesso métricos / Bulk-loading Dynamic Metric Acess Methods

Thiago Galbiatti Vespa 10 December 2007 (has links)
O grau de similaridade entre elementos de dados é o fator primordial para a recuperação de informações em Sistemas Gerenciadores de Bases de Dados que manipulam dados complexos, como seqüências genéticas, séries temporais e dados multimídia (imagens, áudios, vídeos, textos longos). Para responder a essas consultas em um tempo reduzido, faz-se necessário utilizar métodos que usam métricas para avaliar a similaridade entre os elementos. Esses métodos são conhecidos como Métodos de Acesso Métricos. Dentre os mais conhecidos na literatura estão a M-tree e a Slim-tree. Existem duas maneiras de executar as operações de construção de índices em qualquer método de acesso: inserindo elemento a elemento ou usando a operação de carga-rápida (bulk-loading). O primeiro tipo de construção é comum e necessário para todo tipo de método de indexação dinâmico. Já as operações de carga-rápida são utilizadas para conjuntos de dados maiores, como por exemplo, na recuperação de backups em bases de dados ou na criação posterior de índices. Nessas situações, a inserção individual tende a ser mais demorada. Realizar uma carga-rápida possibilita a construção de índices com melhor eficiência e em menor tempo, pois há a disponibilidade de todos os dados no instante da criação da estrutura de índices, possibilitando explorar as propriedades do conjunto como um todo. Os Sistemas Gerenciadores de Base de Dados oferecem operações de carga-rápida dos dados nos métodos tradicionais, as quais devem ser supridas também nos Métodos de Acesso Métricos. Neste trabalho, são apresentadas três abordagens, uma técnica para carga-rápida dos dados em Métodos de Acesso Métricos e foi desenvolvido um algoritmo baseado nessa técnica para construir uma Slim-tree. Este é o primeiro algoritmo de carga-rápida baseada em amostragem que sempre produz uma Slim-tree válida, portanto é o primeiro descrito na literatura que pode ser incluído em um Sistema Gerenciador de Base de Dados. Os experimentos descritos neste trabalho mostram que o algoritmo proposto mantém bom agrupamento dos dados e supera o desempenho dos métodos de inserção seqüencial levando em conta tanto o desempenho de construção quanto à eficiência para realizar consultas / The similarity degree between data elements is the primordial factor for information retrieval in databases that handle complex data, such as genetic sequences, time series and multimedia objects (long images, audio, videos, texts). To answer these queries in a reduced time, it is necessary methods that use metrics to evaluate the similarity between elements. These methods are known as Metric Access Methods. The most known Metric Access Methods in the literature are the M-tree and the Slim-tree. There are two ways to build index in any access method: inserting element one by one or using the bulk-load operation. The first build type is very common and required for all kinds of dynamic access methods. The bulk-load operations are used for bigger datasets, as for example, in the recovery of backups and re-creation of database indexes. In these situations, the individual insertion takes much time. The bulk-load operation makes it possible to construct indexes more efficiently and faster, because it has the availability of the whole data when the index structure are created, and thus, it is possible to explore the properties of the whole set. Database Management Systems offer bulk-load operations for the traditional methods, so it is important that they can be also supplied for Metric Access Methods. This work presents three bulk-loading approaches and it proposes a technique to bulk-load data into Metric Access Methods. An algorithm based on this technique was developed to construct a Slim-tree. This is the first bulk-load algorithm based on sampling that always produces a valid Slim-tree, therefore is the first one described in literature that can be enclosed in a Database Management System. The experiments show that this algorithm keeps good clustering of data and in such a way that it surpasses the performance of sequential insertion, taking into account the construction performance and the efficiency to perform queries

Page generated in 0.1461 seconds