• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 957
  • 31
  • 30
  • 23
  • 23
  • 23
  • 14
  • 12
  • 11
  • 9
  • 9
  • 9
  • 1
  • Tagged with
  • 1014
  • 1014
  • 266
  • 200
  • 191
  • 191
  • 172
  • 128
  • 123
  • 110
  • 110
  • 106
  • 105
  • 101
  • 87
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Indexação de objetos móveis : uma estratégia para garantir a alocação dinâmica de canais em redes celulares

Garcia, Fernando Parente 15 December 2005 (has links)
Made available in DSpace on 2019-04-05T23:04:38Z (GMT). No. of bitstreams: 0 Previous issue date: 2005-12-15 / In cellular networks, communication among mobile devices is accomplished through base stations (fixed antennas). A base station allocates communication channels whenever a mobile device (a cell phone, for example) in its coverage area requests communication with some other device (mobile or fixed). With the rapidly growing number of mobile devices, the use of communication channels available in cellular networks needs to be optimized. To efficiently optimize the use of communication channels in cellular networks dynamic (on-the-fly) channel allocation may be used, using algorithms for that purpose; however such algorithms demand previous knowledge of the number of mobile devices in the area of coverage of a given base station. In this work, we propose a strategy to support dynamic channel allocation in cellular networks by predicting the number of mobile devices in the area covered by a base station at any given moment. The proposed strategy is based on an indexing mechanism for mobile objects. The results obtained through experiments prove the efficiency of the proposed strategy. / Nas redes celulares, a comunicação entre os dispositivos móveis é realizada através de estações rádio base (antenas fixas). Uma estação rádio base aloca um canal de comunicação cada vez que um dispositivo móvel (um telefone celular, por exemplo) na sua área de cobertura desejar se comunicar com outro dispositivo (móvel ou fixo). Devido ao crescimento contínuo da quantidade de dispositivos móveis, a utilização dos canais de comunicação disponíveis em uma rede celular necessita ser otimizada. Para conseguir esta otimização, pode-se utilizar os algoritmos de alocação dinâmica de canais, porém estes algoritmos necessitam saber antecipadamente a quantidade de dispositivos que estarão na área de cobertura de cada estação rádio base em um instante de tempo futuro. Neste trabalho, propomos uma estratégia para suportar a alocação dinâmica de canais em redes celulares por estimar a quantidade de dispositivos móveis que estarão na área coberta por uma estação rádio em um dado momento. A estratégia proposta é baseada em um mecanismo de indexação para objetos móveis. Os resultados obtidos através dos experimentos realizados comprovam a eficiência da estratégia proposta.
122

Compilação e análise crítica sobre a utilização do DNA mitocondrial em casos forenses na população brasileira em comparação com outros países da América Latina e do mundo / Compilation and critical analysis about the use of mitochondrial DNA in forensic cases in the Brazilian population compared to other countries in Latin America and the world

Hyppolito, Caroline da Silva [UNESP] 14 February 2017 (has links)
Submitted by CAROLINE DA SILVA HYPPOLITO null (carol_hyppolito2@hotmail.com) on 2017-03-22T15:08:26Z No. of bitstreams: 1 exemplar dissertação com folha de apro e ficha.pdf: 1553652 bytes, checksum: 449d648e29f62dcdebad15b56f220e51 (MD5) / Approved for entry into archive by Luiz Galeffi (luizgaleffi@gmail.com) on 2017-03-22T19:48:33Z (GMT) No. of bitstreams: 1 hyppolito_cs_me_araiq.pdf: 1553652 bytes, checksum: 449d648e29f62dcdebad15b56f220e51 (MD5) / Made available in DSpace on 2017-03-22T19:48:33Z (GMT). No. of bitstreams: 1 hyppolito_cs_me_araiq.pdf: 1553652 bytes, checksum: 449d648e29f62dcdebad15b56f220e51 (MD5) Previous issue date: 2017-02-14 / Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) / O DNA mitocondrial é uma molécula circular, dupla fita, que se encontra na mitocôndria, uma organela responsável pela respiração e produção de energia da célula. Este DNA é herdado exclusivamente por via materna e possui polimorfismos que permitem diferenciar indivíduos, auxiliando nas investigações forenses e corroborando com outros exames de identificação humana. Devido à possibilidade de compatibilidade deste DNA entre indivíduos não relacionados por via materna, é necessário estimar as frequências haplotípicas utilizando bancos de dados populacionais. Com a finalidade de se compilar e avaliar a utilização do DNA mitocondrial no Brasil realizou-se um estudo sobre os haplótipos depositados no banco de dados do European DNA Profiling Mitochondrial DNA Population Database (EMPOP) e acessando artigos científicos sobre dados de populações brasileiras, observando os países participantes e seus respectivos dados depositados. Na avaliação dos dados do EMPOP, a América do Norte foi o continente com maior número de haplótipos depositados no banco, principalmente pela participação dos Estados Unidos. A América do Sul contém 3172 haplótipos, sendo 782 desse total correspondentes ao Brasil. Esses números parecem insuficientes para representar a população grande e miscigenada do país. Na literatura, encontrou-se um total de 2367 haplótipos, os quais foram organizados por haplogrupos e as regiões brasileiras correspondentes: Sudeste e Nordeste apresentaram-se similares, com predomínio de ancestralidade africana (44%), enquanto o Sul apresentou uma origem predominantemente europeia (68,4%) e a região Norte de nativo-americanos (58,8%). As regiões Centro-Oeste, Norte e Nordeste carecem de mais estudos, pois os dados referentes a essas regiões são muito escassos. A população brasileira demonstrou alta diversidade genética que reflete sua miscigenação, sendo que na avaliação da distância genética, as populações do Sul do Brasil ficaram mais próximas da população portuguesa, enquanto que as do Norte se aproximaram da africana. Os dados da literatura permitem concluir que, a matrilinhagem do Brasil é predominantemente de origem africana (37%), seguida da europeia (35%) e de nativo-americanos (28%). Além disso, a diferença entre as quantidades de dados brasileiros no banco e na literatura indica a dificuldade dos laboratórios em atender aos controles de qualidade exigidos para deposição de amostras no EMPOP. Para avaliação da complexidade da metodologia de análise do DNA mitocondrial, cinco amostras de referência foram sequenciadas para as regiões HV1, HV2 e HV3 e os resultados confirmaram as sequências informadas previamente. Isto permitiu verificar que, com a utilização de uma metodologia adequadamente padronizada para análise de DNA mitocondrial foi possível obter resultados satisfatórios, mesmo que o operador tenha pouca experiência na técnica. Assim, a utilização correta de uma metodologia padronizada permitirá atender aos controles de qualidade exigidos pelo EMPOP, ainda que a técnica apresente várias etapas críticas para a obtenção do sequenciamento de qualidade. / Mitochondrial DNA is a circular and double-stranded molecule found in the mitochondria, an organelle responsible for breathing and energy production of the cell. This DNA is exclusively inherited through maternal and has polymorphisms that allow differentiating individuals, it assists in forensic investigations and corroborates with other tests of human identification. Due to the possibility of compatibility of this DNA between unrelated individuals, it is necessary to estimate the haplotype frequencies through population databases. In order to compile and evaluate the use of mitochondrial DNA in Brazil, a study was carried out about the haplotypes deposited in the European DNA Profiling Mitochondrial DNA Population Database (EMPOP), and acessing scientific articles with data from Brazilian populations, verifying participating countries and their respective deposited data. In the evaluation of EMPOP data, North America was the continent with the highest number of data deposited in the bank, mainly by the participation of the United States. South America contains 3172 haplotypes, 782 of which correspond to Brazil. These numbers seem insufficient to represent the large and mixed population of this country. In the literature, a total of 2367 haplotypes were found, which were organized by haplogroups and the corresponding Brazilian regions: the Southeast and Northeast were similar, with predominance of African ancestry (44%), while the South had a predominantly European origin (68.4%) and the North of Native Americans (58.8%). The Center-West, North and Northeast regions need further studies,therefore, the data for these regions are very scarce. Brazilian population have shown high genetic diversity that reflects your miscegenation, and in the genetic distance evaluation, the populations of the South of Brazil are genetically closer to the Portuguese population, while those from the North are closer to the African ones. According to literature data, it is possible to conclude that Brazil's matriarchy is predominantly African (37%), followed by European (35%) and Native American (28%). In addition, the difference between the Brazilian data in the database and the literature indicates the difficulty of the laboratories to meet the quality controls required for EMPOP deposition. To evaluate the complexity of the mitochondrial DNA analysis methodology, five reference samples had the HV1, HV2 and HV3 regions sequenced and the results confirmed the previously reported sequences. This allows to verify that with the use of a adequately standardized methodology for mitochondrial DNA analysis it is possible to obtain satisfactory results, even the operator having little experience in the technique. Therefore, the correct use of a standardized methodology, allows to meet the quality controls required by EMPOP, even the technique presents several critical steps to obtain quality sequencing. / CNPq: 132108/2015-1
123

Elaboração de banco de imagens mamográficas digitalizadas / not available

Rodrigo Henrique Benatti 30 April 2003 (has links)
Este trabalho teve como objetivo o desenvolvimento de um banco de imagens mamográficas digitalizadas para oferecer suporte a treinamento e testes de processamentos em esquemas de auxílio ao diagnóstico (CADs). Juntamente com o banco de dados associado, desenvolveu-se ainda uma interface gráfica que permitiu a recuperação das imagens e que auxiliou no acesso às imagens de interesse. Foram incluídas imagens de vários hospitais, com características diferentes quanto aos mamógrafos utilizados. Além disso, o banco de dados também incorporou dados clínicos das pacientes analisadas e laudos radiológicos e patológicos emitidos por médicos. O banco de imagens mostrou-se abrangente em relação às questões dos parâmetros de digitalização utilizados, às características das pacientes e contemplou os diversos tipos de patologias mamárias existentes. Realizaram-se testes de processamento de imagens, mostrando a viabilidade e a facilidade do uso do banco de imagens em situações práticas do desenvolvimento de novas técnicas e algoritmos computacionais relacionados à área de mamografia. / This work had the main purpose of develop a digital mammographic image database to provide support to training and testing procedures of image processing techniques commonly used in Computer-Aided Diagnosis schemes. Also, a graphic interface was developed in order to ease the retrieval and access to images of interest accordingly to the processing technique in test. Images from several hospitals were included in the database, with different mammographic equipments features. Besides, the database was also provided with patient\'s clinical information and, when available, radiological reports issued by expert physicians. The image database was developed so a wide range of pathologies could be expressed and different digitization and acquiring parameters could be used in the images included. Image processing tests using images from the database was done, and results showed that the database was useful and easy to use in practical situations that demand tests of new image processing techniques development and computerized algorithms related to mammographic research area.
124

Um processo de aquisição e mapeamento de dados para as bacias sedimentares marginais brasileiras

Assunção, Joaquim Vinicius Carvalho January 2012 (has links)
Made available in DSpace on 2013-08-07T18:43:00Z (GMT). No. of bitstreams: 1 000438673-Texto+Completo-0.pdf: 13692914 bytes, checksum: 3eac0c3d5df974b8965fd601f06ddf20 (MD5) Previous issue date: 2012 / Finding oil is a hard task that requires large amounts of information and resources. Along decades of research, geoscientists from Petrobras have accumulated great amout of data. Therefore, in petroleum geology other sources of important data are generally dispersed and have many forms of representation. This Master Thesis reports the creation of a database that stored various geophysical, paleogeographic and paleoclimatic data from the South Atlantic. Great part of these data were extracted from stratigraphic charts, converted, and stored as a numeric model. This model is the result of an aggregation of data from the Brazilian Sedimentary Basins and the creation of an algorithm solution able to map collected data at the designated geographical area. These data cover the past 140 millions years. The 140 millions of years correspond to a drift period of the South American Plate from the African west coast to the present location. During this drift several natural changes happened in the Ocean Sedimentary Basins until they reached the actual state. The grouping of these data enhances the potential to knowledge discovery on the factors necessary for the deposit of organic matter and oil generation, in consequence, these new factors may improve the chances of finding oil. / Encontrar petróleo é uma tarefa difícil que requer grandes quantidades de informações e recursos. Ao longo de décadas de pesquisa, os geólogos da Petrobras acumularam grandes quantidades de dados. Além disso, na geologia do petróleo outras fontes de dados são importantes, fontes estas, que em geral estão dispersas e possuem várias formas de represenção. Esta dissertação relata a criação de um banco de dados que agrega diversos dados de origem paleoclimática e paleogeográfica provenientes do Atlântico Sul. Grande parte destes dados foram extraídos de cartas estratigráficas, convertidos e armazenados em forma de um modelo numérico. Modelo este, que é resultado de agregações de dados provenientes das bacias sedimentares brasileiras e da criação de uma solução algorítmica capaz de mapear os dados coletados ao longo da área designada. Estes dados são relativos a um período de tempo entre a idade geológica atual até 140 milhões de anos atrás. Os 140 milhões de anos correspondem ao período de deslocamento do continente Sul-Americano desde a costa da África até a posição atual. Durante esse deslocamento houveram diversas mudanças naturais nas bacias sedimentares oceânicas até chegarem ao estado atual. O grupamento destes dados potencializa a descoberta de conhecimento relativo aos fatores necessários para a deposição de matéria orgânica e geração de petróleo no fundo do mar, assim, estes novos fatores podem vir a melhorar as probabilidades de descoberta de petróleo.
125

Uma aplicação para automação de experimentos de docagem molecular

Silva, André Luís da January 2010 (has links)
Made available in DSpace on 2013-08-07T18:43:01Z (GMT). No. of bitstreams: 1 000443882-Texto+Completo-0.pdf: 1538805 bytes, checksum: 0ca0fe774889aa54673d3442302094d2 (MD5) Previous issue date: 2010 / PEDS can be used in research activities and in the teaching of molecular modeling, being enough flexible to be integrated to other software of molecular docking. The preparation and Execution of Docking Simulation (PEDS), is auxiliary tool in preparation of a set of molecules obtained from the ZINC database, automatically positioning the ligand candidate in a region determined by the specialist using the residues of the ligand candidate to calculate the coordinates to move it to. Based on this information, PEDS can prepare scripts e execute the molecular docking to run with AutoDock 3. 0. 5. PEDS was validated using InhA as receptor in two conformations, (1ENY e 1BVR), always with same structure as reference and two ligands, TCL and ETH. It was possible to verify that molecular docking moved the ligand near to active site of receptor, using the position calculated by PEDS. PEDS can be enhanced to use another input and output file formats, having its code available for free distribution. / O PEDS pode ser utilizado nas atividades de pesquisa bem como no ensino de modelagem molecular sendo suficientemente flexível para ser integrado a outros programas de docagem molecular. O Preparation and Execution of Docking Simulation (PEDS), é auxiliar na preparação de um conjunto de moléculas obtidas do banco de dados ZINC, posicionando automaticamente os candidatos a ligantes em áreas determinadas pelo especialista, usando um conjunto de resíduos informados para calculo de coordenadas, e com base nestas informações, prepara os scripts de processamento e executa a docagem molecular utilizando o AutoDock 3. 0. 5. O PEDS foi validado utilizando-se o receptor InhA em duas conformações (1ENY e 1BVR), sempre com uma estrutura de referência e dois ligantes, o TCL e a ETH. Foi possível verificar que a docagem molecular colocou o ligante próximo ao sítio ativo, partindo da posição calculada pelo PEDS. O PEDS pode ser aprimorado para utilização de outros formatos de arquivos de entrada e saída, sendo seu código fonte disponível para distribuição.
126

FReMI: a middleware to handle molecular docking simulations of fully-flexible receptor models in HPC environments

De Paris, Renata January 2012 (has links)
Made available in DSpace on 2013-08-07T18:42:40Z (GMT). No. of bitstreams: 1 000438211-Texto+Completo-0.pdf: 1765612 bytes, checksum: c7adb8a9601c78a38e044070d6b5568e (MD5) Previous issue date: 2012 / Molecular docking simulations of Fully-Flexible Protein Receptor (FFR) models are coming of age. However, they are computer intensive and their sequential execution can became an unfeasible task. This study presents a middleware, called Flexible Receptor Middleware (FReMI), to assist in faster docking simulations of flexible receptors. FReMI handles intensive tasks and data of totally fully-flexible receptor models in virtual screening and, provides the interoperability between a Web Fully-flexible Docking Workflow (W-FReDoW) and two different High Performance Computing (HPC) environments. FReMI uses internet protocols to communicate with W-FReDoW which helps to reduce the FFR model dimension with a data pattern. Also it sends tasks of docking simulations to execute in a HPC of dedicated cluster and; an alternative model of virtual cluster built on Amazon’s Elastic Compute Cloud (EC2). The results are the FReMI conceptual architecture and two sets of experiments from execution of the FReMI. The first set reports the experiments performed with FReMI using a sample of snapshots from a FFR model on both HPC environments. The second one describes the experiments, on the complete data set, performed with FReMI and W-FReDoW shared execution in a MPI cluster environment on Amazon EC2 instances only. The last set of experiments results shows a reduction of the FFR model dimensionality, transforming it into a Reduced Fully-Flexible Receptor (RFFR) model, by discarding the non-promising conformations generated by W-FReDoW. It also reduces the total execution time to between 10-30% of that of FReMI’s only execution, which, in turn, decreased near 94% with respect to the serial execution. / Simulações de docagem molecular de modelos de receptores totalmente flexíveis (Fully-Flexible Receptor - FFR) estão se tornando cada vez mais frequentes. Entretanto, tais simulações exigem alto nível de processamento e sua execução sequencial pode se tornar uma tarefa impraticável. Este trabalho apresenta um middleware, chamado Middleware de Receptores Flexível (Flexible Receptor Middleware – FReMI), que auxilia a reduzir o tempo total de execução nas simulações de docagem molecular de receptores totalmente flexíveis. FReMI manipula uma quantidade intensiva de dados e tarefas para executar a triagem virtual de modelos de receptores totalmente flexíveis, e provê interoperabilidade entre o web workflow de docagem de receptores flexíveis (Web Fully-flexible Docking Workflow - W-FReDoW) e dois diferentes ambientes de alto desempenho (High Performance Computing – HPC). FReMI utiliza protocolos de internet para comunicar com o W-FReDoW, o qual auxilia na redução da dimensão do modelo FFR por meio de um padrão de dados. Além disso, FReMI envia tarefas de simulações de docagem para serem executadas em um cluster dedicado e também em um alternativo modelo de cluster virtual construído por meio de nuvens de computadores elásticos da Amazon (Amazon’s Elastic Compute Cloud – EC2). Os resultados apresentam uma arquitetura conceitual do FReMI e dois conjuntos de experimentos a partir da execução do FReMI.O primeiro conjunto relatou os experimentos realizados com FReMI, usando uma amostra de snapshots a partir de um modelo FFR e os dois ambientes HPC. O segundo conjunto descreveu os experimentos, com um conjunto de dados completo, executando FReMI e W-FReDoW apenas em um ambiente de cluster MPI construído com as instâncias da Amazon EC2. Os resultados do último conjunto de experimentos apresentaram uma redução na dimensionalidade do modelo FFR, transformando ele um modelo de receptor flexível totalmente reduzido (Reduced Fully-Flexible Receptor Model – RFFR), por meio do descarte de conformações não promissoras identificadas pelo W-FReDoW. Além disso, a redução do tempo total de execução do FReMI com o W-FReDoW foi entre 10 a 30% a partir da execução separada do FReMI, e de aproximadamente 94% do FReMI a partir da sua respectiva execução sequencial.
127

Smart execution of molecular docking simulations of a fully-flexible receptor model

Frantz, Fábio André January 2012 (has links)
Made available in DSpace on 2013-08-07T18:42:49Z (GMT). No. of bitstreams: 1 000439095-Texto+Completo-0.pdf: 3289381 bytes, checksum: eb6fc534e5a9d631dbafb97aa0a9c407 (MD5) Previous issue date: 2012 / Molecular docking simulations of Fully-Flexible Receptor (FFR) models are coming of age. However, they demand parallelization of computing activities for their executions and generate huge amounts of data that needs to be analyzed. Many Task Computing (MTC) is an attractive paradigm routinely applied to execute intensive tasks. In this work we propose an environment to execute molecular docking simulations of FFR models to small molecules integrated with an MTC middleware. This environment is based on a new pattern called Self-adapting Multiple Instances (P-SaMI) that provide rules to reduce the number of experiments, providing a Reduced Fully-Flexible Receptor (RFFR) model. The main contribution of this research is to prove that P-SaMI rules can be used on Molecular Docking Simulations through a web environment integrated with an MTC middleware. / Simulações de docagem molecular com modelos de Receptores Totalmente Flexíveis (FFR) estão adquirindo maturidade. No entanto, isto demanda atividades computacionais de paralelização para geração e execução de grande volume de dados que precisam ser analizados. Computação multi-tarefa é um paradigma atrativo e que vem sendo aplicado frequentemente para executar tarefas intensivas. Neste trabalho propomos um ambiente para executar simulações de docagem molecular no modelo FFR com pequenas moléculas integradas a um componente MTC. Este ambiente é baseado no padrão Múltiplas Instâncias Autoadaptáveis (P-SaMI) que possui regras para redução do número de experimentos, provendo um modelo de Receptores Totalmente Flexíveis Reduzido (RFFR). A principal contribuição desta pesquisa está na comprovação de que as regras do P-SaMI podem ser usadas em Simulações de Docagem Molecular através de um ambiente web integrado com um componente MTC.
128

Uma abordagem orientada a serviços para captura de métricas de processo de desenvolvimento de software

Cunha, Virginia Silva da January 2006 (has links)
Made available in DSpace on 2013-08-07T18:43:22Z (GMT). No. of bitstreams: 1 000400971-Texto+Completo-0.pdf: 3124182 bytes, checksum: 9b0e8cc34e680328d6c7483573e46652 (MD5) Previous issue date: 2006 / Software organizations work with several software projects that differ in terms of both the management tools used and the way tracking metrics are stored and controlled. Thus, the lack of a central data repository poses difficulties for the traking of Software Development Processes (SDPs) in these organizations. One of the crucial steps of the Knowledge Discovery in Databases Process is the process of Extraction, Transformation and Load (ETL). ETL aims to transform the raw data extracted from different fonts into consistent, reliable information. Considering the SDPs specificities, this study was carried out in the real computional environment. It was observed that the tools used range from spreadsheets (e. g. MS Excel) to control tools for the execution of project activities (e. g. MS Project Server, IBM Rational Clear Quest, Bugzilla). Different SDP models with a distinct life cycle for each project are also used, which result in completely different ways to register these projects even when using the same tool. Another problem is that each of those tools has an own data model that does not follow defined data representation standards. Therefore, the extraction of those data becomes a challenging goal to achieve, raising the complexity of ETL processes. The model proposed in this study introduces a two-integrated approach to deal with the problem: 1) a non intrusive way of data extraction, taking several types of heterogeneities into account, 2) the transformation and integration of these data, providing a unified and quantified organizational view of the projects. These aspects are treated using a serviceoriented architecture. This service oriented architecture tries to deal with several types of heterogeneity, from both the technical (e. g. different tools) and organizational standpoint (e. g. Organization’s Standard Software Process Standard specializations that result in distinct ways to develop and register project facts). This heterogeneity is conveniently treated through services that work as wrappers of the different types of extractors and through the support of a distributed development environment. For the evaluation of the proposed approach, three examples that consider all heterogeneity issues (different types of projects, different life cycles, different management models and several management support tools) were developed. / As organizações de software trabalham com diversos projetos de software que se diferenciam tanto pelas ferramentas de gestão utilizadas quanto pela forma que armazenam e controlam suas métricas de acompanhamento. Sendo assim, a inexistência de um repositório centralizado de dados dificulta o acompanhamento dos Processos de Desenvolvimento de Software (PDSs) dessas organizações. Uma das etapas mais cruciais do Processo de Descoberta de Conhecimento em Banco de Dados é o processo de Extração, Transformação e Carga (ETC), pois este tem como finalidade a transformação dos dados brutos, extraídos de diversas fontes, em informações consistentes e de qualidade. Considerando que os PDSs possuem suas especificidades, realizou-se um estudo em um ambiente real e verificou-se que, em termos de ferramentas, são utilizadas desde planilhas eletrônicas (e. g. MS Excel) até ferramentas para controle da execução de atividades de projetos (e. g. MS Project Server, IBM Rational Clear Quest, Bugzilla). Detectou-se ainda o uso de diferentes modelos de PDS, com ciclos de vida variados para projetos distintos, que se traduzem em formas totalmente diversas de registrar estes projetos, ainda que na mesma ferramenta. Outro problema é que cada uma dessas ferramentas possui um modelo de dados próprio, que não segue padronizações estabelecidas de representação de dados, dificultando assim a extração desses dados. Por conseqüência, o grau de complexidade do processo de ETC, para esta organização, é muito alto.O modelo proposto neste trabalho tem por mérito tratar, de forma integrada, dois aspectos: 1) a coleta de dados dos projetos de forma não intrusiva, levando em consideração vários tipos de heterogeneidade, 2) a transformação e integração desses dados, proporcionando uma visão organizacional unificada e quantitativa dos projetos. Esses aspectos são tratados utilizando uma arquitetura orientada a serviços. A abordagem orientada a serviços busca lidar com vários tipos de heterogeneidade, tanto do ponto de vista organizacional (e. g. especializações do Processo de Software Padrão da Organização (OSSP – Organization’s Standard Software Process) que resultam em formas distintas de desenvolvimento e registro de fatos sobre projetos), quanto do ponto de vista técnico (e. g. diferentes ferramentas). Essa heterogeneidade é convenientemente tratada através de serviços que atuam como wrappers dos diferentes tipos de extratores, que suporta um ambiente distribuído de desenvolvimento. Para avaliação da abordagem proposta, foram desenvolvidos três exemplos, que consideram todas essas questões de heterogeneidade: diferentes tipos de projetos, diferentes ciclos de vida, diferentes modelos de gerenciamento e diversas ferramentas de apoio ao acompanhamento.
129

Roteamento de consultas em banco de dados peer-to-peer utilizando colônias de formigas e ontologias /

Costa, Leandro Rincon. January 2009 (has links)
Orientador: Carlos Roberto Valêncio / Banca: Pedro Luiz Pizzigatti Corrêa / Banca: Rogéria Cristiane Gratão de Souza / Resumo: Sistemas baseados em redes peer-to-peer come caram a se popularizar nos anos 90 e, desde então, grandes avan cos e novas aplicações têm sido desenvolvidas aproveitando as caracter sticas deste tipo de rede de computadores. Inicialmente, tais redes eram utilizadas apenas em aplicações simples como o compartilhamento de arquivos, hoje, por em, encontram-se em aplicaçãoes com grau de complexidade cada vez maior. Dentre estes sistemas mais recentes, destaca-se o compartilhamento de informações armazenadas em bancos de dados, um segmento em franco desenvolvimento. Em bancos de dados peer-to-peer, cria-se uma base de conhecimento rica e amplamente distribu da, baseada no compartilhamento de informações semanticamente relacionadas, por em sintaticamente heterogêneas. Um dos desa os desta categoria de aplicações e garantir uma forma e ciente para a busca de informações sem comprometer a autonomia de cada n o e a exibilidade da rede. Neste trabalho explora-se este desafio e apresenta-se uma proposta de suporte as buscas por meio da otimização dos caminhos, buscando reduzir o n umero de mensagens enviadas na rede sem afetar significativamente o n umero de respostas obtidas por consulta. Para tal tarefa propõe-se uma estrat egia baseada em conceitos do algoritmo de colônia de formigas e classicação das informações utilizando ontologias. Com isso foi possível adicionar o suporte semântico como facilidade na execução do processo de busca em bancos de dados peer-to-peer, al em de reduzir o tráfego de mensagens e permitir inclusive que mais resultados sejam alcan cados sem comprometer o desempenho da rede. / Abstract: In the 90s, peer-to-peer systems became more popular and, since then, major advances and new applications have been developed based on the features of this kind of computer network. Initially they were used only in simple applications as le sharing, but now they have been implemented in increasingly more complex applications. Among these novel systems, it pointed out the database information sharing, which is developing rapidly. In peer-to-peer database, a very rich and widely distributed knowledge base is created, based on the sharing of semantically related but syntactically heterogeneous information. One of the challenges of such an application is to ensure an e cient way to search for information with no jeopardy either to the individual nodes autonomy or to the network exibility. The work herein explores this challenge aiming at a proposal to support the searches through paths optimization, looking for reducing the number of messages sent in network without a ecting the number of each query's answers. To do this work, it proposes a strategy based both on ant colony algorithm concepts and information classi cation by ontologies. This way, it has been possible to add the semantic support in order to ease the search process in peer-to-peer database, while reducing the message tra c and allowing even to reach more results without compromising the network performance. / Mestre
130

ORION : uma abordagem eficaz e robusta para aquisição de valores de atributos de entidades do mundo real / ORION: an effective and robust approach for acquiring attribute values of real-world entities

Manica, Edimar January 2017 (has links)
Página-entidade é uma página Web que publica dados que descrevem uma entidade de um tipo particular. Adquirir os valores dos atributos de entidades do mundo real publicados nessas páginas é uma tarefa estratégia para diversas empresas. Essa aquisição envolve as tarefas de encontrar as páginas-entidade nos sites e extrair os valores dos atributos publicados nessas páginas. Os trabalhos que discorrem sobre como realizar as tarefas de descoberta das páginasentidade e de extração dos dados de forma integrada possuem aplicação limitada porque são específicos para um domínio de aplicação ou porque requerem anotações a priori. Tendo em vista essa lacuna, esta Tese apresenta Orion, uma abordagem para aquisição de valores de atributos de entidades do mundo real a partir de páginas-entidade baseadas em template. Orion descobre as páginas-entidade nos sites e extrai os valores dos atributos publicados nessas páginas. A principal originalidade da abordagem Orion é realizar as tarefas de descoberta das páginas-entidade e de extração dos dados de forma integrada, independentemente de domínio de aplicação e de anotação a priori. A abordagem Orion inclui uma etapa de descoberta de páginas-entidade que combina características de HTML e URL sem a necessidade de intervenção do usuário para definição dos limiares de similaridade entre as páginas. A etapa de descoberta utiliza uma nova função de similaridade entre páginas baseada na URL que atribui diferentes pesos para os termos de URL de acordo com a capacidade de distinção de páginas-entidade das demais páginas. A abordagem Orion também inclui uma etapa de extração de valores de atributos a partir de consultas Cypher em um banco de dados orientado a grafos. Essa etapa infere as consultas automaticamente. A abordagem Orion é robusta porque inclui uma etapa adicional de reforço que realiza o tratamento de atributos com variação de template. Esse reforço é realizado por meio de uma combinação linear de diferentes funções de similaridade. A fim de avaliar a eficácia de cada etapa da abordagem isoladamente e da abordagem de forma integral, foram realizados experimentos exaustivos utilizando sites reais. Nesses experimentos, a abordagem Orion foi numérica e estatisticamente mais eficaz que os baselines. / Entity-page is a Web page which publishes data that describe an entity of a specific type. Acquiring the attribute values of the real-world entities that are published in these pages is a strategic task for various companies. This acquisition involves the tasks of discovering the entitypages in the websites and extracting the attribute values that are published in them. However, the current approaches that carry out the tasks of discovering entity-pages and extracting data in an integrated way have limited applications because they are restricted to a particular application domain or require an a priori annotation. This thesis presents Orion, which is an approach to acquire the attribute values of real-world entities from template-based entity-pages. Orion discovers the entity-pages in the websites and extracts the attribute values that are published in them. What is original about the Orion approach is that it carries out the tasks of discovering entity-pages and extracting data in a way that is integrated, domain-independent, and independent of any a priori annotation. The Orion approach includes an entity-page discovery stage that combines the HTML and URL features without requiring the user to define the similarity threshold between the pages. The discovery stage employs a new URL-based similarity function that assigns different weights to the URL terms in accordance with their capacity to distinguish entity-pages from other pages. Orion also includes a stage during which the attribute values are extracted by means of Cypher queries in a graph database. This stage automatically induces the queries. It should be noted that the Orion approach is robust because it includes an additional reinforcement stage for handling attributes with template variations. This stage involves exploring a linear combination of different similarity functions. We carried out exhaustive experiments through real-world websites with the aim of evaluating the effectiveness of each stage of the approach both in isolation and in an integrated manner. It was found that the Orion approach was numerically and statistically more effective than the baselines.

Page generated in 0.0763 seconds