• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 957
  • 31
  • 30
  • 23
  • 23
  • 23
  • 14
  • 12
  • 11
  • 9
  • 9
  • 9
  • 1
  • Tagged with
  • 1014
  • 1014
  • 266
  • 200
  • 191
  • 191
  • 172
  • 128
  • 123
  • 110
  • 110
  • 106
  • 105
  • 101
  • 87
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
431

Caracterização geotécnica do subsolo de Curitiba para o planejamento de ocupação do espaço subterrâneo / Geotechnical characterisation of Curitiba city, southern Brazil, for planning of underground space

Talamini Neto, Edmundo 11 January 2002 (has links)
Devido ao seu crescimento acelerado o município de Curitiba deverá, em breve, ter seu espaço subterrâneo ocupado com maior intensidade. Este processo deve ser devidamente planejado, levando-se em conta as propriedades geotécnicas do subsolo. Assim, buscou-se desenvolver e aplicar um método de caracterização geotécnica do meio urbano para fins de planejamento do espaço subterrâneo. O trabalho consistiu no mapeamento tridimensional das principais unidades geotécnicas e na sua caracterização em termos de adequação para obras subterrâneas. Para tanto, inicialmente, reuniu-se dados geotécnicos existentes (sondagens, poços, mapas topográficos), e levantou-se pontos em campo. A partir do mapa topográfico gerou-se imagens artificiais do terreno, que foram reunidas aos demais dados em um sistema de informações geográficas (SIG). Este processo permitiu a elaboração de um mapa geológico simplificado. Os dados armazenados no sistema (SPT, profundidades das unidades geológicas, entre outros) passaram por uma filtragem, sendo exportados para a realização de análises geoestatísticas, interpolações e geração de cartas de isovalores. Grades regulares com valores interpolados foram então inseridas no SIG, constituindo-se um modelo geotécnico digital tridimensional que permite a navegação virtual entre unidades geotécnicas. Através de classificação geomecânica determinou-se as condições de suporte e estabilidade para possíveis túneis em rochas do município. No caso dos solos realizaram-se análises limite considerando informações de campo e ensaios SPT. Integrando- e, em um único documento, cartas de profundidade das unidades geotécnicas, o mapa geológico simplificado e informações construtivas para túneis, gerou-se um mapa orientativo para a construção de obras subterrâneas no município de Curitiba. Este mapa pode ser diretamente aplicado no planejamento de ocupação do subterrâneo. / Due to its fast population increase, the city of Curitiba will soon have to use its underground space. However, underground space use should be previously planned, taking geotechnical information into consideration. Therefore, the present research is intended to develop and apply an urban geotechnical characterisation method for underground space planning. The work consisted of a 3D mapping of main geotechnical units and determination of their suitability for underground constructions. At first, existing geotechnical data, such as borehole logs, well logs and topographic maps, have been collected and stored. Field studies were carried out subsequently. Digital terrain models have been obtained from topographic maps, and integrated with the other data in a geographical information system (GIS). This process allowed for the production of a simplified geological map. The stored data have been filtered and exported for the development of geostatistical analysis, interpolations and contour maps. Interpolated grids were then reinserted in the GIS software, where a 3D digital geotechnical model has been produced, permitting virtual navigation through soil layers. Tunnel stability and support design evaluations have been performed by means of rock mass classifications. For soil tunnel stability and support assessments, field studies and N-SPT correlations have been used along with limit analysis. A decision support geotechnical map for underground constructions has been obtained by representing, in a single document: the simplified geological map, geotechnical unit depth contour charts, tunnel stability and support analysis results. This decision support map may be directly applied for underground space planning activities.
432

Uma arquitetura de sistemas distribuídos para weblabs de serviços ambientais. / Distributed architecture for weblabs of ecosystem services.

Ferreira, Marcelo Succi de Jesus 15 June 2007 (has links)
Serviços Ambientais - purificação do ar, estabilização do clima, polinização de culturas, etc. - são funções fundamentais na sustentação da vida humana e têm sua importância econômica cada vez mais evidenciada. Para melhor estudar estes Serviços e saber como eles se comportam, são necessárias novas abordagens para disponibilizar, integrar e compartilhar os dados existentes sobre eles. O projeto ViNCES (Virtual Network Center of Ecosystem Services) propõe a utilização de laboratórios acessíveis via internet - weblabs - com foco em Serviços Ambientais a fim de promover uma melhor compreensão destes serviços. Assim, com o objetivo de viabilizar esta proposta, desenvolveu-se uma arquitetura que permite o acesso aos diversos weblabs do projeto de maneira integrada, disponibilizando os dados de experimentos realizados a um maior número de pesquisadores. A arquitetura proposta fundamenta-se no paradigma de Arquitetura Orientada a Serviços e atende a requisitos de acesso centralizado aos weblabs para a realização e recuperação de experimentos de maneira remota. Esta arquitetura aproveita outras pesquisas na área de Ecoinformática, considerando soluções já existentes no projeto SEEK (Science Environment for Ecological Knowledge). Desta maneira, adota o padrão de metadados EML (Ecological Metadata Language) para a transferência e armazenamento de dados dos experimentos, permitindo que os experimentos fiquem disponíveis a outros pesquisadores que utilizem a infra-estrutura do projeto SEEK. / Ecosystem Services - air purification, climate estabilization, crop pollination, etc. - are essential to sustain human life.Their economic importance is becoming more and more recognized. In order to better study these Services and learn about their behaviour, new approaches are needed for making available, integrating and sharing existing data about them. The ViNCES (Virtual Network Center of Ecosystem Services) project proposes the use of remotely accessible laboratories - weblabs - focused on Ecosystem Services to better understanding these services. In this way, an architecture was developed that allows access to project´s weblabs in an integrated way, giving access to collected data for more researchers. The proposed architecture is based on the SOA (Service Oriented Architecture) paradigm and considers requirements of centralized access to laboratories to, in a remote way, make experiments and retrieve gathered data. This architecture considers other related initiatives in the ecoinformatics field, and uses solutions present in the SEEK (Science Environment for Ecological Knowledge) project. In this way, the EML (Ecological Metadata Language) standard was adopted for transporting and storaging experiments data, and allows that these data are available for other researchers that use the SEEK infra-structure.
433

ProGen AP: um Pipeline para Anotação Proteogenômica de Mycobaterium tuberculosis visando o Descobrimento de Genes com Potencial para Intervenção Biotecnológica. / ProGen AP: a Pipeline for Proteogenomic Annotation of Mycobacterium tuberculosis Seeking the Discovery of Potential Genes for Biotechnological Intervention.

Pinto, Beatriz Jeronimo 03 May 2013 (has links)
Anotação proteogenômica é uma abordagem que une a análise proteômica com a anotação genômica. O intuito de tal abordagem é prover uma anotação mais detalhada ao gene. Intuito esse, que nem sempre é possível quando se trata apenas de genes, uma vez que produtos gênicos, com funções importantes preditas, somente passam a ter papel na fisiologia do organismo quando expressos e traduzidos. Com todo o avanço atual de estudos na área proteogenômica, a geração de dados tem crescido de modo exponencial e, com esse crescimento, nota-se a necessidade cada vez maior da criação de sistemas capazes de processar, armazenar e gerenciar essas novas informações produzidas. Assim, é descrito nesse trabalho o desenvolvimento do ProGen AP , sendo constituído de uma interface web construída em HTML/PHP5, um banco de dados cujo SGBD é o mySQL e de módulos de processamento de dados proteômicos, neste caso o LabKey (com o core Xtandem!) e o QuickMod. Todos os módulos são open source e comunicam entre si através de scripts PERL. Nesse sistema, o pesquisador fornece dados de experimentos proteômicos e o sistema, então, os processa e retorna ao usuário informações sobre o gene expresso, a localização dos peptídeos dentro do gene aos quais pertencem e, ainda, informações quantitativas sobre o peptídeo e a proteína identificados. Além disso, o uso de um processamento esquematizado reduz a possibilidade de erro de entrada/saída de dados nos módulos intermediários do processamento. Aqui, o ProGen AP foi aplicado no estudo proteômico do Mycobacterium tuberculosis (MTb). Na literatura, o genoma do MTb cepa H37Rv contém apenas 4062 open reading frames (ORFs) preditos e o complemento funcional desse genoma, o proteoma, ainda não está totalmente elucidado. A análise do proteoma do MTb, com o uso do ProGen AP, resultou em uma lista total de 154.982 identificações de peptídeos, representando um total de 147.334 peptídeos únicos. Até o momento, foram identificadas 2.369 proteínas, cobrindo aproximadamente 58% de todo o genoma do MTB. É importante ressaltar que, dentre todas as proteínas identificadas até o momento, a maioria delas está anotada como proteinas hipotéticas em seu genoma, e, por consequência, os resultados obtidos nesse projeto confirmam e validam a existência de tais produtos gênicos. Além disso, 567 peptídeos foram identificados como N-terminal e 1229 como C-terminal, o que indica a correta predição do início e do término da tradução de tais genes. Todos esses resultados positivos confirmam que a abordagem utilizada no ProGen AP é eficiente e pode ser usada em vários outros organismos de interesse do pesquisador. / Proteogenomic annotation is an approach that combines proteomic analysis and genomic annotation. The aim of this approach is to provide a more detailed annotation, which is not possible in most of the times when dealing mostly with genes, once that genomic products, with important predicted functions are only important in the organism physiology when they are expressed and translated. There have been occurring several advances in proteogenomic studies and the generation of new data sets has been growing in an exponential wave. With all this growth, the creation of systems able to storing, processing and analyzing all the new knowledge produced is eminent. This study presents the deployment of ProGen AP, a system built with a HTML/PHP5 web interface, a mySQL data management system to store the data and two processing modules (LabKey, with core X!Tandem and QuickMod). In this system, the researcher provides a data set from a proteomic experiment and then the system processes it and returns to the researcher information about the expressed gene, the peptides localization inside the gene that they belong and, also, quantitative information about the peptide and the protein that were identified. Also, the use of an automated pipeline reduces the possibility of making mistakes in input/output of the data when using the intermediate modules. Here, the ProGen AP were applied to perform a proteogenomic annotation of Mycobacterium tuberculosis (MTb). In literature, the MTb genome, strain H37RV, have only 4062 predicted open reading frames (ORFs) and the functional complement of this genome is not completely known. The MTb analysis using ProGen AP, resulted in a list of 154.982 peptides identification, representing a total of 147.334 single peptides. Until now, were identified 2.369 proteins, covering nearly of 58% of the whole MTb genome. Is very important to highlight that, among all the identified proteins until now, most of them are annotated as hypothetical proteins in the MTb genome, so can be affirmed that the results of this project can confirm and validate the existence of all these genomic products. Beside this, 567 peptides were identified as been an N-terminal peptide and 1229 were identified as been a C-terminal, this fact indicates that the prediction of the beginning and the end of translation of those genes are right. All these positive results corroborate that the approach utilized in the ProGen AP is efficient and can be used in studies of other organisms.
434

Conexão In Silico entre Plantas Medicinais e Animais Venenosos / In silico Connection between Medicinal Plants and Animals Venom

Puga, Renato David 15 April 2008 (has links)
Na grande diversidade de plantas encontrada em todo o mundo, encontram-se as plantas medicinais com propriedades antivenenos. O estudo da relação dessas plantas com venenos de animais contribui muito para o desenvolvimento de novos medicamentos. A quantidade de dados a ser armazenada e a relação dessas informações é um processo que deve ser administrado por um sistema computacional. O desenvolvimento de sistemas de computadores tem se destacado nos últimos anos na Bioinformática e são muito úteis para organizar diferentes tipos de dados e, juntamente, com o uso de gerenciadores de conteúdo, eles contribuem, significantemente, no processo de desenvolvimento de softwares. O presente projeto teve como objetivo o desenvolvimento de um sistema computacional para Web, o qual relaciona dados de plantas medicinais com propriedades antivenenos e de animais venenosos, permitindo a integração dos mesmos, através de diferentes aplicativos de busca. O sistema foi denominado de Venom e está disponível no site http://gbi.fmrp.usp.br/venom/. Foram criadas categorias para a classificação dos dados de plantas e de animais. Essa categorização das informações é muito importante, pois possibilita o relacionamento das mesmas nas buscas por categorias. Os dados, tanto de plantas quanto de animais, foram extraídos de artigos científicos e de bases de dados públicos. Família, espécie, composto isolado e nome popular são algumas das informações referentes às plantas. Quanto aos animais venenosos, o sistema oferece informações tais como, espécie, seqüência de aminoácidos no formato FASTA, entre outras. Até o momento, encontram-se categorizados e disponíveis no sistema 97 dados de plantas medicinais com propriedades antiveneno, distribuídos em 42 famílias e 4.623 dados de animais venenosos, distribuídos em 392 espécies entre 10 diferentes organismos. Novas informações podem ser depositadas por colaboradores cadastrados no sistema. Tais depósitos entram em uma fila de espera e, se os campos requisitados estiverem preenchidos e os dados categorizados corretamente, o conteúdo é liberado de acordo com as regras de permissão estabelecidas pelo sistema de segurança. A interface do Venom é simples, contribuindo, assim, para um acesso rápido e funcional. / In the vast diversity of plants found around the world, there are medicinal plants with antivenom properties. The study that relates data from medicinal plants with poisons of animals contributes to the development of new medicines. These information and integration between them is a process that must be administered by a computer system, which helps significantly in the structure of storage. The development of computer systems has been highlighted in recent years in Bioinformatics and are very useful for organizing different types of data and, together with the use of content managers, they contribute, significantly, in the process of developing software. This project aimed to the development of a computer Web system, which related data of medicinal plants with anti-venom properties and venomous animals, allowing the integration of the data, through different search applications. The system was named Venom and is available on the web site http://gbi.fmrp.usp.br/venom/. Categories were created for the classification of the plants and animals data. This categorization is very important because it allows the use of the categories relationship in the searches. Data both of plants and animals were extracted from scientific articles and from public databases. Family, species, isolated composed and popular name are some of the information relating to the plants. About venomous animals, the system provides information such as species, amino acids sequence in FASTA format, among others. Until now, there are 97 categorized plants data available on the system, which are distributed in 42 families, and there are 4,623 data from venomous animals, distributed in 392 species of 10 different organisms. New information may be submitted by collaborators researches registered in the system. Such deposits come to a waiting queue, and whether all the requested fields are completed and corrected categorized, the content is released in accordance with the permission rules established by the system. The Venom\'s user interface is simple, contributing to a fast and functional access.
435

Uma linguagem de gerência de regras como extensão da linguagem SQL3. / A rule management language as extension of SQL3 language.

Viana, Sidney da Silva 10 August 2007 (has links)
Este trabalho adota um modelo de regras estendido, que melhora a expressividade da linguagem SQL3, propondo o uso de novas variantes para o modelo de regras ECA (Evento - Condição - Ação). Porém, este modelo estendido abrange somente a definição de regras, faltando as outras operações de gerência, como eliminar ou modificar uma regra, entre outros mecanismos necessários para gerenciar estes novos tipos de regras. Neste trabalho, propõe-se uma linguagem de gerência de regras composta de um conjunto de operações para criar, excluir e alterar as regras e suas partes, com a finalidade de obter maior reuso e manutenibilidade das regras. Para tanto, analisa-se o modelo de regras estendido, para identificar quais são as suas limitações e as propriedades do modelo a serem consideradas na especificação da linguagem de gerência de regras proposta. O resultado desta análise é utilizado para a elaboração de um repositório de regras, necessário para armazenar os tipos de regras propostos. Este repositório armazena um conjunto de regras que se deve manter consistente, da mesma forma que os dados se mantêm consistentes em um banco de dados. Para tanto, foi definido um conjunto de regras de consistência. Também, é definido um conjunto de operações de gerência de regras que auxiliam na manipulação de regras e de seus elementos, armazenadas no repositório de regras. / This work uses an extended rule model which improves the expressiveness of SQL3 language, proposing the use of new variants for the ECA (Event-Condition-Action) rule model. Nevertheless, the extended model considers only the rule definition and it lacks other management operations, such as excluding or modifying rules, among others necessary mechanisms for these new rule types. In this work, a rule management language made of a set of operations for creating, eliminating and altering rules and its parts is proposed, in order to obtain greater reuse and maintainability of rules. For this purpose, the extended rule model is analyzed to identify its limitations and the properties that it supports to be considered in the rule management language proposed. The result of this analysis is used to define a rule repository, necessary for storing the rule types proposed. This repository stores a rules set which must be consistent, as well as data must be consistent in the database. Hence, a consistency rule set is defined. Besides, a rule management operations set is defined to help to handle rules and their elements, stored in the rule repository.
436

Aplicação de práticas ágeis na construção de data warehouse evolutivo / Application of agile practices in the traditional method of data warehouse engineering

Carvalho, Guilherme Tozo de 28 April 2009 (has links)
Um Data Warehouse (DW) é um banco de dados centralizado, orientado por assunto, integrado, não volátil e histórico, criado com o objetivo de dar apoio ao processo de tomada de decisão e que estrutura os dados em uma arquitetura analítica bastante distinta da arquitetura relacional utilizada nos bancos de dados transacionais. Construir um DW é um projeto de engenharia bastante complexo pois envolve muitas tecnologias e muitas pessoas, de diferentes equipes, em um grande esforço conjunto para construir esta base central de informações corporativas. O processo tradicional de construção de um DW não utiliza conceitos ágeis e, pelo escopo de desenvolvimento ser grande, pode levar muito tempo até que funcionalidades sejam entregues aos clientes. Os métodos ágeis de engenharia de software são muito usados como uma alternativa aos métodos tradicionais de desenvolvimento e têm diferenciais que trazem muito valor a projetos grandes pois, além de buscar desenvolver versões funcionais em prazos curtos, defendem que todos os sistemas têm a constante necessidade de se adaptar a mudanças. Neste trabalho são aplicadas práticas ágeis no processo tradicional de engenharia de DW para que o desenvolvimento seja realizado em ciclos iterativos curtos, tornando possível o desenvolvimento rápido e evolutivo de um DW com entregas constantes de novas funcionalidades. A contínua evolução deste complexo ambiente analítico é apoiada por conceitos de banco de dados evolutivos e também por fundamentos de métodos ágeis. / A data warehouse (DW) is a central database, subject-oriented, integrated, nonvolatile, and time-variant collection of data in support of management\'s decision making process and that summarize the data in an analytic architecture quite different from the relational one, used in transactional databases. Building a DW is a complex engineering project because it involves many technologies and many people, from different teams, in a huge corporative effort to build a central database with corporative data. The traditional engineering process to build a DW does not use agile concepts and, as its scope is quite big, it might takes a long time until the customer can use its features. Agile methods of software engineering are commonly used as an alternative to the traditional methods and they have some differentials that lead a lot of value to big projects, as the continuous attempt to develop short releases in short periods of time, or the belief that every system needs to be continuously adapted to the changes on its environment. This work applies agile practices in the traditional DW engineering method, so that the development can be done in short iterative cycles, making possible a fast and evolutive DW project, with frequent delivering of new functionalities. The continuous evolution of this complex analytical environment is supported by evolutive database concepts and also for agile methods foundations.
437

Tabela Brasileira de Composição de Alimentos (TBCA-USP): inclusão de dados de minerais / Brazilian Food Composition Database (TBCA-USP): inclusion of minerals data

Lopes, Tassia do Vale Cardoso 20 August 2012 (has links)
Uma das metas da Tabela Brasileira de Composição de Alimentos (TBCA-USP) é a disseminação de dados confiáveis de composição química e, por isso, a base de dados da TBCA-USP vem sendo continuamente atualizada com a inserção de novos alimentos e nutrientes, como os minerais. Embora nos últimos 20 anos tenha ocorrido uma intensificação dos estudos de micronutrientes, há pouca informação sobre o conteúdo de minerais nas tabelas de composição de alimentos, empregando metodologia adequada e, paralelamente, parte das informações existentes está dispersa em publicações. O objetivo deste trabalho consiste na compilação de dados de minerais de alimentos nacionais, visando sua introdução na TBCA-USP. Para a compilação de minerais, foi necessário atualizar o Manual e o Formulário de Compilação de Dados sobre Composição de Alimentos; no manual foram incluídas informações importantes a serem observadas durante a compilação de dados de minerais. Já no formulário, na planilha de avaliação da qualidade dos dados, incluíram-se campos relacionados ao tratamento das amostras e que são necessários ao conhecimento do compilador, uma vez que podem influenciar na quantidade de minerais do alimento, permitindo assim, uma melhor avaliação da confiabilidade da informação. O levantamento de dados foi realizado em periódicos nacionais e internacionais, dissertações, teses e dados internos de laboratório, totalizando 348 publicações com datas entre 1975 e 2011. Desse total, 186 foram descartadas e 162 foram selecionadas para compilação, pois continham informações detalhadas sobre o alimento estudado, com descrição e referência dos métodos analíticos utilizados e informações completas dos resultados analíticos. Das publicações compiladas, 26% foram referentes ao grupo das frutas e derivados; 25% ao grupo das hortaliças, algas, cogumelos, condimentos, espécies e derivados; 12,5% ao grupo de leguminosas, grãos e derivados; 10% ao grupo das carnes e derivados; 6,5% ao grupo dos peixes e frutos do mar; 6% ao grupo das bebidas; 4,5% ao grupo de leite e derivados; 4% ao grupo dos cereais e derivados; 2,5% ao grupo de alimentos manufaturados; 1% ao grupo dos ovos e derivados; 1% ao grupo de alimentos infantis; 0,5% ao grupo dos óleos e derivados e 0,5% ao grupo de produtos açucarados, totalizando 860 alimentos. Os minerais mais presentes nas publicações foram o ferro (76% das publicações), o cálcio (72%) e o zinco (66%). O Manual e o Formulário foram aprimorados visando facilitar a compilação de dados de minerais e o melhor detalhamento das informações disponibilizadas nas publicações. Os dados dos 860 alimentos compilados geraram o banco de dados de minerais da Tabela, e em breve serão disponibilizados na TBCA-USP (www.fcf.usp/tabela). / One of the goals of the Brazilian Food Composition Database - USP (TBCA-USP) is the dissemination of reliable data of chemical composition and, because of this, the TBCA-USP database is continually being updated with the insertion of new foods and nutrients, like minerals. Although in the last 20 years has occurred intensification in the micronutrients studies, there is little information about the content of minerals in food composition tables, employing adequate methodology and, in parallel, part of the existing information is dispersed in publications. The objective of this study is the compilation of mineral data in national foods, aiming your introduction in TBCA-USP. For the mineral compilation, it was necessary to update the manual and the form for compilation of food composition data; in the manual were included important informations to be observed during the compilation. In the case of form, the spreadsheet for analytical quality control were expanded to accommodate informations about the treatment of the samples as because they are necessary to the knowledge of the compiler, since this information can affect the minerals content of the food, resulting in a better avaliation of the confiability of information. The survey of mineral data was done in national and international publications, thesis and internal data of laboratories, resulted in 348 publications with date of publication between 1975 and 2011. Of this total, 186 were discarded and 162 were evaluated for compilation because they had detailed information about the food, with description and reference of the analytical methods used and complete information about the results. Of the compiled publications, 26% were related to fruits and fruit products group; 25% to vegetable and vegetable products; 12,5% to legumes, grains and their products; 10% to meat and meat products; 6,5% to fish and shellfish; 6% to beverages; 4,5% to milk and milk products; 4% to cereals and grain products; 2,5% to manufactured foods; 1% to eggs; 1% to infant foods; 0,5% to oils and fats and 0,5% to sugars and syrups, resulted in 860 foods items. The minerals that appear more times in the publications were iron (76% of the publications), calcium (72%) and zinc (66%). The Manual and the Form have been improved aiming to facilitate the compilation of mineral data and better detail of avaliable information in the publications. The data of 860 compiled foods resulted the mineral database of the TBCA-USP, and ready to soon be available in TBCA-USP (www.fcf.usp/tabela).
438

Um repositorio de objetos para um ambiente de programação distribuida

Oliveira, Marco Aurélio Medina de 15 December 1997 (has links)
Orientador: Luiz Eduardo Buzato / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-07-23T06:11:19Z (GMT). No. of bitstreams: 1 Oliveira_MarcoAurelioMedinade_M.pdf: 1807250 bytes, checksum: 824651847da971ba7b7c9ab13176339b (MD5) Previous issue date: 1997 / Resumo: O objetivo desta dissertação é a otimização do mecanismo de persistência do estado de objetos em um sistema de programação distribuída baseado em ações atômicas chamado Arjuna. O mecanismo atual de persistência em Arjuna tem um desempenho insatisfatório em termos de velocidade. Isto deve-se a utilização do sistema de arquivos hospedeiro (Unix) como repositório de objetos de forma inadequada. A provisão de ações atômicas é obtida através da técnica de cópias shadow sobre o repositório de objetos. A construção do repositório de objetos Hiper Store (High Performance Store) otimiza a persistência através da utilização de mecanismos de 10g e gerência de memória. Estes mecanismos já são utilizados em outros tipos de aplicações que suportam ações atômicas, como bancos de dados, e mostram-se eficientes também em Arjuna. / Abstract: The purpose of this dissertation is the optimization of the object state persistence me­chanisms in a distributed programming system based on atomic actions called Arjuna. At this moment, the persistence mechanism in Arjuna has not a satisfactory performance about speed. This is due the utilization of host file system (Unix) as object store in an inefficient way. Arjuna obtains atomic action support using the shadow copies technique over his object store. The Hiper Store (High Performance Store) implementation optimizes the persistence using mechanisms like log and memory manager. This mechanisms are also used in other applications that support atomic actions, like databases, and has also a good performance in Arjuna. / Mestrado / Mestre em Ciência da Computação
439

Uma abordagem de Data Warehouse para an?lise de processos de desenvolvimento de software

Novello, Taisa Carla 02 March 2006 (has links)
Made available in DSpace on 2015-04-14T14:48:55Z (GMT). No. of bitstreams: 1 399218.pdf: 2830985 bytes, checksum: ffa3a6af739950b3c3732472c58fb2c7 (MD5) Previous issue date: 2006-03-02 / A busca pela qualidade sobre produtos de software se faz cada vez mais presente e necess?ria em organiza??es de software. Neste sentido, essas organiza??es buscam op??es de como medir e analisar quantitativamente a qualidade de seus processos de desenvolvimento. No entanto, organiza??es trabalham com diferentes projetos que, por sua vez, utilizam-se de diversos processos e m?tricas. Partindo desta premissa, tais organiza??es devem buscar alternativas de como prover uma vis?o unificada atrav?s da centraliza??o dos dados dos diferentes projetos e ainda disponibilizar, a seus usu?rios, an?lises quantitativas de seus Processos de Desenvolvimento de Software (PDS) atrav?s de um Programa de M?tricas (PM). Para tal, os modelos de qualidade de software sugerem a constru??o de um reposit?rio organizacional de m?tricas. Contudo, a constru??o de um reposit?rio que atenda as caracter?sticas tanto de suporte ao armazenamento dos dados, como da disponibiliza??o de an?lises aos usu?rios organizacionais n?o mostra-se uma tarefa trivial. Perante esta realidade, este trabalho descreve sucintamente a arquitetura de um ambiente de Data Warehousing que prov? suporte a ado??o de um PM atrav?s do armazenamento de dados resultantes de diferentes PDS em uma base de dados unificada e centralizada. Este volume dedica-se a apresenta??o de dois componentes deste ambiente: o modelo anal?tico, base do Data Warehouse (DW), e o componente de apresenta??o no qual definem-se recursos anal?ticos que facilitam as an?lises realizadas pelos usu?rios organizacionais. O desenvolvimento de um reposit?rio deve considerar tanto as especificidades do PM adotado como as do pr?prio ambiente dos PDS. Quanto ?s m?tricas que comp?em o PM, algumas representam dados n?o aditivos que podem comprometer as an?lises a serem realizadas. J?, quanto ao ambiente, especificidades dos PDS dificultam a defini??o de um ?nico modelo que comporte caracter?sticas distintas. Al?m do armazenamento dos dados, a forma como estes ser?o disponibilizados tamb?m deve ser considerada, uma vez que usu?rios possuem caracter?sticas e necessidades de an?lise distintas. Por conseq??ncia, a complexidade de se desenvolver um modelo e prover recursos de an?lise neste contexto ? muito alta. Desta forma, o modelo anal?tico proposto visa armazenar m?tricas e dados resultantes dos PDS, considerando as necessidades de an?lises e tratando tanto as especificidades do PM adotado como tamb?m as do ambiente do PDS. A defini??o dos recursos anal?ticos propostos, considera usu?rios com diferentes perfis, bem como suas particularidades. Estes recursos visam satisfazer as necessidades de an?lise destes perfis disponibilizando informa??es atrav?s de v?rios n?veis de granularidade e disponibilizando mecanismos que forne?am maior sem?ntica aos dados. Assim, este trabalho prov? uma infraestrutura que suporta dados resultantes de diferentes PDS e an?lises quantitativas que consideram diferentes perfis de usu?rios embasadas em um PM.
440

Uma abordagem orientada a servi?os para captura de m?tricas de processo de desenvolvimento de software

Cunha, Virginia Silva da 26 January 2006 (has links)
Made available in DSpace on 2015-04-14T14:48:59Z (GMT). No. of bitstreams: 1 400971.pdf: 3124182 bytes, checksum: 9b0e8cc34e680328d6c7483573e46652 (MD5) Previous issue date: 2006-01-26 / As organiza??es de software trabalham com diversos projetos de software que se diferenciam tanto pelas ferramentas de gest?o utilizadas quanto pela forma que armazenam e controlam suas m?tricas de acompanhamento. Sendo assim, a inexist?ncia de um reposit?rio centralizado de dados dificulta o acompanhamento dos Processos de Desenvolvimento de Software (PDSs) dessas organiza??es. Uma das etapas mais cruciais do Processo de Descoberta de Conhecimento em Banco de Dados ? o processo de Extra??o, Transforma??o e Carga (ETC), pois este tem como finalidade a transforma??o dos dados brutos, extra?dos de diversas fontes, em informa??es consistentes e de qualidade. Considerando que os PDSs possuem suas especificidades, realizou-se um estudo em um ambiente real e verificou-se que, em termos de ferramentas, s?o utilizadas desde planilhas eletr?nicas (e.g. MS Excel) at? ferramentas para controle da execu??o de atividades de projetos (e.g. MS Project Server, IBM Rational Clear Quest, Bugzilla). Detectou-se ainda o uso de diferentes modelos de PDS, com ciclos de vida variados para projetos distintos, que se traduzem em formas totalmente diversas de registrar estes projetos, ainda que na mesma ferramenta. Outro problema ? que cada uma dessas ferramentas possui um modelo de dados pr?prio, que n?o segue padroniza??es estabelecidas de representa??o de dados, dificultando assim a extra??o desses dados. Por conseq??ncia, o grau de complexidade do processo de ETC, para esta organiza??o, ? muito alto. O modelo proposto neste trabalho tem por m?rito tratar, de forma integrada, dois aspectos: 1) a coleta de dados dos projetos de forma n?o intrusiva, levando em considera??o v?rios tipos de heterogeneidade, 2) a transforma??o e integra??o desses dados, proporcionando uma vis?o organizacional unificada e quantitativa dos projetos. Esses aspectos s?o tratados utilizando uma arquitetura orientada a servi?os. A abordagem orientada a servi?os busca lidar com v?rios tipos de heterogeneidade, tanto do ponto de vista organizacional (e.g. especializa??es do Processo de Software Padr?o da Organiza??o (OSSP Organization s Standard Software Process) que resultam em formas distintas de desenvolvimento e registro de fatos sobre projetos), quanto do ponto de vista t?cnico (e.g. diferentes ferramentas). Essa heterogeneidade ? convenientemente tratada atrav?s de servi?os que atuam como wrappers dos diferentes tipos de extratores, que suporta um ambiente distribu?do de desenvolvimento. Para avalia??o da abordagem proposta, foram desenvolvidos tr?s exemplos, que consideram todas essas quest?es de heterogeneidade: diferentes tipos de projetos, diferentes ciclos de vida, diferentes modelos de gerenciamento e diversas ferramentas de apoio ao acompanhamento.

Page generated in 0.0204 seconds