• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3014
  • 105
  • 2
  • Tagged with
  • 3122
  • 3122
  • 2809
  • 2809
  • 2809
  • 1921
  • 981
  • 550
  • 477
  • 466
  • 416
  • 400
  • 400
  • 368
  • 366
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Construção de Funções Empíricas Utilizando Rede Neural para Determinação de Constantes de Afinidade Receptor-Ligante / Construction of Empirical Scoring Functions Using Artificial Neural Network for Determination of Affinites Constants Between Receptor-Ligand

Thais Gaudencio do Rêgo 25 August 2008 (has links)
A compreensão dos mecanismos de reconhecimento molecular receptor-ligante é um dos aspectos centrais na descoberta e planejamento de novos fármacos baseado em estrutura. Uma metodologia chave é o atracamento de pequenas moléculas em sítios de ligação de proteínas, o atracamento molecular (em inglês, "molecular docking"). Existem dois pontos chaves em qualquer programa de atracamento: a busca da "melhor" conformação ligante-proteína e o cálculo da energia livre desta associação, ou sua constante de afinidade. Foi construído neste trabalho um conjunto-teste formado por 50 complexos proteína-ligante, com valores de K i ou K d determinados experimentalmente, para a construção de uma função empírica específica para o programa DOCKTHOR, utilizando como variáveis de entrada valores de energias de interação eletrostática e de Lennard-Jones, área de contato ligante-receptor da superfície acessível ao solvente, presença de ligações hidrogênio, e o número de ligações torcionáveis do ligante. Estes variáveis foram utilizados para a construção de dois tipos de funções de cálculo de energia livre. Através de regressão múltipla, foi avaliada a importância de cada uma das variáveis utilizadas como dados de entrada na construção desta função. Utilizando uma rede neural, buscou-se construir o melhor modelo para o cálculo de constantes de afinidade. O programa DOCKTHOR atualmente tem poder de predição correspondente a r = viii 0,4245, o que mostra a importância de se melhorar sua função de avaliação. A função construída com a metodologia de regressão múltipla que obteve melhor resultado foi a que utilizou as 5 variáveis de entrada apresentando termos lineares, cruzados e quadráticos, com r igual a 0,7542. Funções empíricas construídas por redes neurais também foram avaliadas neste trabalho. Utilizando a metodologia de validação cruzada de grupo (VCG) chegou-se à conclusão que a melhor arquitetura para a rede neural é constituída por 9 neurônios na camada oculta, pois possui o menor erro de generalização e a maior homogeneidade nos erros. No teste com esta arquitetura de rede neural, com a função construída utilizando os 50 complexos proteína- ligante no treinamento e os mesmos, no teste, observamos que 66% dos complexos tiveram uma diferença menor que 1,0 dos valores observados em relação aos esperados. O erro de generalização, obtido por VCG, de uma rede neural utilizando 9 neurônios na camada oculta foi cerca de dez vezes menor ao obtido utilizando uma função polinomial. Isto é um indicativo da superioridade da metodologia de rede neural, com relação a metodologia de regressão multivariada, principalmente em uma função empírica desenvolvida para estimar afinidades relativas à uma ampla gama de complexos receptor-ligante. / The understanding of receptor-ligand molecular recognition is one of the central aspects in structure-based design and discovery of new drugs. The key methodology is the docking of small molecules in active sites of proteins. There are two aims in any program of molecular docking: the search for the best ligand-protein conformation and the calculation of the free energy of this association, or its affinity constant. The test set used in this work was composed by 50 protein- ligand complexes, with experimentally measured Ki or Kd values for the construction of an empirical function specific to the DOCKTHOR program, using as input variables: energy of electrostatic interaction and Lennard-Jones, contact area of ligand-receptor on the surface accessible to the solvent, the presence of hydrogen bridges, and the number of the ligand rotatable bonds that were frozen in the process of docking. These variables were used for the construction of two types of free energy scoring functions. The importance of each variable used as input data for the construction of those functions was rated by means of multiple regression. A neural network was x also used to try to build the best model for the calculation of the affinity constant. The DOCKTHOR program currently has a prediction power leading to r = 0.4245, which indicates the importance of improving its scoring. The function built with the multiple regression methodology used 5 input variables and had linear, quadratic, and cross-product terms leading to r = 0.7542. Using the methodology of group cross-validation (VCG), it was concluded that the best architecture for the neural network consists of 9 neurons in the hidden layer, as it has the smallest error of generalization and greater consistency in errors. In the tests with this neural network architecture built using the same 50 protein-ligand complexes in training and test, 66% of the complexes had a difference smaller than 1.0 in the observed values. The generalization error (obtained by VCG) of a neural network that uses 9 neurons in the hidden layer was about ten times lower than that obtained by using a polynomial function. This is an indication of the superiority of the neural network methodology with respect to the multivariate regression methodology, specially for an empirical function developed for a broad range of receptor-ligand complexes.
102

Generalized Simulated Annealing Parameter Sweeping Applied to the Protein Folding Problem / Mapeamento de Parâmetros do Simulated Annealing Generalizado aplicado ao problema do Enovelamento de Proteínas

Flavia Paiva Agostini 06 June 2009 (has links)
Com os rápidos avanços no seqüenciamento do genoma, a compreensão da estrutura de proteínas torna-se uma extensão crucial a esses progressos. Apesar dos significativos avanços tecnológicos recentes, a determinação experimental da estrutura terciária de proteínas ainda é muito lenta se comparada com a taxa de acúmulo de dados das seqüências de aminoácidos. Isto torna o enovelamento de proteínas um problema central para o desenvolvimento da biologia pós-genômica. Em nosso trabalho, fazemos uso de um método de otimização, o Generalized Simulated Annealing (GSA), baseado na termoestatística generalizada por Tsallis. Embora o GSA seja um procedimento geral, sua eficiência depende não apenas da escolha apropriada de parâmetros, mas também das características topológicas da hiper--superfície de energia da função custo. Com o mapeamento dos parâmetros necessários à aplicação do GSA, pode-se reduzir significativamente o número de escolhas, além de tornar possível uma análise do efeito dos parâmetros no comportamento do algoritmo. Como passo inicial, usamos estruturas conhecidas, com as quais os resultados obtidos com o GSA possam ser comparados, como é o caso das polialaninas. Além disso, aplicamos, o GSA a três peptídeos de proteínas ribossomais da família P, de considerável importância no estudo da doença de Chagas. Cada um possui 13 aminoácidos, diferindo em apenas uma mutação não conservativa no terceiro aminoácido. Como os peptídeos não possuem estrutura experimentalmente resolvida, analisamos os resultados obtidos com GSA seguidos por simulações de Dinâmica Molecular. A validade destes resultados é estudada, de forma que, no futuro, estruturas desconhecidas possam ser determinadas com certo grau de confiabilidade. / As the genome sequencing advances, the comprehension of protein structures becomes a crucial extension to these progresses. In spite of the numerous recent technological advances, experimental determination of protein terciary structures is still very slow compared to the accumulated data from amino acid sequences. That is what makes the protein folding a central problem to the development of the pots-genomic era. In this work we use an optimization method, the Generalized Simulated Annealing (GSA), which is based on Tsallis' generalized thermostatistics, to investigate the protein folding problem. Although GSA is a generic procedure, its efficiency depends not only on the appropriate choice of parameters, but also on topological characteristics of the energy hypersurface. By mapping all the GSA parameters, it can be possible to reduce the number of possible choices of them. That also allows an analysis of its effects on the algorithm behavior. As a initial step, we apply GSA to known structures, such as polyalanines. In sequence, we also apply GSA to three more peptides of ribosomal P proteins, which are of considerable importance on the comprehension of Chagas' heart disease. Each one contains 13 amino acids and differ only on the third residue by a non-conservative mutation. As these peptides do not have experimentally resolved structure, we analyze results obtained from GSA followed by Molecular Dynamics simulations. Validity of these results is studied such that, in the future, unknown structures can be determined by this technique with a higher degree of confidence.
103

Resolução de estruturas de proteínas utilizando-se dados de RMN a partir de um algorítmo genético de múltiplos mínimos / Resolution of Protein Structures Using NMR Data by Means of a Genetic Algorithm of Multiple Minima

Marx Gomes Van der Linden 15 April 2009 (has links)
Proteínas são macromoléculas biológicas formadas por polímeros de aminoácidos, as quais estão envolvidas em todos os processos vitais dos organismos, compreendendo um amplo leque de funções. A espectropia por Ressonância Magnética Nuclear (RMN) é, ao lado da difração de raios-X em cristais, uma das duas principais técnicas experimentais capazes de permitir a elucidação da estrutura de proteínas em resolução atômica. A predição de estruturas protéicas utilizando informações experimentais de RMN é um problema de otimização global com restrições. O GAPF é um programa que utiliza um Algoritmo Genético (AG) desenvolvido para predição ab initio -- isto é, para determinação da estrutura de uma proteína apenas a partir do conhecimento de sua seqüência de aminoácidos -- utilizando uma abordagem de múltiplos mínimos, baseada em uma função aptidão derivada de um campo de força molecular clássico. Neste trabalho, é descrito o GAPF-NMR, uma versão derivada do GAPF, que utiliza restrições experimentais de RMN para auxiliar na busca pelas melhores estruturas protéicas correspondentes a uma seqüência dada. Cinco versões diferentes do algoritmo foram desenvolvidas, com diferentes variações na maneira como a função de energia é calculada ao longo da execução. O programa desenvolvido foi aplicado a um conjunto-teste de 7 proteínas de estrutura já conhecida e, para todas elas, foi capaz de chegar a uma estrutura com o enovelamento correto ou aproximado. Foi observado que as versões do algoritmo que aumentam progressivamente a região da proteína usada no cálculo de energia tiveram desempenho superior às demais, e que a abordagem de múltiplos mínimos foi importante para a obtenção de bons resultados. Os resultados foram comparados aos descritos para o GENFOLD -- que é, até o momento, a única implementação alternativa conhecida de um AG para o problema de predição de estruturas a partir de dados de RMN -- e a versão atual do GAPF-NMR se mostrou superior ao GENFOLD na determinação de duas das três proteínas do conjunto-teste deste. / Proteins are biological macromolecules comprised of amino acid polymers that play a wide range of biological roles involved in every process of living organisms. Together with X-ray diffraction, Nuclear Resonance Spectroscopy (NMR) is one of the two main experimental techniques that are capable of delivering atomic-level resolution of protein structures. Prediction of proteic structures using experimental information from NMR experiments is a global optimization problem with restraints. GAPF is a computer program that uses a Genetic Algorithm (GA) developed for ab initio prediction -- the determination of the structure of a protein from its amino acid sequence only -- using a multiple minima approach and a fitness function derived from a classic molecular force field. The work presented here describes GAPF-NMR, an alternate version of GAPF that uses experimental restraints from NMR to support the search for the best protein structures that correspond to a given sequence. Five different versions of the algorithm have been developed, each with a variation on how the energy function is calculated during the course of the program run. GAPF was tested on a test set comprised of 7 proteins with known structure and it was capable of achieving a correct or approximate fold for every one of these proteins. It was noted that the versions of the algorithm that progressively increase the area of the protein used in the energy function have performed better than the other versions, and that the multiple minima approach was important to the achievement of good results. Results were compared to those obtained by GENFOLD -- to the moment, the only known alternate implementation of a GA to the problem of protein structure prediction using NMR data -- and the current version of GAPF was shown to be superior to GENFOLD for two of the three proteins that compose its test set.
104

Aproximações para Redes Estocásticas Sinalizantes sob Tráfego Pesado / Heavy Traffic Approximations for Signaling Networks

Saul de Castro Leite 31 July 2009 (has links)
Este trabalho apresenta a caracterização de limites no sentido fraco dos sistemas de filas em redes que podem enviar e receber sinais. Estes sinais podem ser usados, entre outras coisas, para que as filas se auto controlem. Mostra-se que, sob certas condições, o sistema pode ser aproximado por uma equação diferencial estocástica refletida. Os benefícios de tais aproximações são que elas descrevem a evolução transiente destes sistemas e possibilitam a introdução de controles. Em seguida, uma abordagem mais abrangente é apresentada através de redes de Petri estocásticas. Uma nova classe destas redes é introduzida como uma forma unificadora para tratar sistemas que podem ser descritos por quantidades discretas que sofrem trocas estocásticas ao longo do tempo. A classe é geral o suficiente para incluir as redes de Petri estocásticas, as redes de Jackson, e as redes de Gelenbe com sinais do tipo "cliente negativo" e do tipo "triggers". O objetivo principal é obter, de maneira unificada, uma aproximação por difusão que possa ser facilmente aplicável em um número grande de problemas práticos.
105

Food web dynamics under indirect effects mediated by trait and density / Dinâmica de redes tróficas sob efeitos indiretos mediados por traço e densidade

José Carlos Lisbôa Recarey Eiras 01 April 2009 (has links)
Predation, classically described as the negative effect of the predator on the density of their prey, will be examined for their effects on the behavior of prey,in the form of antipredator responses. Antipredator responses may arise on the morphology, physiology and/or the behavior of prey, by predation or by the mere presence of the predator, in this case called non-lethal predator. In this context we mainly examine the effect of predators on foraging and change of habitat of their prey, as a antipredator response. Through the diversity of models surveyed, we exam the dynamics as often they are analised, through indirect effects mediated by density, and exam the same dynamic added of the trait-mediated indirect effects,through behavioral modeling techniques. / A predação, classicamente descrita como sendo o efeito negativo do predador sobre a densidade de suas presas, será aqui analisada a respeito de seus efeitos sobre o comportamental da presa, na forma de resposta antipredatória. Respostas antipredatórias podem surgir sobre a morfologia, a fisiologia e/ou o comportamental da presa, pela predação ou pela mera presença do predador,nesse caso denominado de predador não letal. Nesse contexto examinamos principalmente o efeito do predador sobre o forrageamento e a mudança de habitat de suas presas, como forma de resposta antipredatória. Por meio dos diversos modelos pesquisados, buscamos avaliar as dinâmicas da forma usualmente analisada, através dos efeitos indiretos mediados pela densidade, e analisar essa mesma dinâmica adicionada dos efeitos indiretos mediados por traço, através da modelagem comportamental.
106

Nutrient Dynamics and Foods Webs / Dinâmica de Nutrientes e Redes Tróficas

Leonardo Gama Felix 01 April 2010 (has links)
A food web comprises exchanges of matter and energy that occur among species and between biotic and abiotic environment. Given that abiotic components form the basal resources, the approach of this work consists of evaluating the effects of nutrients input in strategic models that describe food web and chain dynamics. Its focus lies on the determination of the nature of equilibrium populations as well as on their dynamics for different functional responses. Strategic models that describe the behavior of interactive populations under nutrient inputs are an important basis for outlining general phenomena that occur in community dynamics. / Uma rede trófica reúne as trocas de matéria e energia que ocorrem entre as espécies e entre o meio biótico e abiótico. Visto que os componentes abióticos formam a fonte de recursos basais, a abordagem deste trabalho consiste na avaliação dos efeitos da entrada de nutrientes alóctones em modelos estratégicos que descrevem a dinâmica de redes e cadeias tróficas, concentrando-se na determinação das características das populações de equilíbrio e das dinâmicas das espécies com diferentes respostas funcionais. Modelos estratégicos que contêm informações acerca do comportamento de populações interativas frente à entrada de nutrientes são uma base importante no delineamento de fenômenos gerais que podem ocorrer dentro da dinâmica de comunidades.
107

Utilização de ambientes virtuais tridimensionais colaborativos em visualização de informação

SOUZA JÚNIOR, Rosevaldo Dias de 14 January 2005 (has links)
Submitted by camilla martins (camillasmmartins@gmail.com) on 2016-12-14T13:26:55Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_UtilizacaoambientesVirtuais.pdf: 11134238 bytes, checksum: 638c5cbd3470238d7a6d9033fdbe3cf0 (MD5) / Rejected by Edisangela Bastos (edisangela@ufpa.br), reason: on 2016-12-15T12:29:09Z (GMT) / Submitted by camilla martins (camillasmmartins@gmail.com) on 2016-12-20T14:04:22Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_UtilizacaoAmbientesVirtuais.pdf: 11134238 bytes, checksum: 638c5cbd3470238d7a6d9033fdbe3cf0 (MD5) / Approved for entry into archive by Edisangela Bastos (edisangela@ufpa.br) on 2016-12-21T13:31:53Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_UtilizacaoAmbientesVirtuais.pdf: 11134238 bytes, checksum: 638c5cbd3470238d7a6d9033fdbe3cf0 (MD5) / Made available in DSpace on 2016-12-21T13:31:53Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_UtilizacaoAmbientesVirtuais.pdf: 11134238 bytes, checksum: 638c5cbd3470238d7a6d9033fdbe3cf0 (MD5) Previous issue date: 2005-01-14 / Atualmente graças ao exponencial processo evolutivo dos equipamentos de hardware, principalmente os relacionados ao armazenamento de dados, é possível armazenar enormes quantidades de dados, de todos os tipos possíveis, em uma base centralizada e/ou distribuída. Há alguns anos atrás pouco se sabia o que fazer com tamanha quantidade de dados armazenados, nos dias atuais já se sabe que a organização que melhor dominar as informações provenientes do meio é que mais chance terá de ser bem sucedida. Baseado nas premissas citadas é necessário que os responsáveis pela tomada de decisão utilizem ferramentas de visualização de informação para auxiliar no processo decisório, fazendo com que o mesmo se torne mais confiável, rápido, intuitivo e preciso. A visualização de informação utiliza técnicas de apresentação de dados com o objetivo de torná-los mais perceptíveis e intuitivos para o usuário, entretanto quando há a necessidade de apresentar grandes quantidades de dados, a visualização fica prejudicada por vários motivos. Para solucionar este problema de visualização, a utilização da Realidade Virtual (RV) se torna bastante útil devido à possibilidade que esta interface proporciona tal como interação e navegabilidade, características que tornam a visualização mais produtiva e interessante. Contudo, normalmente a tomada de decisão não é feita por uma única pessoa, e as ferramentas em sua grande maioria são monousuárias, prejudicando a tomada de decisão, principalmente se as pessoas estiverem distantes umas das outras. Com um ambiente colaborativo de visualização de dados, é possível discutir sobre a mesma visão de dados diminuindo o tempo e equívocos desnecessários para a tomada de decisão. Este trabalho tem por objetivo projetar e implementar uma ferramenta de visualização de informação em um ambiente virtual tridimensional colaborativo para auxiliar o usuário na tomada de decisão descentralizada. Para tanto, foi utilizado no desenvolvimento desta ferramenta característica das áreas de Banco de Dados, Visualização de Informação e Ambientes Virtuais Colaborativos. / Now thanks to the exponential evolutionary process of the hardware equipments, mainly the related to storage of data, it is possible to store enormous amounts of data, of all possible types, in a centralized base and/or distributed. There are some a little years ago was known what to do with such amount of stored data, in the days you act is known already that the organization that best to dominate the coming information of the is half that more chance will have to be well happened. Based on the mentioned premises is necessary that the responsible for the take of decision use tools of information visualization to aid in the ruling process, doing with that the same if turns more reliable, fast, intuitive and accurate. The information visualization uses techniques of data presentation with the objective of turning them more perceptible and intuitive for the user, however when there is need to present great amounts of data, the visualization is prejudiced for several reasons. To resolve this visualization problem, the use of the Virtual Reality (VR) if it turns essential due to the possibility that this interface provides just as interaction and navigability, characteristics that turn the most productive and interesting visualization. However, usually the ruling of decision is not made by a single person, and the tools in his great majority are mono-users, harming the ruling decision, mainly if the people are distant some of the other ones. With a collaborative environment of data visualization, it is possible to discuss on the same vision of data decreasing the time and unnecessary misunderstandings to the ruling decision. This work has for aim project and implementation a tool of information visualization in an environment three-dimensional virtual collaborative to aid the user in the ruling decentralized decision. Therefore it was used in the development of this characteristic tool of the areas of Database, Information Visualization and Collaborative Virtual Environments.
108

Proposta de um modelo para acompanhamento da aprendizagem significativa por mapas conceituais

Silva, Vagner da 07 August 2018 (has links)
Submitted by Marta Toyoda (1144061@mackenzie.br) on 2018-09-17T21:26:09Z No. of bitstreams: 2 VAGNER DA SILVA.pdf: 6654752 bytes, checksum: 6b39051202d68aad16af376bc71230ff (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Paola Damato (repositorio@mackenzie.br) on 2018-09-20T15:26:37Z (GMT) No. of bitstreams: 2 VAGNER DA SILVA.pdf: 6654752 bytes, checksum: 6b39051202d68aad16af376bc71230ff (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-09-20T15:26:37Z (GMT). No. of bitstreams: 2 VAGNER DA SILVA.pdf: 6654752 bytes, checksum: 6b39051202d68aad16af376bc71230ff (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2018-08-07 / Fundo Mackenzie de Pesquisa / The assessment methods used in the modality of courses and in virtual learning or distance learning environments tend to provide insufficient or incomplete information about the development of learning. Among instruments used in evaluations there are questions of multiple choice, forum, projects and chats, often focusing only on the summative evaluation, of classification feature; consequently, providing incomplete data regarding the learning. Many of these environments make it difficult through the offered tools to develop assessments capable of presenting as accurate information as possible about the knowledge constructed by the student. Providing students with activities that can be assessed by process-based instruments, such as the conceptual organization, tend to strengthen the teaching/learning process. These activities should complement assessment tools based on multiple-choice, test, or project questions. This work presents a model that allows following the learning through the use of individual and collaborative conceptual maps, providing indexes and using measures to follow learning evolution. In this model, the conceptual maps are assessments qualitatively and, among others, the results are used to inform students’ conceptual organization index and to define groups division for collaborative conceptual map development. In addition, the model provides information for students and teachers regarding the development of learning, so, they will be able to make individual or joint decisions to achieve the proposed learning objective. / Os métodos de avaliações usados, na modalidade de Cursos presenciais e em Ambientes Virtuais de Aprendizagem ou ensino a distância tendem a fornecer informações insuficientes ou incompletas sobre o desenvolvimento da aprendizagem. Dentre os instrumentos usados nas avaliações, estão questões de múltipla escolha, fórum, projetos e chat, muitas vezes focando apenas a Avaliação Somativa, de caráter classificatório e, consequentemente, fornecendo dados incompletos a respeito da aprendizagem. Muitos desses ambientes dificultam, pelas ferramentas oferecidas, o desenvolvimento de avaliações capazes de apresentar informações o mais precisas possíveis sobre o conhecimento construído pelo aluno. Proporcionar aos alunos atividades que possam ser avaliadas por instrumentos baseados no processo, como a organização conceitual, tende a fortalecer o processo ensino/aprendizagem. Essas atividades, devem complementar os instrumentos de avaliações baseados em questões de múltipla escolha, teste ou projetos. Este trabalho apresenta um modelo que permite acompanhar a aprendizagem pelo uso de Mapas Conceituais Individuais e Colaborativos, fornecendo índices e utilizando medidas para acompanhamento da evolução da aprendizagem. Nesse modelo, os Mapas Conceituais são avaliados qualitativamente e os resultados são usados para, dentre outros, informar o índice de organização conceitual do aluno e definir a divisão dos grupos para desenvolvimento do Mapa Conceitual Colaborativo. Além disso, o modelo fornece informações para alunos e professores a respeito do desenvolvimento da aprendizagem; assim, eles terão condições de tomar decisões individuais ou em conjunto para alcançar o objetivo de aprendizagem proposto.
109

Modelo para análise de negociação em projetos de sistemas em uma fábrica de software baseado em pontos de caso de uso

MACIEL, Paulo Henrique de Lima 01 March 2011 (has links)
Submitted by Samira Prince (prince@ufpa.br) on 2012-05-17T13:46:06Z No. of bitstreams: 2 Dissertacao_ModeloAnaliseNegociacao.pdf: 452283 bytes, checksum: 01a58a2d3d37ba54fae92d95e5c67f31 (MD5) license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) / Approved for entry into archive by Samira Prince(prince@ufpa.br) on 2012-05-17T13:46:57Z (GMT) No. of bitstreams: 2 Dissertacao_ModeloAnaliseNegociacao.pdf: 452283 bytes, checksum: 01a58a2d3d37ba54fae92d95e5c67f31 (MD5) license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) / Made available in DSpace on 2012-05-17T13:46:57Z (GMT). No. of bitstreams: 2 Dissertacao_ModeloAnaliseNegociacao.pdf: 452283 bytes, checksum: 01a58a2d3d37ba54fae92d95e5c67f31 (MD5) license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Previous issue date: 2011 / A Modelagem de Sistemas vêm sendo cada vez mais aplicada nos meios de produção para as mais diversas finalidades, incluindo a área de Projeto de Sistemas, com o intuito de definir o número de pessoas na equipe, analisar o esforço, o tamanho do software e os custos totais do projeto. Este trabalho tem por finalidade desenvolver um modelo de apoio à análise baseado em Pontos de Caso de Uso (PCU). Para isso, utiliza-se de vários métodos de pesquisa entre elas a pesquisa exploratória e de laboratório para criar um modelo de apoio para a análise. / The systems modeling are being increasingly applied in the means of production for many different purposes, including the area of System Design, in order to set the number of people on the team, analyze the effort, software size and total project costs. This study aims to develop a model to support analysis based on Use Case Points (PCU). For this, we use various research methods including the exploratory research laboratory to create a model of support for analysis.
110

Metodologia para implementação do MPS.BR utilizando o ambiente webapsee

ROCHA, Vanderlene Covre 29 April 2009 (has links)
Submitted by Irvana Coutinho (irvana@ufpa.br) on 2011-03-30T16:38:01Z No. of bitstreams: 2 ROCHA, Vanderlene Covre PPGEngenharia Elétrica.pdf: 2493637 bytes, checksum: ac14f60ec89cf61fb6b7fd05ccdbf266 (MD5) license_rdf: 22876 bytes, checksum: 0a4e855daae7a181424315bc63e71991 (MD5) / Made available in DSpace on 2011-03-30T16:38:01Z (GMT). No. of bitstreams: 2 ROCHA, Vanderlene Covre PPGEngenharia Elétrica.pdf: 2493637 bytes, checksum: ac14f60ec89cf61fb6b7fd05ccdbf266 (MD5) license_rdf: 22876 bytes, checksum: 0a4e855daae7a181424315bc63e71991 (MD5) Previous issue date: 2009 / Eletronorte - Centrais Elétricas do Norte do Brasil S/A / FAPESPA - Fundação Amazônia de Amparo a Estudos e Pesquisas / A number of initiatives to improve the software process has emerged recently to improve quality and productivity in software organizations. Some models and standards have focused the implementation of improvements in the software development process area; MPS.BR model is an example of thiese models. This process improvement model aims to improve software quality, preferably for micro, small and medium enterprises in order to meet the needs of their business model and was chosen to be explored in this work. Several advantages are gained during process improvement effort, one of them is the definition of a systematic process for software development, which helps to achieve the process quality and productivity and also the developed product quality. The use of a defined process model brings several benefits associated with standardization, such as the optimization, the re-work cost reduction, less defects in products, among others. But there is a lack of models that can be applied directly to a specific company of software development and therefore it is necessary to model the process, customizing it with the ultimate goal of creating a model that adequately represents the organization process. One of the difficulties for the implementation of models such as MPS.BR is the lack of methodologies that shows how the implementation of improvements to be made and not only what should be done. In this context, this work proposes a methodology for the implementation of the MPS.BR model based on IDEAL model, through a specific tool, called WebAPSEE, which works to coordinate the methodology execution. The methodology was tested in a local organization called CTIC - Center for Information Technology and Communication of UFPA which was assessed as level of G MPS.BR. / Uma série de iniciativas para melhoria do processo de software surgiu recentemente visando melhorar a qualidade e a produtividade em organizações de desenvolvimento de software. Alguns modelos e normas têm buscado a implantação de melhorias no processo de desenvolvimento de software, o MPS.BR é um deles. Esse modelo de melhoria de processo é voltado para as micro, pequenas e médias empresas, de forma a atender as suas necessidades de negócio e foi o modelo escolhido para ser explorado nesse trabalho. Várias são as vantagens adquiridas com a implantação de um modelo de melhoria, umas delas é a definição de um processo sistemático de desenvolvimento de software, que auxilie tanto na qualidade e produtividade do processo quanto na qualidade do produto desenvolvido. Com um modelo de processo definido a organização pode contar com diversos benefícios associados à padronização, como, por exemplo, a otimização, a redução de custos com retrabalho, a redução de defeitos nos produtos, dentre outros. Mas não existem modelos prontos que possam ser aplicados diretamente a uma empresa específica de desenvolvimento de software e, por isso, é necessário modelar o processo, customizando-o, com o objetivo final de gerar um modelo que adequadamente represente o processo da organização. Uma das dificuldades para a implantação de modelos como o MPS.BR é a falta de metodologia que mostre como a implantação de melhoria deve ser feita e não apenas o que deve ser feito. Este trabalho propõe uma metodologia para a implementação do modelo MPS.BR baseada no modelo de implantação IDEAL, através de uma ferramenta específica, chamada WebAPSEE. A metodologia foi experimentada no CTIC - Centro de Tecnologia da Informação e Comunicação da UFPA que ao final do trabalho foi avaliado Nível G do MPS.BR.

Page generated in 0.0392 seconds