• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 619
  • 158
  • 86
  • 74
  • 55
  • 47
  • 33
  • 17
  • 16
  • 14
  • 13
  • 12
  • 9
  • 8
  • 8
  • Tagged with
  • 1432
  • 210
  • 190
  • 190
  • 183
  • 180
  • 124
  • 118
  • 104
  • 103
  • 99
  • 85
  • 81
  • 80
  • 79
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
441

Multi-Label Classification Methods for Image Annotation

BRHANIE, BEKALU MULLU January 2016 (has links)
No description available.
442

Replicação de estudos empíricos em engenharia de software. / Empirical studies replication in engineering software.

Emerson Silas Dória 11 June 2001 (has links)
A crescente utilização de sistemas baseados em computação em praticamente todas as áreas da atividade humana provoca uma crescente demanda por qualidade e produtividade, tanto do ponto de vista do processo de produção como do ponto de vista dos produtos de software gerados. Nessa perspectiva, atividades agregadas sob o nome de Garantia de Qualidade de Software têm sido introduzidas ao longo de todo o processo de desenvolvimento de software. Dentre essas atividades destacam-se as atividades de Teste e Revisão, ambas com o objetivo principal de minimizar a introdução de erros durante o processo de desenvolvimento nos produtos de software gerados. A atividade de Teste constitui um dos elementos para fornecer evidências da confiabilidade do software em complemento a outras atividades, como por exemplo, o uso de revisões e de técnicas formais e rigorosas de especificação e de verificação. A atividade de Revisão, por sua vez, é um 'filtro' eficiente para o processo de engenharia de software, pois favorece a identificação e a eliminação de erros antes do passo seguinte do processo de desenvolvimento. Atualmente, pesquisas estão sendo realizadas com objetivo de determinar qual técnica, Revisão ou Teste, é mais adequada e efetiva, em determinadas circunstâncias, para descobrir determinadas classes de erros; e de forma mais ampla, como as técnicas podem ser aplicadas de forma complementar para melhoria da qualidade de software. Ainda que a atividade de teste seja indispensável no processo de desenvolvimento, investigar o aspecto complementar dessas técnicas é de grande interesse, pois em muitas situações tem-se observado que as revisões são tão ou mais efetivas quanto os testes. Nessa perspectiva, este trabalho tem como objetivo realizar um estudo comparativo, por meio da replicação de experimentos, entre Técnicas de Teste e Técnicas de Revisão no que se refere à detecção de erros em produtos de software (código fonte e documento de especificação de requisitos). Para realizar esse estudo são utilizados critérios de teste das técnicas funcional (particionamento em classes de equivalência e análise do valor limite), estrutural (todos-nós, todos-arcos, todos-usos, todos-potenciais-usos), baseada em erros (análise de mutantes), bem como, técnicas de leitura (stepwise abstraction e perspective based reading) e técnicas de inspeção (ad hoc e checklist). Além de comparar a efetividade e a eficiência das técnicas em detectar erros em produtos de software, este trabalho objetivo ainda utilizar os conhecimentos específicos relacionados a critérios de teste para reavaliar as técnicas utilizadas nos experimentos de Basili & Selby, Kamsties & Lott e Basili. / The increasing use of computer based systems in practically all human activity areas provokes higher demand for quality and productivity, from the point of view of software process as well as from the point of view of software products. In this perspective, activities aggregated under the name of Software Quality Assurance have been introduced throughout the software development process. Amongst these activities, the test and review activities are distinguished, both of them aiming at minimizing the introduction of errors during the development process. The test activity constitutes one of the elements to supply evidences of software reliability as a complement to other activities, for example, the use of review and formal, rigorous techniques for specification and verification. The review activity, in turn, is an efficient 'filter' for the process of software engineering, therefore it favors the identification of errors before the next step of the development process. Currently, researches have been carried out with the objective of determining which technique, review or test, is more appropriate and effective, in certain circumstances, to discover some classes of errors, and mostly, how the techniques can be applied in complement to each other for improvement of software quality. Even if the test activity is indispensable in the development process, investigating the complementary aspect of these techniques is of great interest, for in many situations it has been observed that reviews are as or more effective as test. In this perspective, this work aims at accomplishing a comparative study, through the replication of experiments, between Testing Techniques and Reviews concerning error detection in software products at the source code and requirement specification level. To carry out this study are used testing criteria of the techniques: functional (equivalence partitioning and boundary value analysis); structural (all-nodes, all-edges, all-uses, all-potential-uses); error based (mutation testing), as well as reading techniques (stepwise abstraction and perspective based reading) and inspection techniques (ad hoc e checklist). Besides comparing the effectiveness and efficiency of the techniques in detecting errors in software products, this work also aims at reevaluating and eventually at improving the techniques used in experiment of Basili & Selby, Kamsties & Lott and Basili.
443

Contribuições para o desenvolvimento do seguro agrícola de renda para o Brasil: evidências teóricas e empíricas / Contributions for development of the agriculture income insurace to Brazil: theorethical and empirical evidences

Guilherme Jacob Miqueleto 22 August 2011 (has links)
O principal objetivo dessa tese foi contribuir para a discussão sobre o seguro de renda e sua adoção no Brasil. No primeiro artigo buscou-se fornecer argumentos para posteriores discussões no que se refere ao seguro de renda. Para isso, o artigo apresentou o seguro de renda, seu funcionamento e como ele se desenvolveu nos dois principais países que o utilizaram, sendo eles os Estados Unidos e Canadá. Buscou-se ainda apresentar as principais características desse modelo de seguro, e quais são os principais modelos existentes. Esse artigo também teve como objetivo contribuir teoricamente para o desenvolvimento do tema no que se refere ao contrato ótimo de um seguro de renda. Como resultados, observou-se que a determinação endógena do prêmio e dos custos da seguradora para um contrato ótimo de seguro (de renda) são fundamentais para a solução (principalmente afetando as condições de primeira ordem) assim como os efeitos marginais de determinadas restrições impostas do ponto de vista de Pareto. Além disso, buscouse nesse trabalho tratar, do ponto de vista teórico, a capacidade de proteção de um seguro de renda quando comparado a um portfólio composto por seguros tradicionais de produtividade e mecanismos de proteção de preços, como mercados futuros ou opções. Observou-se uma limitação dos resultados e de uma melhor análise quantitativa dada a ausência de uma forma funcional, porém foi possível observar alguns resultados interessantes no que se refere à substituição entre a adoção de seguros (tradicionais) e derivativos agrícolas para proteção de preços. O segundo artigo teve como objetivo expor formas de calcular as taxas de prêmio de um hipotético seguro de renda no formato dos seguros americanos Income Protection ou Revenue Assurance, para milho para municípios do Paraná/BR, por meio do uso de cópulas na distribuição conjunta entre preços e produtividade. Buscou-se com isso contribuir para a obtenção de taxas mais precisas. Os resultados mostraram que existem significativas diferenças entre as taxas de prêmio entre os diferentes municípios e, ainda mais com relação aos diferentes meses de vencimento dos preços futuros utilizados na análise. Além disso, outras análises revelaram que o adequado planejamento do plantio, por exemplo, pelo produtor rural irá lhe garantir menores taxas de prêmio. Como uma das conclusões do trabalho, observa-se que esse tipo de ferramenta, levando-se em conta as características do país, poderia ser utilizado, principalmente com o ajuste de subvenções por parte do governo federal e/ou estadual. / The main objective of this thesis was to contribute to the discussion of income insurance and its adoption in Brazil. In the first article we attempted to provide arguments for further discussions about income insurance. The paper presented how it works and how it has developed in two major countries: the United States and Canada. It also sought to present the main characteristics of this insurance model, and what are the main existing models. This article also aims to contribute to the theoretical development of the subject with regard to the optimal contract for a income insurance policy. As a result, it was observed that the endogenous determination of the premium and costs of insurance for an optimal contract is the key to the solution (mainly affecting the first order conditions) as well as the marginal effects of certain restrictions, in view of Pareto Optimal. In addition, we sought to address in this paper, in the theoretical point of view, the protective capabilities of a secure income when compared to a \"portfolio\" composed by traditional insurance productivity and price protection mechanisms such as futures or options. There was a limitation of the results and better quantitative analysis given the absence of a functional form, but there have been some interesting results regarding the replacement of the adoption of insurance (traditional) and derivatives for the protection of agricultural prices. The second article aims to explain ways to calculate premium rates for hypothetical income insurance in the form of American Income Protection or Revenue Assurance for corn for municipalities of Parana/BR, through the use of copulas in the joint distribution between prices and productivity. Was sought to help to obtain more accurate rates. The results showed that there are significant differences in premium rates between different cities and even more about the different months of maturity of the futures prices used in the analysis. In addition, further analysis revealed that the proper planning of planting, for example, will guarantee for the farmer a lower premium rates. As one of the conclusions of the study, notes that these types of tool, taking into account the characteristics of the country, could be used, especially with the setting of grants by the federal government and/or state.
444

Core inflation in Brazil: an empirical approach in the field of frequency / NÃcleo da inflaÃÃo no Brasil: uma abordagem empÃrica no domÃnio da frequÃncia

Cristiano da Silva Santos 20 June 2012 (has links)
FundaÃÃo Cearense de Apoio ao Desenvolvimento Cientifico e TecnolÃgico / This paper proposes a new measure of core inflation called systematic core and makes a comparative evaluation with conventional cores used by the Central Bank of Brazil. To estimate the systematic core is proposed in this paper used the method of decomposition empirical methods, which is able to separate noise data by spectral decomposition and partial reconstruction of the series of inflation. The evaluation and comparison of the cores of inflation are performed by testing econometric predictions outside the sample. The empirical results show that conventional cores used by the Central Bank does not contribute to forecast inflation out of sample and not have all the desirable statistical properties for which a nucleus. Already the new measure of core obtained in this work contributed to predict inflation out of sample and answered the statistical properties of non-biased, attractor of inflation and weakly exogenous, having therefore the characteristics required for a measure to be useful to policy objectives monetary. / Este trabalho propÃe uma nova medida de nÃcleo da inflaÃÃo denominada nÃcleo sistemÃtico e faz uma avaliaÃÃo comparativa com os nÃcleos convencionais utilizados pelo Banco Central do Brasil. Para estimar o nÃcleo sistemÃtico proposto neste trabalho à utilizado o mÃtodo de decomposiÃÃo em modos empÃricos, que à capaz de separar ruÃdo dos dados atravÃs da decomposiÃÃo espectral e reconstruÃÃo parcial da sÃrie de inflaÃÃo. A avaliaÃÃo e comparaÃÃo dos nÃcleos da inflaÃÃo sÃo realizadas por meio de testes economÃtricos e previsÃes fora da amostra. Os resultados empÃricos apontam que os nÃcleos convencionais utilizados pelo Banco Central nÃo contribuem para prever a inflaÃÃo fora da amostra e nÃo possuem todas as propriedades estatÃsticas desejÃveis que para um nÃcleo. Jà a nova medida de nÃcleo obtida neste trabalho contribuiu para prever a inflaÃÃo fora da amostra e atendeu as propriedades estatÃsticas de ausÃncia de viÃs, atrator da inflaÃÃo e fracamente exÃgeno, possuindo, portanto, as caracterÃsticas exigidas para uma medida ser Ãtil aos objetivos da polÃtica monetÃria.
445

RelaÃÃes simplificadas para a estimativa do assoreamento de reservatÃrios / Simplified relations for the estimation of reservoir sedimentation

Jefferson Ronald Quaresma Negreiros 12 December 2014 (has links)
Esta pesquisa apresenta uma sÃntese das taxas de assoreamento observadas em reservatÃrios brasileiros, onde foram identificadas taxas de assoreamento variando aproximadamente de 1 a 7% do volume inicial por dÃcada (inferiores à mÃdia mundial de 10%), sendo os reservatÃrios localizados no Estado do Cearà aqueles que possuem menores taxas, provavelmente devido Ãs densas redes de reservatÃrios existentes nas bacias de contribuiÃÃo. Verificou-se tambÃm uma tendÃncia geral de decaimento das taxas de assoreamento com o volume inicial dos reservatÃrios. Em seguida, foram desenvolvidos dois mÃtodos expeditos para estimativa do assoreamento de reservatÃrios, os quais sÃo baseados em correlaÃÃes empÃricas ajustadas a partir de dados de campo, e com este mesmo objetivo foi realizada a aplicaÃÃo da Metodologia de Lima Neto et al. (2011) para os reservatÃrios brasileiros. Os mÃtodos propostos sÃo mais simples que as metodologias existentes na literatura, e dependem basicamente da pluviometria nas bacias de contribuiÃÃo e do volume inicial dos reservatÃrios. As diferenÃas observadas entre as diferentes metodologias foram inferiores a 30% . Este dado sugere que qualquer um dos trÃs mÃtodos pode ser utilizado para estimar o assoreamento de reservatÃrios, em nÃvel de planejamento. PorÃm, vale ressaltar que apesar da praticidade/simplicidade das equaÃÃes propostas, mediÃÃes de campo e/ou modelos mais sofisticados continuam sendo necessÃrios para se avaliar de forma mais precisa o assoreamento de reservatÃrios. / This research provides an overview of sedimentation rates observed in Brazilian reservoirs, where sedimentation rates were identified ranging approximately 1 to 7% of the starting volume per decade (the lower world average of 10%), and the reservoirs in the State of Cearà those with lower rates, probably due to dense existing reservoirs networks in contribution basins. It was found also a general trend of decay of sedimentation rates with initial volume of the reservoirs. Then we developed two empirical methods to estimate reservoir sedimentation, which are based on empirical correlations adjusted from field data, and with this same goal was carried out the implementation of Lima Methodology Neto et al. (2011) for the Brazilian reservoirs. The proposed methods are simpler than the existing methods in the literature, and depend basically the rainfall in contribution basins and the initial volume of reservoirs. The differences observed between the different methodologies were less than 30%. This suggests that any of the three methods can be used to estimate reservoir sedimentation in level planning. However, it is noteworthy that despite the practicality / simplicity the proposed equations, field measurements and / or more sophisticated models still needed to assess more accurately the reservoir sedimentation.
446

Impacto da geração de grafos na classificação semissupervisionada / Impact of graph construction on semi-supervised classification

Celso André Rodrigues de Sousa 18 July 2013 (has links)
Uma variedade de algoritmos de aprendizado semissupervisionado baseado em grafos e métodos de geração de grafos foram propostos pela comunidade científica nos últimos anos. Apesar de seu aparente sucesso empírico, a área de aprendizado semissupervisionado carece de um estudo empírico detalhado que avalie o impacto da geração de grafos na classificação semissupervisionada. Neste trabalho, é provido tal estudo empírico. Para tanto, combinam-se uma variedade de métodos de geração de grafos com uma variedade de algoritmos de aprendizado semissupervisionado baseado em grafos para compará-los empiricamente em seis bases de dados amplamente usadas na literatura de aprendizado semissupervisionado. Os algoritmos são avaliados em tarefas de classificação de dígitos, caracteres, texto, imagens e de distribuições gaussianas. A avaliação experimental proposta neste trabalho é subdividida em quatro partes: (1) análise de melhor caso; (2) avaliação da estabilidade dos classificadores semissupervisionados; (3) avaliação do impacto da geração de grafos na classificação semissupervisionada; (4) avaliação da influência dos parâmetros de regularização no desempenho de classificação dos classificadores semissupervisionados. Na análise de melhor caso, avaliam-se as melhores taxas de erro de cada algoritmo semissupervisionado combinado com os métodos de geração de grafos usando uma variedade de valores para o parâmetro de esparsificação, o qual está relacionado ao número de vizinhos de cada exemplo de treinamento. Na avaliação da estabilidade dos classificadores, avalia-se a estabilidade dos classificadores semissupervisionados combinados com os métodos de geração de grafos usando uma variedade de valores para o parâmetro de esparsificação. Para tanto, fixam-se os valores dos parâmetros de regularização (quando existirem) que geraram os melhores resultados na análise de melhor caso. Na avaliação do impacto da geração de grafos, avaliam-se os métodos de geração de grafos combinados com os algoritmos de aprendizado semissupervisionado usando uma variedade de valores para o parâmetro de esparsificação. Assim como na avaliação da estabilidade dos classificadores, para esta avaliação, fixam-se os valores dos parâmetros de regularização (quando existirem) que geraram os melhores resultados na análise de melhor caso. Na avaliação da influência dos parâmetros de regularização na classificação semissupervisionada, avaliam-se as superfícies de erro geradas pelos classificadores semissupervisionados em cada grafo e cada base de dados. Para tanto, fixam-se os grafos que geraram os melhores resultados na análise de melhor caso e variam-se os valores dos parâmetros de regularização. O intuito destes experimentos é avaliar o balanceamento entre desempenho de classificação e estabilidade dos algoritmos de aprendizado semissupervisionado baseado em grafos numa variedade de métodos de geração de grafos e valores de parâmetros (de esparsificação e de regularização, se houver). A partir dos resultados obtidos, pode-se concluir que o grafo k- vizinhos mais próximos mútuo (mutKNN) pode ser a melhor opção dentre os métodos de geração de grafos de adjacência, enquanto que o kernel RBF pode ser a melhor opção dentre os métodos de geração de matrizes ponderadas. Em adição, o grafo mutKNN tende a gerar superfícies de erro que são mais suaves que aquelas geradas pelos outros métodos de geração de grafos de adjacência. Entretanto, o grafo mutKNN é instável para valores relativamente pequenos de k. Os resultados obtidos neste trabalho indicam que o desempenho de classificação dos algoritmos semissupervisionados baseados em grafos é fortemente influenciado pela configuração de parâmetros. Poucos padrões evidentes foram encontrados para auxiliar o processo de seleção de parâmetros. As consequências dessa instabilidade são discutidas neste trabalho em termos de pesquisa e aplicações práticas / A variety of graph-based semi-supervised learning algorithms have been proposed by the research community in the last few years. Despite its apparent empirical success, the field of semi-supervised learning lacks a detailed empirical study that evaluates the influence of graph construction on semisupervised learning. In this work we provide such an empirical study. For such purpose, we combine a variety of graph construction methods with a variety of graph-based semi-supervised learning algorithms in order to empirically compare them in six benchmark data sets widely used in the semi-supervised learning literature. The algorithms are evaluated in tasks about digit, character, text, and image classification as well as classification of gaussian distributions. The experimental evaluation proposed in this work is subdivided into four parts: (1) best case analysis; (2) evaluation of classifiers stability; (3) evaluation of the influence of graph construction on semi-supervised learning; (4) evaluation of the influence of regularization parameters on the classification performance of semi-supervised learning algorithms. In the best case analysis, we evaluate the lowest error rates of each semi-supervised learning algorithm combined with the graph construction methods using a variety of sparsification parameter values. Such parameter is associated with the number of neighbors of each training example. In the evaluation of classifiers stability, we evaluate the stability of the semi-supervised learning algorithms combined with the graph construction methods using a variety of sparsification parameter values. For such purpose, we fixed the regularization parameter values (if any) with the values that achieved the best result in the best case analysis. In the evaluation of the influence of graph construction, we evaluate the graph construction methods combined with the semi-supervised learning algorithms using a variety of sparsification parameter values. In this analysis, as occurred in the evaluation of classifiers stability, we fixed the regularization parameter values (if any) with the values that achieved the best result in the best case analysis. In the evaluation of the influence of regularization parameters on the classification performance of semi-supervised learning algorithms, we evaluate the error surfaces generated by the semi-supervised classifiers in each graph and data set. For such purpose, we fixed the graphs that achieved the best results in the best case analysis and varied the regularization parameters values. The intention of our experiments is evaluating the trade-off between classification performance and stability of the graphbased semi-supervised learning algorithms in a variety of graph construction methods as well as parameter values (sparsification and regularization, if applicable). From the obtained results, we conclude that the mutual k-nearest neighbors (mutKNN) graph may be the best choice for adjacency graph construction while the RBF kernel may be the best choice for weighted matrix generation. In addition, mutKNN tends to generate error surfaces that are smoother than those generated by other adjacency graph construction methods. However, mutKNN is unstable for relatively small values of k. Our results indicate that the classification performance of the graph-based semi-supervised learning algorithms are heavily influenced by parameter setting. We found just a few evident patterns that could help parameter selection. The consequences of such instability are discussed in this work in research and practice
447

Investigações sobre raciocínio e aprendizagem temporal em modelos conexionistas / Investigations about temporal reasoning and learning in connectionist models

Borges, Rafael Vergara January 2007 (has links)
A inteligência computacional é considerada por diferentes autores da atualidade como o destino manifesto da Ciência da Computação. A modelagem de diversos aspectos da cognição, tais como aprendizagem e raciocínio, tem sido a motivação para o desenvolvimento dos paradigmas simbólico e conexionista da inteligência artificial e, mais recentemente, para a integração de ambos com o intuito de unificar as vantagens de cada abordagem em um modelo único. Para o desenvolvimento de sistemas inteligentes, bem como para diversas outras áreas da Ciência da Computação, o tempo é considerado como um componente essencial, e a integração de uma dimensão temporal nestes sistemas é fundamental para conseguir uma representação melhor do comportamento cognitivo. Neste trabalho, propomos o SCTL (Sequential Connectionist Temporal Logic), uma abordagem neuro-simbólica para integrar conhecimento temporal, representado na forma de programas em lógica, em redes neurais recorrentes, de forma que a caracterização semântica de ambas representações sejam equivalentes. Além da estratégia para realizar esta conversão entre representações, e da verificação formal da equivalência semântica, também realizamos uma comparação da estratégia proposta com relação a outros sistemas que realizam representação simbólica e temporal em redes neurais. Por outro lado, também descrevemos, de foma algorítmica, o comportamento desejado para as redes neurais geradas, para realizar tanto inferência quanto aprendizagem sob uma ótica temporal. Este comportamento é analisado em diversos experimentos, buscando comprovar o desempenho de nossa abordagem para a modelagem cognitiva considerando diferentes condições e aplicações. / Computational Intelligence is considered, by di erent authors in present days, the manifest destiny of Computer Science. The modelling of di erent aspects of cognition, such as learning and reasoning, has been a motivation for the integrated development of the symbolic and connectionist paradigms of artificial intelligence. More recently, such integration has led to the construction of models catering for integrated learning and reasoning. The integration of a temporal dimension into such systems is a relevant task as it allows for a richer representation of cognitive behaviour features, since time is considered an essential component in intelligent systems development. This work introduces SCTL (Sequential Connectionist Temporal Logic), a neuralsymbolic approach for integrating temporal knowledge, represented as logic programs, into recurrent neural networks. This integration is done in such a way that the semantic characterization of both representations are equivalent. Besides the strategy to achieve translation from one representation to another, and verification of the semantic equivalence, we also compare the proposed approach to other systems that perform symbolic and temporal representation in neural networks. Moreover, we describe the intended behaviour of the generated neural networks, for both temporal inference and learning through an algorithmic approach. Such behaviour is then evaluated by means several experiments, in order to analyse the performance of the model in cognitive modelling under di erent conditions and applications.
448

A pesquisa empírica sobre o planejamento da execução instrumental : uma reflexão crítica do sujeito de um estudo de caso

Barros, Luís Cláudio January 2008 (has links)
Este trabalho propõe discutir o planejamento da execução instrumental (piano) na área de Práticas Interpretativas. Foram examinadas as diferentes abordagens e os posicionamentos de especialistas na área proposta através da reflexão crítica do conhecimento produzido pelas pesquisas empíricas. O objetivo foi examinar as temáticas, as estratégias de estudo, o campo teórico, os procedimentos metodológicos, a sistematização do processo de aprendizagem do repertório pianístico e as relações interatuantes ocorrentes nas pesquisas descritivas de delineamento experimental, nos estudos de caso, estudos com entrevista e levantamentos selecionados. Foi realizada uma análise crítica sobre as investigações que abordaram o comportamento da prática e as estratégias de estudo, além de uma reflexão sobre a construção dos referenciais dos trabalhos empíricos e os elementos envolvidos no processo de pesquisa. O presente trabalho estabeleceu seus pilares centrais no estudo crítico sobre as pesquisas empíricas na área do planejamento da execução instrumental (o pilar teórico) e a sua conexão com a experiência pessoal deste autor como sujeito de um estudo de caso durante seu Estágio de Doutorado no Exterior (o pilar prático, vivenciado). No estudo de caso, duas estratégias de estudo para resgatar as informações musicais da memória de longa duração foram elaboradas pelo sujeito para melhorar seu desempenho no Teste Experimental II. No estudo de caso, duas estratégias de estudo para resgatar as informações musicais da memória de longa duração foram elaboradas pelo sujeito para melhorar seu desempenho no Teste Experimental II. A partir da inter-relação entre os pilares e de seus reflexos na construção crítica sobre a estruturação dos processos investigativos, buscou-se discutir diversos pontos nevrálgicos nas pesquisas empíricas, como as relações hierárquicas entre pesquisador e sujeito e as possíveis lacunas investigativas. Foi sugerida uma proposta de modelo para maior interação entre as áreas da Psicologia da Música e da área de Práticas Interpretativas. Desse modo, buscouse examinar as implicações pedagógicas provenientes do profundo conhecimento das etapas do planejamento e do entendimento de como se constrói uma execução instrumental em nível de excelência. / The present thesis discusses the research line in piano performance planning. It examined different research approaches and points of view of specialists in the music field through a critical reflection about the knowledge produced by empirical research. The goal was to investigate the subjects, especially the strategies, the theoretical framework, methodological procedures, learning process and the relationship between experimental research, case studies, survey and studies with interview. A critical analysis of the research studies considering the behavior of the musicians during practice, their strategies, the construction of the theoretical references and the elements involved was undertaken. The present work established two pillars: (1) theoretical, focused on the empirical research, and (2) practical, related to the personal experience of the author as the subject in a case study during his doctoral internship. During that time, the present author elaborated two practice strategies to reinforce memory retrieval and to aid him in succeeding in the Experimental Test II. As a result of relationship between these two pillars of construction in the investigative processes, the present work discusses basic points relating to empirical research, such as the investigative problems and the hierarchy between the experimenter and the subject. The author proposed a model of interaction between the Psychology and Music areas. It is aimed at examining the pedagogical implications based on the profound understanding of performance planning, as well as how to construct an instrumental performance at a level of excellence.
449

Estimating test execution effort based on test specifications

Henrique da Silva Aranha, Eduardo 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T15:49:48Z (GMT). No. of bitstreams: 1 license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2009 / Em mercados competitivos como, por exemplo, o de celulares, empresas de software que liberam produtos com baixa qualidade podem rapidamente perder os seus clientes. A fim de evitar esse problema, essas empresas devem garantir que a qualidade dos produtos atenda a expectativa de seus clientes. Nesse contexto, testes é uma das atividades mais utilizadas para se tentar melhorar a qualidade de um software. Além disso, o resultado da atividade de teste está sendo considerado tão importante que em muitos casos é preferível alocar equipes exclusivamente para exercer atividades de teste. Essas equipes de teste devem ser capazes de estimar o esforço exigido para exercer as suas atividades dentro do prazo ou para solicitar mais recursos ou negociar prazos quando necessário. Na prática, as consequências de se ter estimativas ruins são onerosas para a organização: redução de escopo, atraso nas entregas ou horas extras de trabalho. O impacto dessas consequências é ainda maior em se tratando de execução manual de testes. Visando uma melhor forma de estimar esforço de execução manual de casos de teste funcionais, esta pesquisa propõe e valida uma medida de tamanho de teste e de complexidade de execução baseada nas próprias especificações dos testes, bem como um método de medição para a métrica proposta. Além disso, diversos estudos de caso, survey e experimentos foram realizados para avaliar o impacto desse trabalho. Durante esses estudos, verificamos uma melhoria significativa proporcionada por nossa abordagem na precisão das estimativas de esforço de execução de testes manuais. Também identificamos fatores de custo relacionados a atividades de execução manual de testes utilizando julgamento de especialistas. O efeito desses fatores foram investigados através da execução de experimentos controlados, onde pudemos constatar que apenas alguns dos fatores identificados tiveram efeito significativo. Por fim, diversas ferramentas de suporte foram desenvolvidas durante essa pesquisa, incluindo a automação das estimativas de esforço de execução de testes a partir de especificações de testes escritas em linguagem natural
450

Using multiple case studies to understanding the product derivation process in industrial settings

Souza, Leandro Oliveira de 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T16:00:54Z (GMT). No. of bitstreams: 2 arquivo7075_1.pdf: 5003439 bytes, checksum: 070d65264679c7bfd03fc912be7cc61f (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / A indústria de software tem sido cada vez mais desafiada a melhorar suas praticas de engenharia com o objetivo de oferecer produtos de forma mais rápida e confiável. Assim, as práticas de desenvolvimento de software sofreram significativas mudanças nos últimos anos, uma vez que novas e acessíveis estratégias tem sido aplicadas de forma a alcançar tal desafio. Neste contexto, Engenharia de Linhas de Produto de Software surgiu como uma estratégia de engenharia de software destinada a fornecer à indústria oportunidades para alcançar os objetivos de negócio acima mencionados. No entanto, para garantir o retorno do investimento com uma abordagem de Linhas de Produto de Software, um processo de derivação de produtos bem definido é muito importante. Sem esse processo, os produtos podem ser instanciados de maneira não sistemática, aumentando o tempo e o custo de produção. Por outro lado, mesmo com esta relevância, quando comparado com a grande quantidade de pesquisas em desenvolvimento sobre linhas de produtos, relativamente poucos trabalhos tem sido dedicados ao processo de Derivação de Produtos. Alêm disso, ainda existem poucos relatórios disponíveis sobre como as organizações de desenvolvimento de software derivam seus produtos a partir de uma linha de produtos, e, em geral, os existentes têm sido realizados como estudos informais, sem rigor científico suficiente, tornando difícil a sua repetição e validação. Assim, esta dissertação tem como objetivo obter uma melhor compreensão sobre como derivação do produto é realizada e quais práticas são utilizadas na indústria. Reunimos descobertas através de dois estudos de caso realizados na indústria. Alem disso, as evidências obtidas a partir dos estudos de caso, foram comparados entre os casos através da análise Cross-case, com o objetivo de identificar padrões entre eles. A definição do estudo e relatório foram estruturados com base nas diretrizes consolidadas para estudos empíricos de acordo com orientações bem definidas, o que permite a replicação dos estudos e extensão

Page generated in 0.089 seconds