• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 171
  • 54
  • 50
  • 49
  • 10
  • 8
  • 8
  • 6
  • 5
  • 5
  • 5
  • 3
  • 3
  • 2
  • 2
  • Tagged with
  • 447
  • 95
  • 73
  • 71
  • 66
  • 56
  • 46
  • 43
  • 43
  • 38
  • 37
  • 33
  • 32
  • 32
  • 30
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Statistical analysis of pyrosequence data

Keating, Karen January 1900 (has links)
Doctor of Philosophy / Department of Statistics / Gary L. Gadbury / Since their commercial introduction in 2005, DNA sequencing technologies have become widely available and are now cost-effective tools for determining the genetic characteristics of organisms. While the biomedical applications of DNA sequencing are apparent, these technologies have been applied to many other research areas. One such area is community ecology, in which DNA sequence data are used to identify the presence and abundance of microscopic organisms that inhabit an environment. This is currently an active area of research, since it is generally believed that a change in the composition of microscopic species in a geographic area may signal a change in the overall health of the environment. An overview of DNA pyrosequencing, as implemented by the Roche/Life Science 454 platform, is presented and aspects of the process that can introduce variability in data are identified. Four ecological data sets that were generated by the 454 platform are used for illustration. Characteristics of these data include high dimensionality, a large proportion of zeros (usually in excess of 90%), and nonzero values that are strongly right-skewed. A nonparametric method to standardize these data is presented and effects of standardization on outliers and skewness are examined. Traditional statistical methods for analyzing macroscopic species abundance data are discussed, and the applicability of these methods to microscopic species data is examined. One objective that receives focus is the classification of microscopic species as either rare or common species. This is an important distinction since there is much evidence to suggest that the biological and environmental mechanisms that govern common species are distinctly different than the mechanisms that govern rare species. This indicates that the abundance patterns for common and rare species may follow different probability models, and the suitability of the Pareto distribution for rare species is examined. Techniques for classifying macroscopic species are shown to be ill-suited for microscopic species, and an alternative technique is presented. Recognizing that the structure of the data is similar to that of financial applications (such as insurance claims and the distribution of wealth), the Gini index and other statistics based on the Lorenz curve are explored as potential test statistics for distinguishing rare versus common species.
132

A distribuição generalizada de Pareto e mistura de distribuições de Gumbel no estudo da vazão e da velocidade máxima do vento em Piracicaba, SP / The generalized Pareto distribution and Gumbel mixture to study flow and maximum wind speed in Piracicaba, SP

Silva, Renato Rodrigues 10 October 2008 (has links)
A teoria dos valores extremos é um tópico da probabilidade que descreve a distribuição assintótica das estatísticas de ordem, tais como máximos ou mínimos, de uma seqüência de variáveis aleatórias que seguem uma função de distribuição F normalmente desconhecida. Descreve, ainda, a distribuição assintótica dos excessos acima de um valor limiar de um ou mais termos dessa seqüência. Dessa forma, as metodologias padrões utilizada neste contexto consistem no ajuste da distribuição generalizada dos valores extremos a uma série de máximos anuais ou no ajuste da distribuição generalizada de Pareto a uma série de dados compostas somente de observações excedentes de um valor limiar. No entanto, segundo Coles et al. (2003), há uma crescente insatisfação com o desempenho destes modelos padrões para predição de eventos extremos causada, possivelmente, por pressuposições não atendidas como a de independência das observações ou pelo fato de que os mesmos não sejam recomendados para serem utilizados em algumas situações específicas como por exemplo e quando observações de máximos anuais compostas por duas ou mais populações independentes de eventos extremos sendo que a primeira descreve eventos menos freqüentes e de maior magnitude e a segunda descreve eventos mais freqüentes e de menor magnitude. Então, os dois artigos que compõem este trabalho tem como objetivo apresentar alternativas de análise de valores extremos para estas situações em que o ajuste dos modelos padrões não são adequados. No primeiro, foram ajustadas as distribuições generalizada de Pareto e exponencial, caso particular da GP, aos dados de vazão média diária do Posto de Artemis, Piracicaba, SP, Brasil, conjuntamente com a técnica do desagrupamento, (declustering), e comparadas as estimativas dos níveis de retorno para períodos de 5, 10, 50 e 100 anos. Conclui-se que as estimativas intervalares dos níveis de retorno obtidas por meio do ajuste da distribuição exponencial são mais precisas do que as obtidas com o ajuste da distribuição generalizada de Pareto. No segundo artigo, por sua vez, foi apresentada uma metodologia para o ajuste da distribuição de Gumbel e de misturas de duas distribuições de Gumbel aos dados de velocidades de ventos mensais de Piracicaba, SP. Selecionou-se a distribuição que melhor ajustou-se aos dados por meio de testes de hipóteses bootstrap paramétrico e critérios de seleção AIC e BIC. E concluiu-se que a mistura de duas distribuições de Gumbel é a distribuição que melhor se ajustou-se aos dados de velocidades máxima de ventos dos meses de abril e maio, enquanto que o ajuste da distribuição de Gumbel foi o melhor para os meses de agosto e setembro. / The extreme value theory is a probability topics that describes the asymtoptic distribution of order statistics such as maximum or minimum of random variables sequence that follow a distribution function F normaly unknown. Describes still, the excess asymtoptic distribution over threshold of this sequence. So, the standard methodologies of extremes values analysis are the fitting of generalized extreme value distribution to yearly maximum series or the fitting of generalized Pareto distribution to partial duration series. However, according to Coles et al. (2003), there is a growing dissatisfaction with the use this standard models for the prediction of extremes events and one of possible causes this fact may be a false assumptions about a sequence of observed data as a independence assumptions or because the standards models must not used in some specific situations like for example when maximum sample arise from two or more independents populations, where the first population describes more frequents and low intense events and the second population describes less frequents and more intense events. In this way, the two articles this work has a objective show alternatives about extreme values analysis for this situations that the standards models doesn´t recommended. In the first article, the generalized distribution Pareto and exponencial distribution, particular case of GP, together with to declustering methods was applied to mean daily flow of the Piracicaba river, Artemis station, Piracicaba, SP, and the estimates the return levels of 5, 10, 50 and 100 years were compared. We conclude that the interval estimates of the 50 and 100 year return levels obtained using the fitting the exponencial distribution are more precise than those obtained using the generalized Pareto distribution. In the second article, we propose the fit of Gumbel distribution and the Gumbel mixture to data maximum speed wind in Piracicaba, SP. We select the best model using bootstrap test of hypotheses and the AIC and BIC selection criteria We conclude that the mixture Gumbel is the best model to analyze the maximum wind speed data for months of april e may and otherside the fit of Gumbel distributions was the best fit to months of august e september.
133

Aceleração do aprendizado por reforço em sistemas com múltiplos objetivos.

Helen Cristina de Mattos Senefonte 13 November 2009 (has links)
O objetivo deste trabalho é a implementação e análise de técnicas para aceleração do aprendizado por reforço em sistemas com múltiplos objetivos. Problemas com múltiplos objetivos, por sua vez, podem ser descritos de várias formas diferentes. O foco aqui é naqueles casos em que um único agente deve aprender simultaneamente e de modo online várias sub-tarefas independentes resultantes de uma decomposição a priori do problema em questão. O agente será responsável pelo aprendizado autônomo de um processo de seleção de ações em que pode ocorrer competição entre as várias sub-tarefas, cada uma das quais representada por um processo decisório distinto. O projeto envolve uma análise empírica baseada em resultados prévios da literatura, seguida de um estudo de variantes mistas de maximização de utilidade e minimização de custos associados às ações propostas pelos processos decisórios de Markov que compõem as sub-tarefas. Como resultado dessa análise são propostas as técnicas de aceleração do aprendizado baseadas em heurísticas testadas e estudadas no contexto de problemas de objetivos simples. Os resultados experimentais obtidos indicam que tais heurísticas adaptadas e aplicadas às políticas de ações dos MDPs são capazes de proporcionar aceleração da convergência dos algoritmos de aprendizado autônomo em problemas com múltiplos objetivos.
134

Desenvolvimento de estratégias de controle preditivo para aplicações aeronáuticas empregando otimização multi-objetivo.

Adilson de Souza Cândido 19 February 2010 (has links)
O desenvolvimento do sistema de controle de vôo está diretamente relacionado ao desempenho, segurança e qualidade de vôo da aeronave. Há a necessidade da concepção de abordagens de controle que assegurem, de uma maneira eficaz, que estes requisitos sejam satisfeitos mesmo na presença de distúrbios, ruídos de medida e imprecisões na modelagem. Neste contexto, o presente trabalho propõe o uso de técnicas de otimização multi-objetivo para a sintonização de controladores empregando formulações preditivas baseadas em modelo. Adicionalmente, é proposta uma abordagem gráfica de análise do desempenho dessas técnicas de otimização e controle por meio da fronteira ótima de Pareto. Para o estudo de caso foi utilizado um modelo longitudinal de uma aeronave semelhante ao Airbus A-310 e verificou-se o desempenho de três abordagens de controle preditivo (formulações em espaço de estados não-incremental, incremental e não-incremental com erro acumulado) segundo os critérios de velocidade de resposta e sensibilidades ao ruído de medida e à turbulência atmosférica. O problema de otimização multi-objetivo foi resolvido por meio de duas técnicas (busca em grade e goal attainment), e as soluções foram comparadas através da análise gráfica baseada em fronteiras de Pareto. Os resultados obtidos indicam a superioridade do desempenho da formulação de controle preditivo em espaço de estados não-incremental com erro acumulado e do algoritmo de otimização goal attainment. Por fim, foi analisada a eficiência do controlador preditivo sujeito a restrições sobre as taxas de variações e excursões das variáveis de controle.
135

Controle preditivo robusto para um helicóptero com três graus de liberdade.

Renata Monteiro Pascoal 19 March 2010 (has links)
As técnicas de controle preditivo (MPC, do inglês Model Predictive Control) têm sido cada vez mais difundidas em vários setores industriais devido à capacidade de tratar sistematicamente restrições físicas e operacionais do processo. No entanto, formulações tradicionais de MPC não permitem lidar de forma explícita com incertezas presentes no modelo da planta, que podem ser oriundas do descasamento entre planta e modelo, da degradação de componentes ou, ainda, da ocorrência de falhas. Além disso, sua utilização envolve a solução de problemas de otimização em tempo real, o que pode impossibilitar seu uso em processos que possuem dinâmica rápida. Neste trabalho, investigou-se o uso de uma estratégia robusta de MPC para controle de um helicóptero didático de três graus de liberdade sujeito a restrições no nível de tensão aplicado aos atuadores e na excursão de um de seus estados. Tal estratégia se baseia no uso de Desigualdades Matriciais Lineares para construção de elipsóides invariantes assintoticamente estáveis, de modo que todas as otimizações possam ser realizadas antes da implementação do controlador em tempo real. Em ensaios realizados em bancada, a aplicação dessa formulação robusta possibilitou a estabilização do sistema durante a realização das manobras respeitando as restrições impostas.
136

Determinação do coeficiente de amortecimento de um atuador para supressão de flutter usando modelagem e otimização multiobjetivo

Raphael Milhorini Pio 23 October 2009 (has links)
Este trabalho visa apresentar uma metodologia para determinar o coeficiente de amortecimento de um atuador de superfície primária de uma aeronave comercial para supressão de flutter aplicando recursos de modelagem e técnicas de otimização multiobjetivo em um modelo representativo do sistema real. A abordagem do trabalho consiste em otimizar parâmetros construtivos do atuador através de uma ferramenta de otimização chamada modeFRONTIER utilizando um modelo de um atuador na configuração standby implementado na ferramenta Matlab/Simulink. Como resultado da otimização multiobjetivo é obtida uma fronteira de Pareto, de onde um projeto ótimo é escolhido baseado em um requisito inicial que estabelece um critério de desempenho.
137

Um método de auxílio ao projeto de arquiteturas multimissão e multifunção para cargas úteis embarcadas em veículos de sondagem

Anderson Cattelan Zigiotto 09 December 2011 (has links)
Sistemas espaciais geralmente possuem custos de pesquisa e desenvolvimento excepcionalmente elevados em comparação aos custos de produção e operação, principalmente devido ao baixo volume de produção e ao ciclo de projeto extenso e com vários ensaios. Nesta categoria se incluem as cargas úteis para veículos de sondagem. Uma alternativa para diminuir esses custos é utilizar equipamentos comuns para realizar mais de uma função, ao invés de equipamentos especializados. Equipamentos multifunção são especificados através da análise de comunalidade do sistema, que pode ser estendida para abranger diferentes missões do veículo. A comunalidade reduz esforços de P&D, mas resulta em perda de desempenho e excesso de funcionalidade. Neste trabalho, é proposto um método para auxiliar o projetista do sistema na escolha da melhor solução de compromisso entre esses dois aspectos. É apresentado um modelo matemático para descrever o problema dos equipamentos multimissão e multifunção que pode ser adaptado ao nível de detalhamento desejado para análise. O problema foi modelado de forma a não ser necessário atribuir pesos relativos entre os objetivos conflitantes, representados por aspectos monetários e técnicos. Restrições são incluídas no modelo para melhor representar os problemas reais, que dificilmente são irrestritos. Para otimizar os objetivos do modelo, é utilizado um algoritmo genético multiobjetivo com restrições. Ele é aplicado a problemas exemplo, com diferentes níveis de detalhamento. O algoritmo é capaz de encontrar a frente de Pareto com as soluções não dominadas, fornecendo ao projetista um conjunto de alternativas de projeto. Cabe a ele a decisão final sobre qual solução utilizar, baseado em informações de alto nível, muitas vezes advindas da experiência e difíceis de serem modeladas.
138

Fundamental Study For Supplier Quality Improvement at AP&T Presses AB Sweden

Yah, Fritz Alum, Che, Jian January 2008 (has links)
This thesis aims at securing the quality of components from AP&T’s suppliers and to get a picture of different suppliers’ processes. In this thesis, samples supplied by various AP&T suppliers where measured at AP&T to gather data on how well the parts met design specifications. The collected data were analyzed using histogram and stratification. Further analysis was done using pareto chart and capability indices. Only the critical dimensions identified from the pareto chart together with discussions with experts on the shop floor were further analyzed using capability indices. This was done to focus more on the critical dimensions which needed more attention. The findings were critically studied and suggestions were made which served as a fundamental base for supplier product quality improvement plan at AP&T. However, there was no direct contact with the supplier process to ascertain its being in control; therefore, product characterization was carried out. In this case, all the results obtained from the analyses only gave a momentary picture of the process. Therefore, the results can not be used for future predictions.In the analysis, special attention was laid on the shape, spread and centering of the histogram. Studies were also done on the significant few; got from the pareto chart. Use was made of capability indices to get the momentary fall-outs of ppm and the percentage of the specification band used up by the process. / Uppsatsnivå: D
139

Caracterização dos processos de manutenção em equipamentos eletromédicos hospitalares / not available

Perrella, Marcelo 30 January 2006 (has links)
Atualmente existe uma gama considerável de procedimentos assistenciais de saúde os quais, seja por cultura, ou por exigências legais, só podem ser realizados com aporte tecnológico. Logo reduzir o tempo de parada de um equipamento médico está diretamente associado à viabilização da assistência necessária ao paciente. Em outras palavras, prestar uma manutenção otimizada representa qualidade na prestação de serviço da unidade assistencial de saúde, podendo em alguns casos, até, evitar a morte do paciente. Para isso é muito importante que os defeitos sejam reconhecidos e tratados adequadamente, não se esquecendo da otimização dos recursos financeiros. Com base nesta premissa, este trabalho propõe estabelecer uma relação dos tipos de defeitos apresentados pelos equipamentos com sua ocorrência, utilizando para tal o método de Pareto, fornecendo uma ferramenta de análise de grande utilidade na estruturação de grupos de manutenção corretiva de um serviço de engenharia clínica. Assim foram tomados como amostra quatro tipos de equipamentos que são eletrocardiógrafos, monitores cardíacos, unidades eletrocirúrgicas e incubadoras neonatais; caracterizando a existência de defeitos que podem ser classificados em baixa, média e alta complexidade de resolução, o que reflete na necessidade de ferramentas gerais ou específicas ao reparo e do nível de qualificação da equipe técnica, além do universo de componentes, partes e peças envolvidas com cada etapa de manutenção. Foram qualificados e quantificados defeitos para cada tipo de equipamentos acima, onde se constatou que nos equipamentos médico-hospitalares estudados, a maioria das paradas requisitou intervenções simples, de baixa complexidade. Ou seja, poucos defeitos foram responsáveis por muitas ordens de serviço e que o corpo técnico de manutenção pode esperar e se programar para atuar em cada um deles de acordo com o gráfico de Pareto. Desta forma o serviço de engenharia clínica pode ser direcionado para as necessidades prioritárias do estabelecimento assistencial de saúde, sendo capaz de produzir resultados com melhor custo-benefício. / At the present time there is a considerable range of assistential procedures for the health area, whether by culture or by legal demand they can only happen with technological support. Therefore, to reduce the halt time of a medical equipment is directly associated with feasibility of assistance needed by the patient. In other words, to provide optimized maintenance represents quality in the service provided in health assistential unit, in some cases it can even avoid the death of a patient. In order to accomplish the issue discussed above, it is important to recognize the defects and mend them adequately, however, the optimization of financial resources cannot be forgotten. Based on that premise, this work proposes the establishment of a relation between the kind of defects presented by equipments and its occcurrence, using the Pareto\'s method to accomplish this goal, providing a research tool of great utility in the structure of corrective maintenance groups of a service in clinic engineering. Therefore four kinds of equipment were taken as samples; they are: electrocardiograph, cardiac monitor, electrossurgical units and neo-natal incubator. Once portray ting the existence of defects, which can be classified in low, medium or high complexity of resolution, they can reflect on the necessity of using general or specific tools for mending the equipment and the level of qualification of the technical staff. Moreover, the universe of components, parts and tools involved with each stage of maintenance. For each of the equipment mentioned above the defects were quantified and qualified, within this procedure the medical equipment that was studied, the majority of halt required just simple interventions of low complexity. Therefore, few defects were responsible for many service request forms and the maintenance technical staff could wait and prepare to perform according to Pareto\'s graphic. As a result, the service of clinic engineering can be drawn into the main necessities of the assistant health establishment, being capable of presenting results with the lowest cost-benefit.
140

Computation offloading for algorithms in absence of the Cloud

Sthapit, Saurav January 2018 (has links)
Mobile cloud computing is a way of delegating complex algorithms from a mobile device to the cloud to complete the tasks quickly and save energy on the mobile device. However, the cloud may not be available or suitable for helping all the time. For example, in a battlefield scenario, the cloud may not be reachable. This work considers neighbouring devices as alternatives to the cloud for offloading computation and presents three key contributions, namely a comprehensive investigation of the trade-off between computation and communication, Multi-Objective Optimisation based approach to offloading, and Queuing Theory based algorithms that present the benefits of offloading to neighbours. Initially, the states of neighbouring devices are considered to be known and the decision of computation offloading is proposed as a multi-objective optimisation problem. Novel Pareto optimal solutions are proposed. The results on a simulated dataset show up to 30% increment in performance even when cloud computing is not available. However, information about the environment is seldom known completely. In Chapter 5, a realistic environment is considered such as delayed node state information and partially connected sensors. The network of sensors is modelled as a network of queues (Open Jackson network). The offloading problem is posed as minimum cost problem and solved using Linear solvers. In addition to the simulated dataset, the proposed solution is tested on a real computer vision dataset. The experiments on the random waypoint dataset showed up to 33% boost on performance whereas in the real dataset, exploiting the temporal and spatial distribution of the targets, a significantly higher increment in performance is achieved.

Page generated in 0.034 seconds