• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 318
  • 28
  • 10
  • Tagged with
  • 357
  • 237
  • 57
  • 43
  • 41
  • 41
  • 35
  • 34
  • 31
  • 30
  • 29
  • 29
  • 27
  • 25
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Avaliação da construção e aplicação de modelos florestais de efeitos fixos e efeitos mistos sob o ponto de vista preditivo / Evaluation of goodness of fit and application of fixed and mixed effects models in forestry from the predictive point of view

Vismara, Edgar de Souza 20 March 2013 (has links)
Neste trabalho procurou-se avaliar o processo de construção e aplicação de modelos preditivos no meio florestal. Para tanto, no primeiro artigo parte-se de uma amostra destrutiva de 200 indivíduos de dez espécies arbóreas distintas, originárias do bioma Atlântico, testando-se três modelos teóricos comumente usados na predição de volume e biomassa, sendo a esses adicionados preditores informativos da densidade básica da árvore. Para a avaliação os modelos ajustados foram simuladas três situações preditivas distintas. Os resultados demonstraram que aplicar o modelo em situações distintas a da amostra de ajuste gera viés nas predições que, no entanto, é reduzido com a entrada dos referidos preditores. O segundo artigo apresenta aplicações da calibração do modelo linear de efeito misto na predição do volume em plantios de Eucalyptus grandis em primeira e segunda rotação. Para tanto, partiu-se do modelo de Schumacher e Hall, em sua forma linearizada, para o desenvolvimento modelo de efeitos mistos, que considerou alguns de seus parâmetros como sendo aleatórios ao longo das diferentes fazendas. A calibração foi realizada em nível de fazenda partindo-se de um pequeno número de árvores-amostra. A abordagem foi desenvolvida para modelos univariados de primeira rotação, além de modelos bivariados de duas rotações. Os resultados mostraram que o procedimento de calibração fornece predições mais confiáveis que a dos modelos tradicionais de efeitos fixos em ambas as rotações. O terceiro artigo apresenta aplicações da calibração do modelo linear de efeito misto na predição da biomassa de árvores de espécies nativas numa floresta Ombrófila densa. Partiuse do modelo de potência, em sua forma linearizada, para o desenvolvimento modelo de efeitos mistos e dois níveis: parcela e espécie, O ajuste do modelo foi feito considerando esses dois níveis, mas a calibração foi realizada em cada nível ignorando o efeito do outro, nível. Os resultados mostraram que o procedimento de calibração fornece predições mais confiáveis em nível de espécie que os modelos tradicionais. Em nível de parcela, a calibração não foi efetiva. / In this study we tried to evaluate the process of construction and application of predictive models in forestry. Therefore, in the first paper we started from a destructive sample of 200 individuals from ten different tree species, originating from the Atlantic biome. We tested three theoretical models commonly used to predict volume and biomass, which was added predictors related to tree basic density. To evaluate the models were simulated three different predictive situations. The results showed that applying the model in different situations from the sample generates bias on predictions; however, it is reduced by adding the referred predictors. The second article presents applications of linear mixedeffects models and calibration to predict the volume in Eucalyptus grandis plantations in first and second rotation. Therefore, we started with the model of Schumacher and Hall, in their linearized form to develop the mixed-effects model, which considered some of its parameters as random throughout the different farms. The calibration was performed at the farm level and starting from a small number of sample trees. The approach was developed to first rotation univariate models, and a bivariate model of both rotations. The results showed that the calibration procedure provides more reliable predictions than the traditional fixed effects models in both rotations. The third article presents applications of linear mixedeffects model and calibration to predict the biomass in a rain forest. We started from the power model, in its linearized form, for developing the mixed-effects model considering two levels of grouping: plot and species, Model fitting was made considering these two levels, but the calibration was performed on each level ignoring the other level effect. The results showed that the calibration procedure provides more reliable predictions at species level than traditional models. On the plot level, the calibration was not effective.
172

Agrupamento de dados baseado em predições de modelos de regressão: desenvolvimentos e aplicações em sistemas de recomendação / Data clustering based on prediction regression models: developments and applications in recommender systems

André Luiz Vizine Pereira 12 May 2016 (has links)
Sistemas de Recomendação (SR) vêm se apresentando como poderosas ferramentas para portais web tais como sítios de comércio eletrônico. Para fazer suas recomendações, os SR se utilizam de fontes de dados variadas, as quais capturam as características dos usuários, dos itens e suas transações, bem como de modelos de predição. Dada a grande quantidade de dados envolvidos, é improvável que todas as recomendações possam ser bem representadas por um único modelo global de predição. Um outro importante aspecto a ser observado é o problema conhecido por cold-start, que apesar dos avanços na área de SR, é ainda uma questão relevante que merece uma maior atenção. O problema está relacionado com a falta de informação prévia sobre novos usuários ou novos itens do sistema. Esta tese apresenta uma abordagem híbrida de recomendação capaz de lidar com situações extremas de cold-start. A abordagem foi desenvolvida com base no algoritmo SCOAL (Simultaneous Co-Clustering and Learning). Na sua versão original, baseada em múltiplos modelos lineares de predição, o algoritmo SCOAL mostrou-se eficiente e versátil, podendo ser utilizado numa ampla gama de problemas de classificação e/ou regressão. Para melhorar o algoritmo SCOAL no sentido de deixá-lo mais versátil por meio do uso de modelos não lineares, esta tese apresenta uma variante do algoritmo SCOAL que utiliza modelos de predição baseados em Máquinas de Aprendizado Extremo. Além da capacidade de predição, um outro fator que deve ser levado em consideração no desenvolvimento de SR é a escalabilidade do sistema. Neste sentido, foi desenvolvida uma versão paralela do algoritmo SCOAL baseada em OpenMP, que minimiza o tempo envolvido no cálculo dos modelos de predição. Experimentos computacionais controlados, por meio de bases de dados amplamente usadas na prática, comprovam que todos os desenvolvimentos propostos tornam o SCOAL ainda mais atraente para aplicações práticas variadas. / Recommender Systems (RS) are powerful and popular tools for e-commerce. To build its recommendations, RS make use of multiple data sources, capture the characteristics of items, users and their transactions, and take advantage of prediction models. Given the large amount of data involved in the predictions made by RS, is unlikely that all predictions can be well represented by a single global model. Another important aspect to note is the problem known as cold-start that, despite that recent advances in the RS area, it is still a relevant issue that deserves further attention. The problem arises due to the lack of prior information about new users and new items. This thesis presents a hybrid recommendation approach that addresses the (pure) cold start problem, where no collaborative information (ratings) is available for new users. The approach is based on an existing algorithm, named SCOAL (Simultaneous Co-Clustering and Learning). In its original version, based on multiple linear prediction models, the SCOAL algorithm has shown to be efficient and versatile. In addition, it can be used in a wide range of problems of classification and / or regression. The SCOAL algorithm showed impressive results with the use of linear prediction models, but there is still room for improvements with nonlinear models. From this perspective, this thesis presents a variant of the SCOAL based on Extreme Learning Machines. Besides improving the accuracy, another important issue related to the development of RS is system scalability. In this sense, a parallel version of the SCOAL, based on OpenMP, was developed, aimed at minimizing the computational cost involved as prediction models are learned. Experiments using real-world datasets has shown that all proposed developments make SCOAL algorithm even more attractive for a variety of practical applications.
173

Desenvolvimento de metodologias de novo para predição de estruturas de proteínas / Development of de novo methods for protein structure prediction

Oliveira, Raphael Trevizani Roque de 17 December 2014 (has links)
Submitted by Maria Cristina (library@lncc.br) on 2015-03-31T14:55:14Z No. of bitstreams: 1 thesis Trevizani_protegida.pdf: 22726026 bytes, checksum: 6bea89be5be890f00d13877ab906c396 (MD5) / Approved for entry into archive by Maria Cristina (library@lncc.br) on 2015-03-31T14:57:14Z (GMT) No. of bitstreams: 1 thesis Trevizani_protegida.pdf: 22726026 bytes, checksum: 6bea89be5be890f00d13877ab906c396 (MD5) / Made available in DSpace on 2015-03-31T15:01:54Z (GMT). No. of bitstreams: 1 thesis Trevizani_protegida.pdf: 22726026 bytes, checksum: 6bea89be5be890f00d13877ab906c396 (MD5) Previous issue date: 2014-12-17 / De novo protein structure prediction aims to find the 3D conformation of a protein from its amino acid sequence without the use of experimental templates. One of the most successful strategies consists in assembling models from a collection of small fragments of other proteins using a search algorithm. GAPF (Genetic Algorithms for Protein Folding) is a software for ab initio protein structure prediction developed by GMMSB/LNCC which uses a multiple minima genetic algorithms (GA) to search the energy landscape. The aim of this work is to incorporate a de novo methodology to GAPF to increase its predictiveness. The main strategy implemented is based on using fragment libraries. Fragments are selected based on sequence similarity and secondary structure prediction, and were used both to assemble the individuals of the initial population, and as mutation operators. We developed a strategy to insert fragments whose length was determined using the confidence of the secondary structure prediction. Additionaly, the structures with the highest hydrophobic compactness were favoured by a new form of parental selection. The test set comprises 20 proteins distributed among mainly-α, mainly-β and α/β classes, ranging from 20 to 146 aminoacids. The de novo method presented here was able to improve the prediction for 75% of the proteins of the test set, and the improvement was considered significative for 50% of the proteins of the test set. Besides the performance improvement (i.e., smaller number of evaluations of the energy function), a greater number of individuals with better hydrophobic compactness was generated. The results of this work point to important pathways to better de novo methods and aided setting the protocol that allowed GAPF to participate in the Critical Assessment of Protein Structure Prediction - CASP 11. / A predição de novo de estruturas de proteínas almeja encontrar a conformação tridimensional de uma proteína a partir de sua sequência de aminoácidos sem o uso de moldes/estruturas experimentais de referência. Uma das estratégias de maior sucesso consiste em construir modelos a partir de uma coleção de fragmentos de outras proteínas utilizando um algoritmo de otimização. O GAPF (Genetic Algorithms for Protein Folding) é um programa de predição ab initio, desenvolvido pelo GMMSB/LNCC, que utiliza um algoritmo genético (AG) de múltiplas soluções para a exploração da superfície de energia livre. O objetivo deste trabalho é o desenvolvimento de uma metodologia de novo para o programa GAPF objetivando o aumento da sua capacidade preditiva. A principal estratégia implementada baseia-se no uso de bibliotecas de fragmentos. Os fragmentos são escolhidos com base na similaridade de sequência e predição de estruturas secundárias e foram utilizados para compor os indivíduos da população inicial do AG e também através do uso de operadores de mutação específicos. Desenvolveu-se uma estratégia de inserção de fragmentos de tamanho variável, onde a determinação do tamanho utiliza informações obtidas da predição de estrutura secundária. Adicionalmente, foi incorporada uma estratégia de favorecimento da compactação hidrofóbica das estruturas preditas através do desenvolvimento de uma nova forma de seleção parental para a geração de novos indivíduos durante o AG. A metodologia foi testada em um conjunto de 20 proteínas, contendo de 20 a 146 resíduos de aminoácidos, pertencentes às classes principalmente-α, principalmente-β e α/β. Os resultados obtidos mostraram que a metodologia de novo desenvolvida foi capaz de melhorar a predição para 75% das proteínas do conjunto, sendo que foram verificadas melhorias consideradas significativas para 50% do conjunto. Além de uma melhora na performance computacional (i.e., menor número de avaliações da função energia), observou-se também a geração de indivíduos exibindo uma melhor compactação hidrofóbica. Os resultados deste trabalho apontam caminhos importantes para a melhoria da metodologia de novo no contexto do programa GAPF e viabilizaram a construção do protocolo utilizado pelo GMMSB em sua participação no evento Critical Assessment of Protein Structure Prediction - CASP 11.
174

Aeroacoustics of dual-stream jets with application to turbofan engines.

Odenir de Almeida 26 June 2009 (has links)
A Computational Aeroacoustics (CAA) and a novel semi-empirical model is developed for predicting the noise generated by the jet flow through dual stream (coaxial) nozzles, as found in modern turbofan engines. The acoustic source model was developed in a 2D and 3D framework, based on the Lilley's Equations, following the traditional MGBK method from NASA Langley Research Center. The semi-empirical model was based on the Four-Source model from the Institute of Sound and Vibration (ISVR). This suite of methodologies provided a mean of investigating the mechanisms of noise generation and propagation of subsonic coaxial jet flows, as well as the noise prediction at different operating conditions. The work done contributed to the development and improvement of a numerical tool for jet noise prediction of dual-stream exhaust systems, commonly employed in turbofan engines. Such research also subsidies the improvement of semi-empirical methods used in the Center of Reference in Gas Turbine (ITA) for the noise prediction of turbofans in all operating conditions.
175

Otimização de trajetória de decolagem de um supersônico executivo por controle aerodinâmico visando ruído mínimo.

Eduardo Lobão Capucho Coelho 08 May 2008 (has links)
Alguns setores da indústria aeronáutica encontram-se em fase de estudo para uma nova e muito exclusiva categoria de aviação executiva, designada por Ultra Rápida de Longo Alcance. Tais aviões seriam capazes de cruzar distâncias da ordem de 4.500 milhas náuticas em velocidades supersônicas, levando não mais do que 12 passageiros. Esta tendência, contudo, é ameaçada por um antigo problema que assola essa indústria desde sua infância: o ruído gerado durante as operações aeroportuárias. Neste caso agravado pelo sistema propulsivo adotado em aeronaves supersônicas. Este trabalho visa otimizar a trajetória de decolagem de um jato supersônico executivo hipotético, tendo como objetivo a minimização do Nível Efetivo de Ruído Percebido por um observador situado imediatamente abaixo à trajetória do avião, de acordo com os requisitos de homologação aeronáutica. As entradas de controle estudadas são somente de natureza aerodinâmica, o que é modelado pela variação do coeficiente global de sustentação (CL), segundo leis matemáticas de parametrização. O modelo adotado para o ruído total da aeronave assume o jato de exaustão dos motores como a fonte acústica dominante.
176

Marcadores preditivos do comprometimento das margens cirúrgicas do carcinoma basocelular / Predictive markers of surgical margins commitment in basal cell carcinoma

Bueno Filho, Roberto 04 November 2015 (has links)
O carcinoma basocelular (CBC) é malignidade de incidência elevada e crescente na população caucasiana, e sua expressiva prevalência nos serviços de saúde remete à necessidade de avaliação dos índices de cura. O presente estudo analisou marcadores clínicos preditivos do comprometimento das margens cirúrgicas do CBC, em conjunto com um painel de marcadores imuno-histoquímicos (IHQ). Analisou-se 1294 laudos histopatológicos de CBC, emitidos durante 2011, e incluídos 674 casos de excisão cirúrgica completa realizada por diferentes especialidades em hospital terciário. Foram selecionados 40 casos dos diferentes subtipos histológicos para realização de IHQ para os marcadores Ber-EP4, MNF116, E-Caderina e VEGF, analisados por sistema digital de captação de imagens e programa de computador. Na amostra, houve predomínio de homens (60,4%) com idade média de 68 anos, da localização cefálica (71%) e do subtipo nodular (61%); da ulceração (p= 0,003) e do diâmetro médio superior dos CBC nos homens (307,41 mm2 x 190,74 mm2; p< 0,001); do subtipo superficial de localização no tronco (p< 0,001) e em mais jovens (<73 anos; p= 0,001); do subtipo nodular (p< 0,001) e ulcerado (p= 0,05) no segmento cefálico. A especialidade Dermatologia foi responsável pela maioria das cirurgias (78%), cuja dimensão média e índice de margens cirúrgicas livres dos CBC excisados foram respectivamente 274 mm2 e 95%, seguida por 279 mm2 e 89% na Cirurgia Plástica, 218 mm2 e 60% na Cirurgia de Cabeça e Pescoço (CCP), 87 mm2 e 49% na Oftalmologia. O risco para desfecho em margens cirúrgicas comprometidas foi determinado para: subtipo micronodular (OR 3,41; IC 95% 1,71 6,80; p= 0,001); localização cefálica (OR 8,33 IC 95% 1,05 50; p= 0,045); excisões realizadas pelas especialidades Oftalmologia (OR 10,12; IC 95% 4,40 23,27; p= 0,001) e CCP (OR 9,67; IC 95% 5,14 18,21; p= 0,001). A imunomarcação pelo Ber-EP4, MNF116 e ECaderina foi homogênea e de intensidade moderada a acentuada nas células neoplásicas em todos os subtipos; os valores de intensidade da marcação, percentual de área e escore para o MNF116 discriminaram os CBC agressivos (esclerodermiforme e micronodular) daqueles não agressivos (nodular e superficial); e foram superiores para ECaderina no subtipo superficial; o percentual de células marcadas pelo VEGF foi superior nos tumores agressivos (p< 0,001). O segmento cefálico e o subtipo micronodular, seguido do esclerodermiforme, implicam em riscos elevados para o comprometimento das margens e merecem atenção quanto ao manuseio cirúrgico. A imunomarcação por Ber-EP4, MNF116 e E-Caderina pode auxiliar na identificação de ninhos tumorais multifocais no subtipo superficial, ou em meio ao processo inflamatório nos subtipos agressivos. A marcação da E-Caderina pode representar o padrão menos agressivo e de crescimento radial do subtipo superficial; e a do VEGF, nos tumores mais agressivos, ser indicativa do papel desta proteína no comportamento mais invasivo. A especialidade Dermatologia tem expressiva participação institucional e níveis de resolubilidade superiores, representada pelas maiores frequências de excisão de CBC e de margens cirúrgicas livres. O reconhecimento de fatores preditivos para desfecho em margens cirúrgicas comprometidas é de fundamental relevância para o planejamento cirúrgico e obtenção das mais elevadas taxas de cura. / Basal cell carcinoma (BCC) is the most common human malignancy and it is increasing its incidence in the Caucasian population. The significant prevalence of cases in specialized health services indicates the need of assessment of cure rates. The present study analyzed clinical predictive markers of compromised surgical margins in BCC in association with a panel of Immunohistochemistry (IHC) markers. We analyzed 1294 BCC histopathological reports during 2011, and 674 cases of complete surgical excision performed by different specialties in a tertiary hospital were included. From the sample, 40 cases of different histological subtypes were selected to perform IHC markers Ber-EP4, MNF116, E-cadherin and VEGF, which were analyzed by digital image capture system and computer program. There was male predominance (60.4%) with mean age of 68 years, location at cephalic segment (71%) and nodular subtype (61%); ulceration (p= 0.003) and higher average size of CBC in men (307.41 mm2 x 190.74 mm2; p< 0.001); superficial subtype was more frequent on trunk (p< 0.001) and in younger than 73 years (p< 0.001); nodular subtype (p< 0.001) and ulceration (p= 0.05) at cephalic segment. The specialty Dermatology performed the majority of surgeries (78%), and the average size and the index of free surgical margins were 274 mm2 and 95% in Dermatology, 279 mm2 and 89% in Plastic Surgery, 218 mm2 and 60% in Head and Neck Surgery (HNS), 87 mm2 and 49% in Ophthalmology. The risk for compromised surgical margins was determined for: micronodular subtype (OR 3.41; 95% CI 1.71 6.80; p= 0.001); location at cephalic segment (OR 8.33; 95% CI 1.05 50; p= 0.045); excisions performed by Ophthalmology (OR 10.12; 95% CI 4.40 23.27; p= 0.001) and HNS (OR 9.67; 95% CI 5.14-18.21; p= 0.001). Immunostaining by Ber-EP4, MNF116 and E-cadherin was homogeneous and moderate to high intensity within the neoplastic cells in all BCC subtypes; values obtained from staining intensity, percentage of area and score for the MNF116 showed difference between aggressive BCC (morpheaform and micronodular) and non-aggressive (superficial nodular); and were higher for E-cadherin in superficial BCC; the percentage of marked cells by VEGF was higher in aggressive tumors (p< 0.001). The cephalic segment and micronodular subtype, followed by the morpheaform, imply high risks for compromised margins and deserve attention during the surgical treatment by trained experts. The immunohistochemistry markers Ber-EP4, MNF116 and E-cadherin may help the identification of multifocal tumor nests in superficial subtype or amid the inflammatory process in the aggressive subtypes. E-cadherin staining may represent the least aggressive and radial pattern of growth of superficial subtype. VEGF staining in peritumoral inflammatory cells of aggressive tumors may be indicative of the role of this protein in more invasive behavior of these subtypes of the BCC. Dermatology has significant institutional participation with highest resolution, represented by higher frequency of BCC excision and less compromised surgical margins. Knowing the predictive factors for compromised surgical margins is important for planning surgical treatment and obtaining the highest cure rates.
177

Performance prediction of application executed on GPUs using a simple analytical model and machine learning techniques / Predição de desempenho de aplicações executadas em GPUs usando um modelo analítico simples e técnicas de aprendizado de máquina

González, Marcos Tulio Amarís 25 June 2018 (has links)
The parallel and distributed platforms of High Performance Computing available today have became more and more heterogeneous (CPUs, GPUs, FPGAs, etc). Graphics Processing Units (GPU) are specialized co-processor to accelerate and improve the performance of parallel vector operations. GPUs have a high degree of parallelism and can execute thousands or millions of threads concurrently and hide the latency of the scheduler. GPUs have a deep hierarchical memory of different types as well as different configurations of these memories. Performance prediction of applications executed on these devices is a great challenge and is essential for the efficient use of resources in machines with these co-processors. There are different approaches for these predictions, such as analytical modeling and machine learning techniques. In this thesis, we present an analysis and characterization of the performance of applications executed on GPUs. We propose a simple and intuitive BSP-based model for predicting the CUDA application execution times on different GPUs. The model is based on the number of computations and memory accesses of the GPU, with additional information on cache usage obtained from profiling. We also compare three different Machine Learning (ML) approaches: Linear Regression, Support Vector Machines and Random Forests with BSP-based analytical model. This comparison is made in two contexts, first, data input or features for ML techniques were the same than analytical model, and, second, using a process of feature extraction, using correlation analysis and hierarchical clustering. We show that GPU applications that scale regularly can be predicted with simple analytical models, and an adjusting parameter. This parameter can be used to predict these applications in other GPUs. We also demonstrate that ML approaches provide reasonable predictions for different cases and ML techniques required no detailed knowledge of application code, hardware characteristics or explicit modeling. Consequently, whenever a large data set with information about similar applications are available or it can be created, ML techniques can be useful for deploying automated on-line performance prediction for scheduling applications on heterogeneous architectures with GPUs. / As plataformas paralelas e distribuídas de computação de alto desempenho disponíveis hoje se tornaram mais e mais heterogêneas (CPUs, GPUs, FPGAs, etc). As Unidades de processamento gráfico são co-processadores especializados para acelerar operações vetoriais em paralelo. As GPUs têm um alto grau de paralelismo e conseguem executar milhares ou milhões de threads concorrentemente e ocultar a latência do escalonador. Elas têm uma profunda hierarquia de memória de diferentes tipos e também uma profunda configuração da memória hierárquica. A predição de desempenho de aplicações executadas nesses dispositivos é um grande desafio e é essencial para o uso eficiente dos recursos computacionais de máquinas com esses co-processadores. Existem diferentes abordagens para fazer essa predição, como técnicas de modelagem analítica e aprendizado de máquina. Nesta tese, nós apresentamos uma análise e caracterização do desempenho de aplicações executadas em Unidades de Processamento Gráfico de propósito geral. Nós propomos um modelo simples e intuitivo fundamentado no modelo BSP para predizer a execução de funções kernels de CUDA sobre diferentes GPUs. O modelo está baseado no número de computações e acessos à memória da GPU, com informação adicional do uso das memórias cachês obtidas do processo de profiling. Nós também comparamos três diferentes enfoques de aprendizado de máquina (ML): Regressão Linear, Máquinas de Vetores de Suporte e Florestas Aleatórias com o nosso modelo analítico proposto. Esta comparação é feita em dois diferentes contextos, primeiro, dados de entrada ou features para as técnicas de aprendizado de máquinas eram as mesmas que no modelo analítico, e, segundo, usando um processo de extração de features, usando análise de correlação e clustering hierarquizado. Nós mostramos que aplicações executadas em GPUs que escalam regularmente podem ser preditas com modelos analíticos simples e um parâmetro de ajuste. Esse parâmetro pode ser usado para predizer essas aplicações em outras GPUs. Nós também demonstramos que abordagens de ML proveem predições aceitáveis para diferentes casos e essas abordagens não exigem um conhecimento detalhado do código da aplicação, características de hardware ou modelagens explícita. Consequentemente, sempre e quando um banco de dados com informação de \\textit esteja disponível ou possa ser gerado, técnicas de ML podem ser úteis para aplicar uma predição automatizada de desempenho para escalonadores de aplicações em arquiteturas heterogêneas contendo GPUs.
178

Estudo do desencadeamento das erosões lineares concentradas em uma área do município de São Pedro/SP / Study of the trigger of concentrated gully erosion in an area of São Pedro/SP

Araujo, Thiago Peixoto de 02 May 2011 (has links)
O presente trabalho propõe índices que indicam o limiar topográfico para predição do desencadeamento de canais de erosão linear em uma região de clima tropical. A área escolhida para a realização do estudo localiza-se no município de São Pedro/SP e apresenta uma área de aproximadamente 7 \'KM POT.2\'. Nesta área foi realizado um inventário detalhado das feições erosivas pré-existentes para obtenção dos valores das áreas das bacias de contribuição, considerando as cabeceiras de algumas erosões e as declividades médias dessas áreas, por meio de ferramentas de SIG e também por fotografias aéreas ortorretificadas. Trabalhos de campo, com o auxílio de GPS de precisão, permitiram definir a situação atual das erosões e com o uso de fotografias aéreas de anos anteriores foi possível observar a sua evolução. Com isso, através dos mapas em SIG, como MDT, declividade, direção de fluxo e etc. foram obtidos os valores de área de contribuição (A) e declividade média (S). Os valores de A x S foram apresentados em gráficos que permitiram identificar o ponto mínimo para a ocorrência de um evento erosivo e estabelecer de forma empírica os limiares topográficos que definem as condições para o início do processo erosivo. Para o Índice I foram feitas duas equações (uma para canais menos profundos que 1 metro e outra para canais mais profundos que 1 metro) e para o Índice II foi obtida apenas uma equação, pois em fotografias aéreas nas escalas disponíveis (1:25.000 e 1:30.000) foram possíveis serem observados apenas os canais profundos. Os índices obtidos neste trabalho foram para o Índice I: S = 0,0219A(-0,376) (canais profundos) e S = 0,0128A(-0,443) (canais rasos); enquanto que para o Índice II o valor obtido é: S = 0,0588A(-0,377). Para a validação destes índices propostos, foram realizados os mesmos procedimentos para obtenção das áreas de contribuição (A) e declividade média (S), porém em outra área. A área escolhida para se fazer a validação dos índices foi a Bacia do Ribeirão do Meio, que apresenta 48 \'KM POT.2\' aproximados de área e apresenta características físicas semelhantes da área utilizada neste presente estudo, ou seja, apresenta semelhança em geologia, geomorfologia, clima, uso e ocupação. Foi observado com esta validação, que todos os pontos com problemas de erosão da área usada para validação localizam-se dentro da área prevista pelos índices para ocorrência de problemas de erosão, o que significa dizer que os índices exprimem o limiar topográfico para erosões lineares nas condições encontradas na área de estudo e em áreas semelhantes. / This paper proposes indexes indicating the topographic threshold for predicting the trigger of gully erosion in a tropical climate region. The area chosen for the study is located in São Pedro/SP and presents an area of approximately 7 \'KM POT.2\' . In this area was carried out a detailed inventory of pre-existing erosion to obtain the values of watershed areas of contribution, considering the headwaters of some erosions and the mean slope of these areas, using GIS tools and also orthorectified aerial photographs. Fieldwork, with the assistance of GPS accuracy, allowed defining the current condition of erosion and with the use of aerial photographs from previous years was possible to observe its evolution. Thus, through the maps in GIS, as DEM, Slope, Flow Direct ion among others, were obtained values from contribution area (A) and mean slope (S). The values of A x S were represented in charts al lowing to identify the lower point for the occurrence of an erosion event and establish empirical ly the topographic thresholds that def ine the conditions for initiating the erosion process. For the index I were made two equations (one for channels less than 1 meter deep and one for channels deeperthan 1 meter) and Index II was obtained only one equation, because in aerial photographs available (scales1:25,000 and 1:30,000) were possible only be observed the deep channels. The indexes obtained in this paper were for the Index I: S = 0,0219A(-0,376) (deep channels) and S = 0,0128A(-0,443) (shallow channels), while the index II the value obtained is: S = 0,0588A(-0,377). To validate these proposed indexes, the same procedures were performed to obtain the contribution area (A) and mean slope (S), but in another area. The area chosen to perform the validation of the indexes was the Basin Ribeirão do Meio, which is 48 \'KM POT.2\' extents and shows similarity in geology, geomorphology, climate, use and occupation. The results have been showed that the selected points with erosion problem of the area used for validation are located wi thin the area specified by the indexes for the occurrence of erosion problems, which means that the indexes reflect the topographic threshold for gully erosions in conditions found in the study area and similar areas.
179

Melhor preditor empírico aplicado aos modelos beta mistos / Empirical best predictor for mixed beta regression models

Zerbeto, Ana Paula 21 February 2014 (has links)
Os modelos beta mistos são amplamente utilizados na análise de dados que apresentam uma estrutura hierárquica e que assumem valores em um intervalo restrito conhecido. Com o objetivo de propor um método de predição dos componentes aleatórios destes, os resultados previamente obtidos na literatura para o preditor de Bayes empírico foram estendidos aos modelos de regressão beta com intercepto aleatório normalmente distribuído. O denominado melhor preditor empírico (MPE) proposto tem aplicação em duas situações diferentes: quando se deseja fazer predição sobre os efeitos individuais de novos elementos de grupos que já fizeram parte da base de ajuste e quando os grupos não pertenceram à tal base. Estudos de simulação foram delineados e seus resultados indicaram que o desempenho do MPE foi eficiente e satisfatório em diversos cenários. Ao utilizar-se da proposta na análise de dois bancos de dados da área da saúde, observou-se os mesmos resultados obtidos nas simulações nos dois casos abordados. Tanto nas simulações, quanto nas análises de dados reais, foram observados bons desempenhos. Assim, a metodologia proposta se mostrou promissora para o uso em modelos beta mistos, nos quais se deseja fazer predições. / The mixed beta regression models are extensively used to analyse data with hierarquical structure and that take values in a restricted and known interval. In order to propose a prediction method for their random components, the results previously obtained in the literature for the empirical Bayes predictor were extended to beta regression models with random intercept normally distributed. The proposed predictor, called empirical best predictor (EBP), can be applied in two situations: when the interest is predict individuals effects for new elements of groups that were already analysed by the fitted model and, also, for elements of new groups. Simulation studies were designed and their results indicated that the performance of EBP was efficient and satisfatory in most of scenarios. Using the propose to analyse two health databases, the same results of simulations were observed in both two cases of application, and good performances were observed. So, the proposed method is promissing for the use in predictions for mixed beta regression models.
180

Implementação de um framework de computação evolutiva multi-objetivo para predição Ab Initio da estrutura terciária de proteínas / Implementation of multi-objective evolutionary framework for Ab Initio protein structure prediction

Faccioli, Rodrigo Antonio 24 August 2012 (has links)
A demanda criada pelos estudos biológicos resultou para predição da estrutura terciária de proteínas ser uma alternativa, uma vez que menos de 1% das sequências conhecidas possuem sua estrutura terciária determinada experimentalmente. As predições Ab initio foca nas funções baseadas da física, a qual se trata apenas das informações providas pela sequência primária. Por consequência, um espaço de busca com muitos mínimos locais ótimos deve ser pesquisado. Este cenário complexo evidencia uma carência de algoritmos eficientes para este espaço, tornando-se assim o principal obstáculo para este tipo de predição. A optimização Multi-Objetiva, principalmente os Algoritmos Evolutivos, vem sendo aplicados na predição da estrutura terciária já que na mesma se envolve um compromisso entre os objetivos. Este trabalho apresenta o framework ProtPred-PEO-GROMACS, ou simplesmente 3PG, que não somente faz predições com a mesma acurácia encontrada na literatura, mas também, permite investigar a predição por meio da manipulação de combinações de objetivos, tanto no aspecto energético quanto no estrutural. Além disso, o 3PG facilita a implementação de novas opções, métodos de análises e também novos algoritmos evolutivos. A fim de salientar a capacidade do 3PG, foi então discorrida uma comparação entre os algoritmos NSGA-II e SPEA2 aplicados na predição Ab initio da estrutura terciária de proteínas em seis combinações de objetivos. Ademais, o uso da técnica de refinamento por Dinâmica Molecular é avaliado. Os resultados foram adequados quando comparado com outras técnicas de predições: Algoritmos Evolutivo Multi-Objetivo, Replica Exchange Molecular Dynamics, PEP-FOLD e Folding@Home. / The demand created by biological studies resulted the structure prediction as an alternative, since less than 1% of the known protein primary sequences have their 3D structure experimentally determined. Ab initio predictions focus on physics-based functions, which regard only information about the primary sequence. As a consequence, a search space with several local optima must be sampled, leading to insucient sampling of this space, which is the main hindrance towards better predictions. Multi-Objective Optimization approaches, particularly the Evolutionary Algorithms, have been applied in protein structure prediction as it involves a compromise among conicting objectives. In this paper we present the ProtPred-PEO-GROMACS framework, or 3PG, which can not only make protein structure predictions with the same accuracy standards as those found in the literature, but also allows the study of protein structures by handling several energetic and structural objective combinations. Moreover, the 3PG framework facilitates the fast implementation of new objective options, method analysis and even new evolutionary algorithms. In this study, we perform a comparison between the NSGA-II and SPEA2 algorithms applied on six dierent combinations of objectives to the protein structure. Besides, the use of Molecular Dynamics simulations as a renement technique is assessed. The results were suitable when comparated with other prediction methodologies, such as: Multi-Objective Evolutionary Algorithms, Replica Exchange Molecular Dynamics, PEP-FOLD and Folding@Home.

Page generated in 0.0448 seconds