Spelling suggestions: "subject:"componentes."" "subject:"komponentes.""
131 |
Migrantes haitianos no Brasil (2010-2017): tensões e fronteiras / Haitians migrants in Brasil (2010-2017): tensions and bordersCividini, Fátima Regina 13 March 2018 (has links)
Submitted by Wagner Junior (wagner.junior@unioeste.br) on 2018-07-13T19:56:59Z
No. of bitstreams: 2
Fatima_Regina_Cividini_2018.pdf: 3646056 bytes, checksum: d1f11de691ff2d3dfb76d40b408d466c (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-07-13T19:56:59Z (GMT). No. of bitstreams: 2
Fatima_Regina_Cividini_2018.pdf: 3646056 bytes, checksum: d1f11de691ff2d3dfb76d40b408d466c (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Previous issue date: 2018-03-13 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Since 1500, Brazil has been formed by several migratory waves. In 2010, an earthquake in Haiti's capital city, Port-au-Prince, shook deeply both physical and governmental structures, placing most of its nationals at the poverty line. The difficulty of coming across employment and the proximity to Brazilians who were in Haiti through the UN Peacekeeping Troops (MINUSTAH) provided them with a vision of a prosperous, welcoming Brazil with employment opportunities. The arrival of Haitians to Brazil was widely publicized and reported by the media, narrating fragments of the identity from the Haitian immigrant, constructing and transforming concepts with regards to Haiti and the Haitians in the conscience of the Brazilian inhabitants. Such project aims to bring narratives with regards to Haitians, through electronic journals and interviews with Foz do Iguaçu organs which act directly onto Haitian immigration. In the introduction, the theoretical-methodological aspects of the research are presented. In its first chapter, a mapping regarding the news published in periodicals categorized by themes which emerged according to the study is carried out. In its second chapter, narratives are shown through interviews with Sister Terezinha Mezzalira from Casa do Migrante and Anderson Vargas de Lima from NUMIG - Federal Police, dealing with the process of entry and insertion of the Haitian in the region of Foz do Iguaçu-PR. In its third chapter, a discussion regarding the image of the Haitian which is passed through the narratives and what interferences such displacement brings to the Haitian is thus brought. / Desde 1500 o Brasil é formado por diversas ondas migratórias. Em 2010, um terremoto na capital do Haiti, Porto Príncipe, abalou profundamente as estruturas físicas e governamentais, fazendo com que a maioria de seus nacionais estivesse na linha da pobreza. A dificuldade de encontrar emprego e a proximidade com os brasileiros que estavam no Haiti através das Tropas de Paz da ONU (MINUSTAH) trouxeram uma visão de um Brasil próspero, acolhedor e com oportunidades de emprego. A vinda dos haitianos para o Brasil foi amplamente divulgada e noticiada pela mídia, narrando fragmentos da identidade do haitiano imigrante, construindo e transformando conceitos a respeito do Haiti e dos haitianos na consciência do brasileiro. Este trabalho tem como objetivo trazer narrativas a respeito dos haitianos através de periódicos eletrônicos e entrevistas com órgãos de Foz do Iguaçu que atuam diretamente sobre a imigração haitiana. Na introdução, são apresentados os aspectos teórico-metodológicos da pesquisa. No primeiro capítulo, é realizado um mapeamento das notícias publicadas em periódicos categorizadas por temas que surgiram conforme o estudo. No segundo capítulo, narrativas são mostradas através de entrevistas com a Irmã Terezinha Mezzalira da Casa do Migrante e de Anderson Vargas de Lima da NUMIG – Polícia Federal, tratando a respeito do processo de entrada e inserção do haitiano na região de Foz do Iguaçu-PR. No terceiro capítulo, discussões sobre a imagem do haitiano passada pelas narrativas e quais as interferências que este deslocamento traz ao haitiano são trazidas.
|
132 |
Classificação semi-automática de componentes Java / Semi-automatic classification of Java componentsClaudia de Oliveira Melo 29 September 2006 (has links)
As recentes tecnologias de desenvolvimento e distribuição de componentes possibilitaram o aumento do número de componentes disponíveis no mercado. No entanto, eles muitas vezes estão dispersos e não publicados adequadamente para a comunidade de pesquisa e desenvolvimento de software. Encontrar componentes apropriados para solucionar um problema particular não é uma tarefa simples e novas técnicas devem ser desenvolvidas para o reuso efetivo de componentes. Um dos maiores desafios em reusar componentes consiste em classificá-los corretamente para futuras consultas. Classificar componentes para possibilitar uma busca eficaz depende da qualidade das informações adquiridas, que viabilizam melhor precisão e cobertura das consultas ao encontrar componentes reutilizáveis em potencial. Ao mesmo tempo, mecanismos de classificação e busca devem ser fáceis o suficiente para convencer os desenvolvedores a reusar componentes. Este trabalho estuda as técnicas de classificação de componentes de software, repositórios e métodos de busca. é apresentada uma proposta de modelo de classificação de componentes que considera não apenas sua função, mas o negócio onde ele está inserido e seus atributos de qualidade. Um método de preenchimento semi-automático das informações é proposto, de modo a diminuir os custos de classificação. O protótipo REUSE+ foi construído para exemplificar o uso do modelo e do método de classificação semi-automática, de forma a validar a proposta, destacando, por fim, as principais contribuições do trabalho. / The recent developments on components technologies have increased the number of components available to the market. These components are, however, distributed overall the world and not properly advertised to the research and development communities. Finding the appropriate components to solve a particular problem is not very straightforward and new techniques must be developed to effectively reuse components. One of the great challenges in reusing components is concerned with how to actually classify components \"properly\" in order to further retrieve them. Classifying components for effective retrieval depends on acquiring the appropriate information in classification to improve the precision and recall rates in retrieval; finding only the potentially reusable components and not missing potential solutions. At the same time, the classification and retrieval mechanisms must be easy enough to persuade developers to reuse components. This work studies the classification techniques of software components, repository and retrieval methods. Hereafter is presented a proposal of components classification model that considers not just its function, but business and quality attributes. It is proposed a semi-automatic classification mechanism of software information, allowing a cheaper classification. REUSE+ prototype was built to exemplify the use of model and method of semi-automatic classification, allowing the described proposal validation, highlighting at the end the mainly contributions of the work.
|
133 |
Aplicação das tecnicas de redes neurais e de analise de componentes principais na modelagem de uma lagoa aerada da RIPASA S/AOliveira, Karla Patricia Santos 12 August 2018 (has links)
Orientadores: Milton Mori, Roy Edward Bruns / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Quimica / Made available in DSpace on 2018-08-12T02:03:56Z (GMT). No. of bitstreams: 1
Oliveira_KarlaPatriciaSantos_M.pdf: 2043020 bytes, checksum: d2a11b877ef2ef646132cc413b195dd7 (MD5)
Previous issue date: 2000 / Resumo: O uso industrial dos corpos hídricos, rios e lagos, tem sido motivo de grande preocupação nacional e mundial visto às condições de captação de água e de destinação da grande quantidade de resíduo gerada diariamente. A atividade industrial da RIPASA S/A não foge a esta regra, assim vê-se a necessidade de um trabalho constante de controle e otimização do seu sistema de tratamento de efluente. Este trabalho teve como objetivo geral fornecer subsídios à RIP ASA SI A de prever a demanda bioquímica de oxigênio (DBO5) em situações futuras de despejo de sua lagoa aerada ll. Utilizou-se assim as técnicas de Redes Neurais Artificiais (RNAs) e de Análise de Componentes Principais (PCA) para modelagem do sistema e pré-processamento dos dados, respectivamente. Tomou-se um período de dois anos para a formação do banco de dados, sendo analisados inicialmente os seguintes parâmetros: DBO5, demanda química de oxigênio (DQO), vazão, produção de papel e celulose, pH e sólidos suspensos. Os pacotes computacionais NeuroSolutions e Statistica foram utilizados. Como o tempo de residência do sistema de lagoas aeradas da RIPASA S/A não era conhecido, trabalhou-se com as possibilidades de três a sete dias, tendo o de seis dias apresentado melhores resultados. A vasta quantidade de lacunas no banco de dados impossibilitou o uso dos parâmetros pH e sólidos suspensos reduzindo-se o número de dados disponíveis para a formação do modelo. Os resultados da modelagem via RNA foram comparados com o obtido através de um dos métodos clássicos de modelagem, PCR (Principal Component Regression), e verificou-se que nenhuma das técnicas foi capaz de predizer bem o comportamento do sistema em estudo quando utilizadas separadamente. Entretanto, uma boa performance da RNA foi obtida quando realizado um pré-processamento dos dados de entrada antes de serem alimentados à rede. Desta forma a ortogonalização de variáveis via PCA é apresentada como uma importante ferramenta de auxílio na definição da topologia das RNAs e no seu mapeamento não linear / Abstract: In recent years, computer-based methods have been applied to many areas of environmental chemistry. In the process industry the use of modern control strategies is required due to increasing demands on the quality of its effluent treatment systems. In this work a wastewater treatment system of a pulp and paper industry has been studied using Artificial Neural Networks (ANN) and the Principal Components Analysis to predict output environment parameters (BOD). Control process data sets generated from input and output of the current treatment system (an aerated lake) are used in this research. Variation within sampling of some auxiliary and process parameters including chemical oxygen demand (COD), biochemical oxygen demand (BOD), flow, pulp and paper production, pH and suspended solids are evaluated over a two-year period. Predictive models are presented calculated from ANN and Principal Component Regressions (PCR) for the estimation of biochemical oxygen demand, one of the main process control variables. The results show that neither principal component regression nor artificial neural network treatment is satisfactory when used separately in modeling and simulation. Neural network presents superior results for the training set but poorer ones than those from PCR for the test set. One explanation is that there are too few data resulting in an overfit of the training set. Best prediction performance is achieved when the data are preprocessed using PCA, before they are fed to a backpropagated neural network composed of three neurons in a hidden layer and the Delta-Bar-Delta (DBD) learning algorithm. The PCA technique orthogonalizes the input original variables and helps the ANN nonlinear mapping / Mestrado / Desenvolvimento de Processos Químicos / Mestre em Engenharia Química
|
134 |
Ressonancia magnetica nuclear de 1H e de 13C de compostos alifaticos : estudos dos efeitos dos substituintes [alfa] atraves da analise de componentes principais (PCA)Tasic, Ljubica, 1970- 01 August 2018 (has links)
Orientador : Roberto Rittner / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Quimica / Made available in DSpace on 2018-08-01T19:46:08Z (GMT). No. of bitstreams: 1
Tasic_Ljubica_D.pdf: 2855637 bytes, checksum: 21ca2861cfdf26fa08dd422d710fc9e4 (MD5)
Previous issue date: 2002 / Doutorado
|
135 |
Uso de componentes de software no desenvolvimento de frameworks orientados a objetosCoelho, Frederico de Miranda 18 December 2002 (has links)
Orientador : Cecilia Mary Fischer Rubira / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-03T07:44:20Z (GMT). No. of bitstreams: 1
Coelho_FredericodeMiranda_M.pdf: 5156626 bytes, checksum: 42d9a42b946227cc342288eaaec3bafa (MD5)
Previous issue date: 2002 / Resumo: qualidade de sistemas de software exigida pelo mercado. Inúmeras tecnologias têm sido propostas, sendo os Frameworks Orientados a Objetos (OO) uma das tecnologias mais modernas para se obter tal qualidade. Entretanto os Frameworks Orientados a Objetos possuem alguns problemas, como de desenvolvimento, composição, uso e manutenção. Para isso, pesquisadores têm unido outras tecnologias a essa, como desenvolvimento baseado em componentes e linguagens de padrões, com o intuito de solucionar os problemas apresentados. Porém não se sabe o quanto efetivamente essas tecnologias auxiliam nos problemas dos Frameworks Orientados a Objetos em comparação a um desenvolvido apenas com o paradigma orientado a objetos puro. Este trabalho apresenta métodos de estudo, desenvolvimento e análise arquitetural e suas aplicações em uma arquitetura de framework OO baseada em classes e outras duas constituídas por componentes, sendo todas estas arquiteturas obtidas de um mesmo domínio de aplicação. A finalidade da utilização destes métodos é analisar a aplicabilidade do paradigma de desenvolvimento baseado em componentes na construção de Frameworks Orientados a Objetos, em nível arquitetural, em um domínio de aplicação específico, verificando seu impacto no grau de complexidade da arquitetura do Framework Orientado a Objetos e, conseqüentemente, na facilidade de sua utilização. O resultado deste experimento é a diminuição da complexidade da arquitetura do framework OO em questão, quando aplicado as técnicas de desenvolvimento baseado em componentes, acarretando, por exemplo, em uma manutenibilidade, reusabilidade, usabilidade e documentação mais fáceis / Abstract: Software engineering researchers are always investigating for new forms to achieve software quality. Several technologies have been proposed, one of them, the technology for building Object Oriented (OO) Frameworks is a new technology to achieve software quality. However, the OO Frameworks have some limitations, such as complexity in their development, composition, use, and maintenance. To achieve software quality, researchers have join other technologies, like Component Based development and Pattern Languages to minimize these problems. However, the effectiveness of these technology compared with pure object oriented development isn't known. The main goal of this research is to analyze, at architectural level, the Component Based Paradigm applicability to built OO Frameworks in a specific application domain. The application of the component-based development resulted in a reduction of the OO framework architecture complexity and consequent1y promoted better maintainability, reusability, user-friendly and documentation / Mestrado / Mestre em Ciência da Computação
|
136 |
Avaliação geoquímica da variabilidade das concentrações dos elementos Traço ao longo de perfis pedológicos na Bacia do Rio Tatuoca, Ipojuca PESANTOS, Ivaneide de Oliveira 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T18:02:18Z (GMT). No. of bitstreams: 2
arquivo2486_1.pdf: 2738344 bytes, checksum: c630cb58952dfd04bee951ccb1b9c2b6 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2011 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / A bacia hidrográfica do rio Tatuoca faz parte do grupo de pequenos rios litorâneos do Estado
de Pernambuco e na sua área de drenagem encontra-se o Complexo Industrial Portuário de
Suape - CIPS. O estudo das concentrações de elementos-traço em solos é um importante
instrumento na gestão ambiental do meio físico de bacias hidrográficas, uma vez que pode
contribuir para diferenciar as concentrações de base geogênica e as contribuições antrópicas
em sua área de drenagem. Dentro desse contexto, o estudo teve como objetivo caracterizar a
variação geoquímica de elementos-traço em dois perfis pedológicos, de modo a visualizar
possíveis contribuições de origem antrópicas, bem como subsidiar estudos de geoquímica de
sedimentos ativos de corrente na bacia do rio Tatuoca.
Dois perfis pedológicos foram coletados através de sondagem rotativa, denominados CTP2 e
CTP4, com 17 e 6 metros de profundidade respectivamente. Ambos foram seccionados a cada
50 centímetros compondo um total de 45 amostras, que foram inicialmente preparadas no
Laboratório de Preparação de Amostras do Departamento de Geologia da Universidade
Federal de Pernambuco e posteriormente enviadas para análises químicas no Laboratório
Geosol (MG). Tais análises foram efetuadas por Espectrometria de Emissão Atômica (ICPAES)
para 29 elementos. Os resultados foram tratados estatisticamente através de análise
multivariada (Análise de Componentes Principais) e por Fator de Enriquecimento. A base de
dados foi gerada a partir das concentrações dos 16 elementos-traço resultantes das análises
das 45 amostras coletadas.
A interpretação dos resultados estatísticos permitiu identificar anomalias geoquímicas nos
dois perfis de solo estudados. O fator de enriquecimento para chumbo foi de 3,3 na seção
mais superficial do solo, não sendo explicado por um natural enriquecimento pedogenético
sendo, portanto, de origem antropogênica
|
137 |
Utilização de Redes Neurais Artificiais e Análise de Componentes Principais no Monitoramento da Qualidade da ÁguaPimentel Marques, Luciana 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T18:06:12Z (GMT). No. of bitstreams: 2
arquivo7163_1.pdf: 2363182 bytes, checksum: e6884bcbe3ed945c11ac77e0587a427a (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2011 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Os recursos hídricos vem sendo ameaçados por diversas atividades antrópicas, o que tem levado a comunidade científica a se preocupar em elaborar e discutir metodologias de se avaliar a qualidade dessas águas, quer sejam de forma físico-química ou biológica. Uma das principais ameaças ao meio ambiente é o processo de eutrofização, que é o aumento da concentração de nutrientes, como por exemplo, nitrogênio e fósforo, nos ecossistemas aquáticos. Os avanços tecnológicos computacionais permitiram que a modelagem matemática passasse a desempenhar um importante papel nos estudos de tratamento de dados de Química Ambiental, em especial de Qualidade da Água. Este fato se deve a capacidade da modelagem encarar os processos hidrológicos, físicos, químicos e biológicos de forma simplificada e prática, ainda que sejam complexos. A modelagem empírica utiliza unicamente dados experimentais, surgindo como alternativa a essa complexidade e as técnicas de sistemas inteligentes (as Redes Neurais Artificiais- RNAs) e de análise multivariada (Análise de Componentes Principais-ACP), apresentaram-se atraentes para esta finalilidade. Visando a otimização, diminuindo os custos do processo e o tempo de resposta do monitoramento, neste trabalho foram desenvolvidas estratégias e ferramentas computacionais para a utilização de redes neurais e estatística multivariada na modelagem da qualidade da água utilizando a clorofila-a como parâmetro de avaliação para os dados do Reservatório da Marcela, em Sergipe, e reservatórios de seis bacias de Pernambuco, disponíveis no Laboratório de Engenharia Ambiental e da Qualidade (LEAQ) da Universidade Federal de Pernambuco (UFPE). Foram utilizadas na modelagem redes neurais do tipo Perceptron Multicamadas (MLP) e Funções de Base Radial (RBF), com e sem a ACP, que através da transformação das variáveis de entrada em variáveis linearmente independentes, melhoraria a eficiência das RNAs, e realizados 3 testes. O resultado do primeiro teste, com os dados do reservatório Marcela-SE, foi melhor em relação aos demais, pois possui mais parâmetros ambientais que influenciam a inferência da clorofila-a, já no terceiro teste o resultado para a utilização das redes não foram tão satisfatórios, uma vez que no agrupamento dos parâmetros em comum, parâmetros importantes a inferência foram desprezados. No primeiro teste a rede RBF com ACP, foi a melhor para representar a inferência da clorofila-a, porém no segundo teste, com os dados de reservatórios em Bacias de Pernambuco, foi a rede MLP com ACP quem melhor determinou. Este resultado mostra a independência de relação entre o fenômeno a ser tratado, pois as redes neurais são conhecidas como modelo caixa preta, assim como a independência do conjuntos de dados e o tipo de rede. Já no terceiro teste, com os dados dos outros testes juntos, apesar dos resultados não serem satisfatórios para os dados dos reservatórios, a utilização das redes neurais não pode ser comprometida, uma vez que os dados obtidos para este teste não apresentaram homogeneidade, este fato pôde ser observado através da técnica de ACP, onde verificou-se 2 grupos distintos de dados. A ferramenta computacional construída mostrou ser eficiente na aplicação das redes neurais e análise de componentes principais, assim como as interfaces construídas se mostraram realmente amigáveis
|
138 |
Análise da qualidade ambiental no estuário do rio Botafogo: determinação do índice trófico e componentes do fósforo na coluna da águaKeyla Travassos, Rysoaurya 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T22:59:33Z (GMT). No. of bitstreams: 2
arquivo2658_1.pdf: 2897357 bytes, checksum: f86a1082c9fde4df0b9c02e2eae64484 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2011 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A caracterização hidrológica do estuário do rio Botafogo em Itamaracá PE foi realizada em um ciclo anual, com o principal objetivo de avaliar as condições atuais da qualidade da água do estuário em relação aos parâmetros físicos e químicos, determinando o índice trófico, relacionando os parâmetros fisicoquímicos com a biomassa fitoplanctônica e enfocando os compartimentos do fósforo na coluna de água. Os valores de salinidade apresentaram uma sazonalidade com maiores valores no período seco, apresentando um pequeno índice de variação térmica. Os valores de oxigênio dissolvido foram elevados, registrando áreas de semi-poluída a supersaturação de OD com taxa de saturação de até 137% . Associados a estes valores, o pH manteve-se alcalino durante todo o período estudado. As concentrações da demanda bioquímica do oxigênio embora estivessem abaixo do limite permitido, é um ambiente que recebe um aporte de matéria orgânica e muita influência antrópica. Os teores de nitrito N e nitratoN foram mais elevados no período chuvoso, enquanto que os valores de fósforo P e silicatoSi, foram mais elevados no período de estiagem. As concentrações máximas registradas para amônia-N e nitrito-N foram de 2,89 μmol.L-1 e 0,67 μmol.L-1 respectivamente (E1), enquanto que os valores de nitrato variaram entre 0,01 μmol.L-1 (E3) e 34,93 μmol.L-1 (E1). As variações de fosfato-P apresentaram um ciclo sazonal definido, havendo um aumento no período de estiagem, onde o máximo registrado foi de 1,74 μmol.L-1 (E3). A relação N:P, foi mais elevada no período chuvoso, porém na maior parte do estudo se manteve inferior a 16:1, indicando que nesta área o elemento nitrogênio é o nutriente limitante para o desenvolvimento do fitoplâncton. As concentrações de Clorofila a, foram menores no período seco. O Índice trófico foi mais elevado no período chuvoso, caracterizando águas altamente produtivas, logo, índice de qualidade da água pobre. As diversas formas do fósforo foram sempre mais elevados no período seco, sendo esse fato devido as atividades agrícolas na área. Durante o estudo foi observado que o principal fator que influenciou a composição dos parâmetros físicos , químicos e biológicos estudados, foi o ciclo de marés, provocando um hidrodinamismo, acentuado e constante, alterando sensivelmente as condições ambientais. A variação sazonal e os despejos industriais e urbanos também influenciaram o estado crítico do estuário do rio Botafogo
|
139 |
Predição genômica via redução de dimensionalidade em modelos aditivo dominante / Genomic prediction by reduction of dimensionality in additive dominant modelsCosta, Jaquicele Aparecida da 26 February 2018 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2018-06-12T11:46:53Z
No. of bitstreams: 1
texto completo.pdf: 1019565 bytes, checksum: 12e002c506bdd711cb143f12e04ea169 (MD5) / Made available in DSpace on 2018-06-12T11:46:53Z (GMT). No. of bitstreams: 1
texto completo.pdf: 1019565 bytes, checksum: 12e002c506bdd711cb143f12e04ea169 (MD5)
Previous issue date: 2018-02-26 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Grandes avanços no melhoramento animal e vegetal têm sido propiciados utilizando- se informações da genética molecular. Nessa perspectiva, idealizaram a Seleção Genômica Ampla (Genome Wide Selection – GWS) cuja abordagem envolve a cobertura completa do genoma utilizando milhares de marcadores SNPs (Single Nucleotide Polymorphisms). O objetivo é estimar o mérito genético dos indivíduos e para tal, as pesquisas realizadas na GWS se baseiam na busca e na aplicação de metodologias estatísticas que visam resolver os problemas enfrentados no processo de estimação, como a alta dimensionalidade e a alta colinearidade entre os marcadores. Dentre elas, se destacam os métodos de redução de dimensionalidade: Regressão via Componentes Principais (PCR), Quadrados Mínimos Parciais (PLS) e Regressão via Componentes Independentes (ICR) e o tradicional método de regularização/shrinkage, G-BLUP (Genomic Best Linear Unbiased Predictor). Assim, o primeiro capítulo contempla as ideias centrais e a importância da GWS para o melhoramento genético, a definição de efeitos aditivos e de efeitos devido à dominância, os problemas estatísticos enfrentados na estimação dos efeitos de marcadores nos fenótipos pelo método usual baseado em quadrados mínimos ordinários, bem como as metodologias estatísticas baseadas em redução dimensional para resolver tais problemas e os procedimentos de validação que tem por finalidade comparar as metodologias estatísticas da GWS. Já o segundo capítulo refere-se a proposição e aplicação de sete critérios para a escolha do número ótimo de componentes independentes a serem utilizados na ICR, considerando apenas os efeitos aditivos. Os critérios consistem em determinar que o número de componentes independentes seja igual ao número de componentes que conduz: (i) os valores genômicos estimados via PCR a um maior valor de acurácia; (ii) os valores genômicos estimados via PCR a um menor valor de viés; (iii) a PCR a 80% de explicação da variação total de X; (iv) a PCR a 80% de explicação da variação total de Y; (v) a ICR a 80% de explicação da variação total de X; além dos critérios que consistem no número de componentes independentes igual ao número de variáveis determinadas pelos procedimentos (vi) Forward Selection e (vii) Backward Selection. O conjunto de dados simulados era composto por 2.000 marcadores SNPs e as populações simuladas totalizaram 1.000 indivíduos de 20 famílias de irmãos completos que tiveram os fenótipos e os genótipos avaliados. Além disso, os cenários simulados são baseados em dois níveis de herdabilidade e duas arquiteturas genéticas com ausência de dominância, constituindo assim, em quatro cenários, os quais foram simulados dez vezes cada. Com o intuito de demonstrar a aplicabilidade do estudo no melhoramento genético, foram avaliadas seis características de produtividade de um conjunto de dados reais de arroz asiático Oryza sativa (Número de panículas por planta, altura da planta, comprimento da panícula, número de panículas no perfilho primário, número de sementes por panícula e espiguetas por panícula) correspondente a 370 acessos de arroz, os quais foram genotipados para 44.100 marcadores SNPs. Em ambos os casos (dados simulados e reais) foi utilizada a validação independente e calculada as medidas de eficiência para comparar os critérios. De modo geral, as análises indicaram que o primeiro critério (número de componentes independentes igual ao número de componentes principais cujos os valores genômicos estimados via PCR apresentava maior valor de acurácia) se mostrou mais eficiente para os dois conjuntos de dados e apresentou as medidas de eficiência mais próximas do método exaustivo, com a vantagem de exigir menos tempo e esforço computacional. Para complementar o estudo, o terceiro capítulo consiste na aplicação dos três critérios mais eficientes do capítulo 2, os quais consistem no número de componentes independentes igual ao número de componentes que conduz os valores genômicos estimados via PCR a um maior valor de acurácia; a um menor valor de viés e a PCR a 80% de explicação da variação total de X considerando o modelo aditivo-dominante. Ainda no contexto deste modelo, foi aplicado os três métodos de redução de dimensionalidade (PCR, PLS e ICR) levando em consideração a escolha do número ótimo de componentes que conduz os valores genômicos aditivos, valores genômicos devido à dominância ou os valores genômicos totais (aditivo + dominância) a uma maior acurácia. Todos os métodos de redução de dimensionalidade foram comparados com o G-BLUP em termos de eficiência na estimação dos valores genômicos. As populações simuladas foram constituídas por 1.000 indivíduos de 20 famílias de irmãos completos, sendo genotipados para 2000 marcadores SNPs e as análises correspondentes a quatro cenários (dois níveis de herdabilidade × duas arquiteturas genéticas) sendo assumido dominância completa. Os resultados do capítulo 3 assinalaram que se manteve a superioridade do critério 1 nos modelos aditivo-dominante. Além disso, para a estimação dos efeitos aditivos e devido a dominância concomitantemente por meio dos métodos de redução de dimensionalidade, é recomendável utilizar o número de componentes que conduz o valor genômico devido à dominância a uma maior acurácia. Ademais, ao confrontar as metodologias de redução dimensional (ICR, PCR e PLS) com o G-BLUP, verifica- se que a PCR é superior em termos de acurácia e o método vantajosamente apresenta um dos menores tempos computacionais na execução das análises. Ademais, nenhum dos métodos considerados capturaram adequadamente as herdabilidades simuladas e apresentaram viés. / Great advances in animal and plant breeding have been provided using molecular genetic information. In this perspective, they proposed Genome Wide Selection (GWS), whose approach involves complete coverage of the genome using thousands of single nucleotide polymorphisms (SNPs). The objective is to estimate the genetic merit of the individuals and to that end, the researches carried out in GWS are based on the search and application of methodologies that aim to solve the problems faced in the estimation process, such as high dimensionality and high colinearity between the markers. Among them, we highlight the dimensionality reduction methods: Principal Component Regression (PCR), Partial Least Squares (PLS) and Independent Regression Component (ICR) and the traditional method of regularization / shrinkage, G-BLUP (Genomic Best Linear Unbiased Predictor). Thus, the first chapter considers the central ideas and importance of GWS for genetic improvement, definition of additive effects and effects due to dominance, the statistical problems faced in estimating the effects of markers on phenotypes by the usual method based on ordinary least squares, as well as the alternative statistical methodologies to solve such problems and validation procedures that aim to compare GWS methodologies. The second chapter refers to the proposition and application of seven criteria for choose the optimal number of independent components to be used in the ICR, considering only the additive effects. The criteria that consist of the number of independent components equal to the number of components that leads: (i) the estimated genomic values by PCR to a higher accuracy; (ii) estimated genomic values by PCR at a lower bias value; (iii) the PCR at 80% of the explanation of the total variation of X; (iv) PCR at 80% of the total variation of Y; (v) the ICR at 80% of explanation of the total variation of X; in addition to the criteria that consist of the number of independent components equal to the number of variables determined by the procedures (vi) Forward Selection and (vii) Backward Selection. The simulated data set consisted of 2.000 SNPs and the simulated populations totaled 1.000 individuals from 20 families of complete siblings that had the phenotypes and genotypes evaluated. In addition, the simulated scenarios are based on two levels of heritability and two genetic architectures, constituting in four scenarios, which were simulated ten times each assuming absence of dominance. In order to demonstrate the applicability of the study to genetic improvement, were evaluated six characteristics of productivity of a real data set Asian rice Oryza sativa (Number of panicles per plant, plant height, panicle length, number of panicles in the tiller primary, number of seeds per panicle and spikelets per panicle) corresponding to 370 accessions of rice, which were genotyped for 44.100 markers SNPs. In both cases (simulated and real data) the independent validation was used and the efficiency measures were calculated to compare the criteria. In general, the analyzes indicated that the first criterion (number of independent components equal to the number of principal components whose genomic values estimated by PCR showed highest accuracy) proved to be more efficient for both sets of data and presented the measures of efficiencies closer to the exhaustive method, with the advantage of requiring less computational time and effort. To complement the study, the third chapter consists of the application of the three most efficient criteria of chapter 2, which consist of the number of independent components equal to the number of components that leads the estimated genomic values via PCR to a highest accuracy value; to a lower value of bias and the PCR to 80% of explanation of the total variation of X considering the additive-dominant model. In the context of this model, the three dimensionality reduction methods (PCR, PLS and ICR) were applied taking into account the choice of the optimal number of components that leads to the additive genomic values, genomic values due to dominance or total genomic values (additive + dominance) to greater accuracy. All dimensionality reduction methods were compared with G-BLUP in terms of efficiency in the estimation of genomic values. Simulated populations were composed of 1.000 individuals from 20 families of complete siblings, with genotyped 2000 SNPs markers and analyzes corresponding to four scenarios (two levels of heritability × two genetic architectures). The simulations assumed complete dominance. The results of chapter 3 pointed out that the superiority of criterion 1 was maintained in the additive-dominant models. In addition, for the estimation of the additive effects and due to the dominance concomitantly by means of dimensionality reduction methods, it is recommended to use the number of components that drives the genomic value due to the dominance to a greater accuracy. In addition, when comparing the methodologies of dimensional reduction (ICR, PCR and PLS) with G-BLUP, it is verified that the PCR is superior in terms of accuracy and the method advantageously presents one of the smallest computational times in the execution of the analyzes. In addition, none of the methods considered adequately captured the simulated heritabilities and showed bias.
|
140 |
Análisis de Comportamiento Armónico en Plantas HúmedasAparicio Arias, Daniel Alonso January 2010 (has links)
El objetivo principal del presente trabajo de título, es realizar un estudio del comportamiento armónico en el Área Húmeda de minas de cobre, que utilizan el método de lixiviación. Esto, con el fin de analizar la posibilidad de encontrar una nueva alternativa, para la compensación de componentes armónicos eléctricos.
En la actualidad, la solución técnica corresponde a compensar en las salas eléctricas, existiendo una fuerte contaminación entre las salas y las respectivas cargas (que generalmente se encuentran bastante separadas). Dentro de los equipos contaminantes, se tienen sistemas transformadores-rectificadores, para el proceso de electro-obtención, que operan en media tensión y sistemas variadores de velocidad, para el control de bombeo de flujo variable, que operan en baja tensión.
Luego de definir la estructura del Área Húmeda a considerar, especificando los equipos incluidos y sus respectivos ciclos de trabajo, se procedió a describir la forma en que los dispositivos de electrónica de potencia son dispuestos y organizados en la planta. Posteriormente y en forma complementaria, se hicieron simulaciones en el programa ETAP, con el propósito de determinar la contaminación armónica del proceso, bajo condiciones normales de operación y para corroborar el cumplimiento de los requerimientos de la normativa, en el punto de acople común con el sistema de alimentación eléctrica (PCC).
Finalmente, se analizaron distintas posibilidades de filtrado armónico, según el comportamiento de las respectivas cargas.
Dentro del análisis efectuado, se pudo apreciar que el comportamiento de los sistemas de rectificación es prácticamente constante, de manera que la metodología actual (filtrado pasivo), es la solución técnico-económica más conveniente. Para el caso de baja tensión, el comportamiento de las cargas es variable, de manera que desde el punto de vista técnico, la implementación de filtros activos podría ser conveniente (no así desde el punto de vista económico). Por otra parte, una solución técnico-económica conveniente para el caso de baja tensión, consiste en la implementación de filtros comunes (ya sean activos o pasivos), junto con la disposición de los variadores de frecuencia fuera de las salas eléctricas (minimizando la distancia entre los variadores y sus respectivas cargas).
Como trabajo a futuro, se propone la elaboración de un algoritmo que permita minimizar el costo de instalación de la planta, el cual tome como variables de decisión, algunas de las siguientes opciones: el tipo de filtrado en baja tensión (pasivo, activo o híbrido), la definición de los grupos de variadores para el filtrado en conjunto y la posición de los gabinetes con variadores (fuera de la sala eléctrica), que minimice las distancias a los motores. Además, se propone desarrollar un estudio, que permita determinar la factibilidad de implementar variadores de frecuencia, para operación dentro de áreas clasificadas.
|
Page generated in 0.0738 seconds