• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 356
  • 24
  • 6
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 1
  • Tagged with
  • 401
  • 263
  • 64
  • 54
  • 50
  • 44
  • 39
  • 39
  • 37
  • 36
  • 35
  • 29
  • 28
  • 28
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
341

Modelagem de distribuição geográfica para Hydromedusa maximiliani (Mikan, 1820) (Testudines, Chelidae), Brasil

Lima, Lúcio Moreira Campos 27 February 2014 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2016-05-17T13:48:31Z No. of bitstreams: 1 luciomoreiracamposlima.pdf: 5522684 bytes, checksum: e616be5eb2a37187aa4afef3c218cc35 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2016-06-28T14:19:25Z (GMT) No. of bitstreams: 1 luciomoreiracamposlima.pdf: 5522684 bytes, checksum: e616be5eb2a37187aa4afef3c218cc35 (MD5) / Made available in DSpace on 2016-06-28T14:19:25Z (GMT). No. of bitstreams: 1 luciomoreiracamposlima.pdf: 5522684 bytes, checksum: e616be5eb2a37187aa4afef3c218cc35 (MD5) Previous issue date: 2014-02-27 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O cágado-pescoço-de-cobra, Hydromedusa maximiliani, é uma espécie endêmica da Mata Atlântica e ameaçada de extinção na categoria Vulnerável pela IUCN, cujas populações estão associadas principalmente com riachos de interior de mata, mas a distribuição geográfica relacionada com esses ambientes hidrologicamente dinâmicos ainda é pouco entendida. Modelagem de Distribuição de Espécies tem sido uma ferramenta amplamente usada nos últimos anos. O algoritmo da Máxima Entropia, Maxent, permite prever a distribuição geográfica potencial de espécies a partir de dados de presença. Este estudo teve por objetivos construir modelos ecológicos para prever a distribuição potencial de H. maximiliani que poderão fornecer subsídios para elaboração de novas estratégias de conservação e, dessa forma contribuir com o avanço no conhecimento sobre o padrão de sua distribuição em regiões com domínio da Mata Atlântica. Os Dados de ocorrência foram obtidos, entre setembro de 2012 e setembro de 2013, através de visitas às coleções zoológicas, levantamentos bibliográficos e coleta de coordenadas geográficas no campo. Para a construção do modelo foi usado o algoritmo Maxent, auxiliado pelo ArcGis versão 10 e pelo modelo digital de elevação do “Shuttle Radar Topographic Mission”. As variáveis ambientais foram obtidas pelo Worldclim version 1.1 Global Cimate Surface 10. O modelo foi avalizado pelo valor de AUC (Area Under the ROC Curve) e pelo teste estatístico Jackknife. Foram compilados 42 pontos para a distribuição da H. maximiliani. A distribuição potencial se estendeu desde o sul da Bahia até o estado de São Paulo. O modelo gerado mostrou uma alta capacidade preditiva, com valor AUC superior a 0,97, e apresentou uma transferabilidade satisfatória (i.e. capacidade para prever distribuições em regiões não amostradas). O alto valor AUC evidencia um bom modelo de distribuição geográfica potencial de espécies. No entanto, em modelos de larga escala, esse valor pode-se apresentar proporcional ao tamanho da escala, o que levaria a uma interpretação equivocada do modelo. Contudo, as áreas previstas para a distribuição da H. maximiliani no presente estudo mostraram-se realistas e condizentes com a distribuição real da espécie. / The Maximilian’s snake-necked-turtle, Hydromedusa maximiliani, is specie endemic to the Atlantic Forest and endangered in category Vulnerable by IUCN, whose populations are mainly associated with streams inside the forest, but the geographical distribution related to these environments hydrologically dynamic is poorly understood. Species Distribution Modeling has been a tool widely used in recent years. The Maximum Entropy algorithm, Maxent predicts the potential geographic distribution of species from presence data. This study aimed to build ecological models to predict the potential distribution of H. maximiliani that may provide support for development of new strategies for the conservation and thus contribute to the advancement in knowledge about the pattern of their distribution in regions with the Atlantic Forest domain. The occurrence data were obtained between September 2012 and September 2013, through visits to the zoological collections, bibliographic and collection of geographic coordinates in the field. To construct the model we used the Maxent algorithm, aided by ArcGIS version 10 and the digital elevation model of the "Shuttle Radar Topographic Mission". The environmental variables were obtained by Worldclim version 1.1 Cimate Global Surface 10. The model was endorsed by the AUC (Area Under the ROC Curve) and the statistical test Jackknife. 42 points were compiled for the distribution of H. maximiliani. The potential distribution extended from southern Bahia to São Paulo. The generated model showed high predictive ability, with higher AUC value to 0.97, and showed a satisfactory transferability (i.e. ability to predict distributions in regions not sampled ). The high AUC value shows a good distribution model geographic potential of species. However, in models of large scale, this value can be presented proportional to the size of the scale, which would lead to a misinterpretation of the model. However, the areas provided for the distribution of H. maximiliani in this study are realistic and consistent with the distribution realityof the species.
342

Estratégias numéricas e de otimização para inferência da dinâmica de redes bioquímicas

Ladeira, Carlos Roberto Lima 28 February 2014 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-03-07T11:11:33Z No. of bitstreams: 1 carlosrobertolimaladeira.pdf: 2482685 bytes, checksum: b90ffa199573e38ddbce8d8ac0283585 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-03-07T15:03:08Z (GMT) No. of bitstreams: 1 carlosrobertolimaladeira.pdf: 2482685 bytes, checksum: b90ffa199573e38ddbce8d8ac0283585 (MD5) / Made available in DSpace on 2017-03-07T15:03:08Z (GMT). No. of bitstreams: 1 carlosrobertolimaladeira.pdf: 2482685 bytes, checksum: b90ffa199573e38ddbce8d8ac0283585 (MD5) Previous issue date: 2014-02-28 / Estimar parâmetros de modelos dinâmicos de sistemas biológicos usando séries temporais é cada vez mais importante, pois uma quantidade imensa de dados experimentais está sendo mensurados pela biologia molecular moderna. Uma abordagem de resolução baseada em problemas inversos pode ser utilizada na solução deste tipo de problema. A escolha do modelo matemático é uma tarefa importante, pois vários modelos podem ser utilizados, apresentando níveis diversos de precisão em suas representações. A Teoria dos Sistemas Bioquímicos (TSB) faz uso de equações diferenciais ordinárias e expansões de séries de potências para representar processos bioquímicos. O Sistema S é um dos modelos usados pela TSB que permite a transformação do sistema original de equações diferenciais em um sistema algébrico desacoplado, facilitando a solução do problema inverso. Essa transformação pode comprometer a qualidade da resposta se o valor das derivadas nos pontos das séries temporais não for obtidos com precisão. Para estimar as derivadas pretende-se explorar o método do passo complexo, que apresenta vantagens em relação ao método das diferenças finitas, mais conhecido e utilizado. A partir daí pode então ser realizada a busca pelas variáveis que definirão as equações do sistema. O método da Regressão Alternada é um dos mais rápidos para esse tipo de problema, mas a escolha inicial dos parâmetros possui influência em seu resultado, que pode até mesmo não ser encontrado. Pretende-se avaliar o método da Entropia Cruzada, que possui a vantagem de realizar buscas globais e talvez por esse motivo a escolha dos parâmetros inicias não cause tanta influência nos resultados. Além disso, será avaliado um método híbrido que fará uso das principais vantagens do método da Regressão Alternada e do Entropia Cruzada para resolver o problema. Experimentos numéricos sistematizados serão realizados tanto para a etapa de estimativa das derivadas quanto para a etapa de otimização para obtenção dos parâmetros das equações do sistema. / Estimating parameters of dynamic models of biological systems using time series is becoming very important because a huge amount of experimental data is being measured by modern molecular biology. A resolution-based approach on inverse problems can be used in solving this type of problem. The choice of the mathematical model is an important task, since many models can be used, with varying levels of accuracy in their representations. The Biochemical Systems Theory (BST) makes use of ordinary differential equations and power series expansions to represent biochemical processes. The S-system is one of the models used by BST that allows the transformation of the original system of differential equations in a decoupled system of algebric equations, favouring the solution of the inverse problem. This transformation can compromise the quality of the response if the value of the derivatives at points of time series are not obtained accurately. To estimate the derivatives we intend to explore the complex-step method, which has advantages over the finite difference method, best known and used . So the search for the variables that define the equations of the system can be performed. The Alternating Regression method is one of the fastest for this type of problem, but the initial choice of parameters has influence on its performance, which may not even be found. We intend to evaluate the Cross-entropy method, which has the advantage of performing global searches and for this reason the choice of the initial search parameters does not cause as much influence on the results. Also, will be assessed a hybrid method that makes use of the main advantages of Alternating Regression and Cross-entropy to solve the problem. Systematic numerical experiments will be conducted for both the step of estimating derivatives as for the optimization step to estimate the variables of the equations of the system.
343

O Programa Bolsa Família e impactos sobre o desenvolvimento humano

Kern, Ana Paula 26 June 2018 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2018-07-23T13:46:12Z No. of bitstreams: 1 anapaulakern.pdf: 1782580 bytes, checksum: 77a0ee41fafd9e9c8361ed2cf8d8dfc0 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2018-09-03T16:19:18Z (GMT) No. of bitstreams: 1 anapaulakern.pdf: 1782580 bytes, checksum: 77a0ee41fafd9e9c8361ed2cf8d8dfc0 (MD5) / Made available in DSpace on 2018-09-03T16:19:18Z (GMT). No. of bitstreams: 1 anapaulakern.pdf: 1782580 bytes, checksum: 77a0ee41fafd9e9c8361ed2cf8d8dfc0 (MD5) Previous issue date: 2018-06-26 / Esta tese tem por objetivo avaliar o impacto do Programa Bolsa Família sobre o desenvolvimento humano em saúde, educação e mercado de trabalho, respectivamente. É importante dizer que os trabalhos voltados para avaliar o impacto do Programa Bolsa Família estão basicamente apoiados nas análises dos dados da PNAD e do Censo Demográfico, que podem possuir um possível viés de representatividade. Portanto, para essa tese foi construído um painel longitudinal, no nível de indivíduo, a partir dos dados da AIBF I e AIBF II. Esse painel constitui um marco para os estudos de avaliação de impacto do Programa Bolsa Família, uma vez que é o primeiro painel que acompanha o mesmo indivíduo ao longo do tempo, e assim pode gerar resultados mais robustos. O modelo utilizado foi de diferenças em diferenças com balanceamento por entropia. Além disso, esta tese representa mais um avanço na literatura a respeito de programas de transferência de renda, por fazer todas as análises de impacto levando em consideração o plano amostral, que é outra característica importante normalmente ignorada. Em pesquisas por amostragem, ignorar características do plano amostral pode enviesar a estimação do impacto e produzir estimativas incorretas. O primeiro ensaio investiga o impacto do Bolsa Família nas condições de saúde das mulheres e das crianças de até 7 anos de idade, sendo considerada principalmente a saúde das gestantes e vacinação das crianças. No segundo ensaio avalia-se o impacto do Programa Bolsa Família sobre a educação das crianças de 6 a 17 anos, com enfoque sobre a participação, progressão, repetência e abandono escolar. O terceiro ensaio avalia o impacto do programa sobre o mercado de trabalho, mais especificamente na oferta de trabalho dos indivíduos. No primeiro ensaio, os principais resultados mostram que o Bolsa Família aumenta o status de imunização das crianças de 2005 para 2009, mas não o suficiente para manter o calendário vacinal em dia. Para o segundo ensaio, os resultados obtidos indicam que o PBF não afetou a matricula escolar das crianças de 2005 para 2009, quando separadas por gênero. No entanto, o Bolsa Família aumentou a probabilidade das crianças se matricularem, especialmente para crianças mais velhas, residentes na área urbana na região Nordeste. Para progressão, repetência e evasão, o Bolsa Família não apresentou impacto. Para o terceiro ensaio, os resultados indicam que não há efeito do PBF sobre a probabilidade de trabalhar dos homens ou das mulheres, e que o impacto de redução nas horas de trabalho, se concentra nas mulheres residentes em áreas rurais. Com isso, não é pertinente a crítica de que o PBF seria responsável por gerar dependência dos benefícios do programa. / This thesis is made up of three essays that aim to evaluate the impact of the Bolsa Família Program on human development in health, education and the labor market, respectively. It is important to say that the work aimed at evaluating the impact of the Bolsa Família Program is basically supported by the analysis of PNAD and Demographic Census data, which may have a representative bias. Therefore, for this thesis a longitudinal panel, at the individual level, was constructed from the data of AIBF I and AIBF II. This panel constitutes a milestone for impact assessment studies of the Bolsa Família Program, since it is the first panel that accompanies the same individual over time, and thus can generate more robust results. The model used was of differences in differences. In addition, this thesis represents a further advance in the literature regarding income transfer programs, for making all impact analyzes taking into consideration the sampling design, which is another important characteristic usually ignored. In sampling design, ignoring characteristics of the sampling plan may bias the impact estimation and produce incorrect estimates. The first essay evaluates the impact of the Bolsa Família Program on the education of children aged 6 to 17 years, with a focus on participation, progression, repetition and drop-out. The second essay investigates the impact of Bolsa Família on the health conditions of women and children up to 7 years of age, mainly considering the health of pregnant women, vaccination of children and health expenses. The third essay assesses the impact of the program on the labor market, more specifically on the labor supply of individuals. For the first trial, the preliminary results obtained indicate that the PBF has a positive and significant impact only for school dropout for female children residing in rural areas, from 6 to 14 years of age. For urban children, the PBF had no impact. In the second trial, it is examined whether the PBF generates an increase in the likelihood of children aged 0 to 7 years having a vaccination card and a decrease in monthly health care expenses for all individuals. For the third test, a positive relation between hours worked is expected.
344

Compressão de dados de demanda elétrica em Smart Metering / Data compression electricity demand in Smart Metering

Flores Rodriguez, Andrea Carolina, 1987- 08 August 2014 (has links)
Orientador: Gustavo Fraidenraich / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-26T03:16:11Z (GMT). No. of bitstreams: 1 FloresRodriguez_AndreaCarolina_M.pdf: 1415054 bytes, checksum: 6b986968e8d7ec4e6459e4cea044d379 (MD5) Previous issue date: 2014 / Resumo: A compressão dos dados de consumo residencial de energia elétrica registrados torna-se extremadamente necessária em Smart Metering, a fim de resolver o problema de grandes volumes de dados gerados pelos medidores. A principal contribuição desta tese é a proposta de um esquema de representação teórica da informação registrada na forma mais compacta, sugerindo uma forma de atingir o limite fundamental de compressão estabelecido pela entropia da fonte sobre qualquer técnica de compressão disponibilizada no medidor. A proposta consiste na transformação de codificação dos dados, baseado no processamento por segmentação: no tempo em taxas de registros de 1/900 Hz a 1 Hz, e nos valores de consumo residencial de energia elétrica. Este último subdividido em uma compressão por amplitude mudando sua granularidade e compressão dos dados digitais para representar o consumo com o menor número de bits possíveis usando: PCM-Huffman, DPCM-Huffman e codificação de entropia supondo diferentes ordens de distribuição da fonte. O esquema é aplicado sobre dados modelados por cadeias de Markov não homogêneas para as atividades dos membros da casa que influenciam no consumo elétrico e dados reais disponibilizados publicamente. A avaliação do esquema é feita analisando o compromisso da compressão entre as altas taxas de registro, distorção resultante da digitalização dos dados, e exploração da correlação entre amostras consecutivas. Vários exemplos numéricos são apresentados ilustrando a eficiência dos limites de compressão. Os resultados revelam que os melhores esquemas de compressão de dados são encontrados explorando a correlação entre as amostras / Abstract: Data compression of recorded residential electricity consumption becomes extremely necessary on Smart Metering, in order to solve the problem of large volumes of data generated by meters. The main contribution of this thesis is to propose a scheme of theoretical representation of recorded information in the most compact form, which suggests a way to reach the fundamental limit of compression set by the entropy of the source, of any compression technique available in the meter. The proposal consists in the transformation of data encoding, based on the processing by segmentation: in time by registration rate from 1/900 Hz to 1 Hz, and in the values of residential electricity consumption. The latter is subdivided into compression: by amplitude changing their regularity, and digital data compression to represent consumption as few bits as possible. It is using PCM-Huffman, DPCM-Huffman and entropy encoding by assuming different orders of the source. The scheme is applied to modeled data by inhomogeneous Markov chains to create the activities of household members that influence electricity consumption, and real data publicly available. The assessment scheme is made by analyzing the trade off of compression between high registration rates, the distortion resulting from the digitization of data, and analyzing the correlation of consecutive samples. Several examples are presented to illustrate the efficiency of the compression limits. The analysis reveals that better data compression schemes can be found by exploring the correlation among the samples / Mestrado / Telecomunicações e Telemática / Mestra em Engenharia Elétrica
345

Análise termodinâmica de processos de reforma do metano e da síntese Fischer-Tropsch / Thermodynamic analysis of methane reforming processes and Fischer-Tropsch synthesis

Freitas, Antonio Carlos Daltro de, 1986- 20 August 2018 (has links)
Orientador: Reginaldo Guirardello / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Química / Made available in DSpace on 2018-08-20T08:37:19Z (GMT). No. of bitstreams: 1 Freitas_AntonioCarlosDaltrode_M.pdf: 4674734 bytes, checksum: a2869576ee45e8734ab4fa69a217f9ef (MD5) Previous issue date: 2012 / Resumo: As reações de reforma de hidrocarbonetos leves, especialmente o gás natural, são reações químicas de elevada importância e representam etapas chave para a produção em larga escala de hidrogênio, para uso em reações de hidrogenação ou em células a combustível, ou de gás de síntese para aplicação na produção de amônia, metanol ou ainda para a síntese de Fischer-Tropsch (FT). A síntese de Fischer-Tropsch e o principal processo de conversao de hidrocarbonetos leves, como o metano, em hidrocarbonetos maiores, de maior valor agregado, assim a determinação das condições termodinamicamente favoráveis para a operação deste tipo de processos se torna cada vez mais necessária. Dentro desse contexto, as reações de reforma a vapor, reforma oxidativa, reforma autotérmica, reforma seca, reforma seca autotérmica e reforma seca combinada com reforma a vapor foram termodinamicamente avaliadas com o objetivo de determinar as melhores condições de reação para a produção de gás de síntese e de hidrogênio. Posteriormente, o gás de síntese produzido foi utilizado para a produção de metanol, etanol e hidrocarbonetos lineares, sendo avaliadas as melhores estratégias para a produção de cada um desses compostos. Para isso foram utilizadas as metodologias de minimização da energia de Gibbs a pressão e temperatura constantes e de maximização da entropia a pressão e entalpia constantes. Ambos os casos foram formulados como problemas de otimização na forma de programação não-linear, e resolvidas com o solver CONOPT2 do software GAMS 23.1'MARCA REGISTRADA'. A partir dos resultados obtidos com a aplicação da metodologia de minimização da energia de Gibbs, verificou-se que todos os processos de reforma avaliados se mostraram favoráveis para a produção de hidrogênio e/ou de gás de síntese do ponto de vista termodinâmico. Tendo a reação de reforma a vapor se destacado para a produção de hidrogênio devido a elevada razao molar H2/CO obtida no produto. A reação de oxidação parcial mostrou bons resultados para a produção de gás de síntese, devido a razão molar H2/CO próxima de 2 no produto. A comparação com dados experimentais permitiu verificar que a metodologia de minimização da energia de Gibbs apresentou boa capacidade de predição e pela comparação com dados simulados obtidos na literatura, pode-se verificar que a metodologia utilizada pelo presente trabalho esta de acordo com os dados publicados. Os resultados obtidos com a aplicação da metodologia de maximização da entropia pode-se verificar que as reações de reforma oxidativa, reforma autotérmica e reforma seca autotérmica, apresentaram comportamento autotérmico, tanto para o uso de O2 como para o uso de ar como agente oxidante. O ar mostrou capacidade de diminuir a elevação da temperatura final do sistema, sendo seu uso promissor para evitar pontos quentes no reator. A comparação com dados de perfil térmico de reatores, para as reações de reforma oxidativa e reforma autotérmica, únicas obtidas na literatura, demonstraram a boa capacidade de predição da metodologia de maximização da entropia para determinação das temperaturas de equilíbrio das reações. As analises realizadas pela aplicação da metodologia de minimização da energia de Gibbs para as reações de síntese de metanol, etanol e hidrocarbonetos lineares, demonstraram a viabilidade da produção desses compostos. Todas reações de síntese avaliadas apresentaram grande dependência da influencia do catalisador (efeito cinético) para promover a produção dos produtos de interesse. Aplicando-se a metodologia de maximização da entropia foi possível determinar que todas as reações de síntese apresentaram comportamento exotérmico. As metodologias empregadas, bem como o solver CONOPT2 aplicado no software GAMS® 23.1 se mostraram rápidos e eficazes para a solução dos problemas propostos, com baixos tempos computacionais para todos os casos analisados / Abstract: The reactions of reforming of light hydrocarbons, especially natural gas, are chemical reactions of great importance and represent key steps for large scale production of hydrogen for use in hydrogenation reactions or fuel cells, or synthesis gas production, for application in the ammonia or methanol production, or to Fischer-Tropsch (FT) synthesis. The Fischer- Tropsch synthesis is the main process of converting light hydrocarbons such as methane, in hydrocarbons of higher value added. The determination of the thermodynamically favorable conditions for the operation for this type of process is required. Within this context, the reactions of steam reforming, oxidative reforming, autothermal reforming, dry reforming, dry autothermal reforming and dry reforming combined with steam reforming were thermodynamically evaluated to determine the best reaction conditions for the production of synthesis gas and hydrogen. For this, we used the methods of Gibbs energy minimization, at constant pressure and temperature, and the Entropy maximization, at constant pressure and enthalpy. Both cases were formulated as optimization problems in the form of non-linear programming and solved with the software GAMS 2.5® with the solver CONOPT2. The results obtained by the method of minimization of Gibbs energy, for all the reform processes evaluated, proved able to produce hydrogen and syngas. Since the reaction of steam reforming showed greater ability to hydrogen production, due to high H2/CO molar ratio obtained in the product. The partial oxidation reaction showed good results for the syngas production, due to H2/CO molar ratio close to 2 in the product. The comparison with experimental data has shown that the Gibbs energy minimization method showed good predictive ability. By comparison with simulated data from the literature we can see that the methodology of minimization of Gibbs energy, used in this work is in agreement with data obtained in the literature for the same methodology. The results obtained using the methodology of entropy maximization allowed us to verify that the reactions of partial oxidation, autothermal reforming and dry autothermal reforming had autothermal behavior, both for the use of O2 as for the use of air as oxidizing agent. The air has shown ability to reduce the final temperature rise of the system, and its use has proved interesting to avoid hot spots in the reactor. A comparison with data from the reactor's thermal profile, for the reactions of partial oxidation and autothermal reforming, only found in the literature, showed good predictive ability of the methodology of entropy maximization to determine the final temperature of the reaction. The analysis realized using the methodology of Gibbs energy minimization for the synthesis reactions of methanol, ethanol and linear hydrocarbons, demonstrated the feasibility of producing these compounds. All synthesis reactions evaluated were greatly dependent on the influence of the catalyst (kinetic effect) to promote the production of products of interest. Trough the entropy maximization method was determined that all synthesis reactions analyzed presents exothermic behavior, but in the reaction conditions evaluated here, these systems can be considered safe. The methodologies used and applied in the software GAMS ® 23.1, and solved with the solver CONOPT2 proved to be fast and effective for solving the proposed problems with low computational time in all cases analyzed / Mestrado / Desenvolvimento de Processos Químicos / Mestre em Engenharia Química
346

Decomposição de sinais eletromiográficos de superfície misturados linearmente utilizando análise de componentes independentes / Decomposition of linearly mixed surface electromyographic signals using independent component analysis

Almeida, Tiago Paggi de 20 August 2018 (has links)
Orientador: Antônio Augusto Fasolo Quevedo / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-20T12:21:10Z (GMT). No. of bitstreams: 1 Almeida_TiagoPaggide_M.pdf: 6663822 bytes, checksum: bdc5918b5983a84b46acf03bb9096cc7 (MD5) Previous issue date: 2012 / Resumo: A eletromiografia e uma pratica clinica que permite inferir sobre a integridade do sistema neuromuscular, o que inclui a analise da unidade funcional contrátil do sistema neuromuscular, a unidade motora. O sinal eletromiografico e um sinal elétrico resultante do transiente iônico devido potenciais de ação de unidades motoras capturados por eletrodos invasivos ou não invasivos. Eletrodos invasivos capturam potenciais de ação de ate uma única unidade motora, porem o procedimento e demorado e incomodo. Eletrodos de superfície permitem detectar potenciais de ação de modo não invasivo, porem resultam na mistura de potenciais de ação de varias unidades motoras, resultando em um sinal com aparência de ruído aleatório, dificultando uma analise. Técnicas de Separação Cega de Fontes, como Analise de Componentes Independentes, tem se mostrado eficientes na decomposição de sinais eletromiograficos de superfície nos constituintes potenciais de ação de unidades motoras. Este projeto tem como objetivo desenvolver um protótipo capaz de capturar sinais mioeletricos de superfície e analisar a viabilidade da separação de sinais eletromiograficos intramusculares misturados linearmente, utilizando Analise de Componentes Independentes. O sistema proposto integra uma matriz de eletrodos com ate sete canais, um modulo de pré-processamento, um software para controle da captura dos sinais eletromiograficos de superfície e o algoritmo FastICA em ambiente MATLABR para separação dos sinais eletromiograficos. Os resultados mostram que o sistema foi capaz de capturar sinais eletromiograficos de superfície e os sinais eletromiograficos intramusculares misturados linearmente foram separados de forma confiável / Abstract: Electromyography is a clinical practice that provides information regarding the physiological condition of the neuromuscular system, which includes the analysis of the contractile functional unit of the neuromuscular system, known as motor unit. The electromyographic signal is an electrical signal resultant from ionic transient regarding motor unit action potentials captured by invasive or non-invasive electrodes. Invasive electrodes are able to detect action potentials of even one motor unit, although the procedure is time consuming and uncomfortable. Surface electrodes enable detecting action potential noninvasively, although the detected signal is a mixture of action potentials from several motor units within the detection area of the electrode, resulting in a complex interference pattern which is difficult to interpret. Blind Source Separation techniques, such as Independent Component Analysis, have proven effective for decomposing surface electromyographic signals into the constituent motor unit action potentials. The objective of this project was to develop a system in order to capture surface myoelectric signals and to analyze the viability for decomposing intramuscular myoelectric signals that were mixed linearly, using independent component analyzes. The system includes an electrode matrix with up to seven channels, a preprocessing module, a software for controlling surface myoelectric signals capture, and the FastICA algorithm in MATLABR for the intramuscular myoelectric signals decomposition. The results show that the system was able to capture surface myoelectric signals and was capable of decomposing the intramuscular myoelectric signals that were previously linearly mixed / Mestrado / Engenharia Biomedica / Mestre em Engenharia Elétrica
347

A crise socioecológica no labirinto do capital : uma análise das relações entre humanidade e natureza a partir dos conceitos de entropia e sociometabolismo

Vitória, Fernando Bilhalva 29 January 2016 (has links)
Submitted by Simone Maisonave (simonemaisonave@hotmail.com) on 2016-09-08T16:26:38Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Fernando Bilhalva Vitoria_Tese.pdf: 1479174 bytes, checksum: f3067ee1efd28b165ce75beef7957896 (MD5) / Approved for entry into archive by Simone Maisonave (simonemaisonave@hotmail.com) on 2016-09-08T16:26:48Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Fernando Bilhalva Vitoria_Tese.pdf: 1479174 bytes, checksum: f3067ee1efd28b165ce75beef7957896 (MD5) / Approved for entry into archive by Aline Batista (alinehb.ufpel@gmail.com) on 2016-09-08T21:49:29Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Fernando Bilhalva Vitoria_Tese.pdf: 1479174 bytes, checksum: f3067ee1efd28b165ce75beef7957896 (MD5) / Made available in DSpace on 2016-09-08T21:49:44Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Fernando Bilhalva Vitoria_Tese.pdf: 1479174 bytes, checksum: f3067ee1efd28b165ce75beef7957896 (MD5) Previous issue date: 2016-01-29 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / A presente tese sobre “A crise socioecológica no labirinto do capital: uma análise das relações entre humanidade e natureza a partir dos conceitos de entropia e sociometabolismo” tem como ponto de partida o cenário de crise do capitalismo atual, que, em termos históricos, espalhou-se por todas as partes do globo sob o domínio da mercadoria. Ela é perceptível tanto em temos sociais, no desemprego estrutural e na precarização do trabalho, como em termos ecológicos, indo desde a desestruturação dos solos pela agricultura industrial e homogênea até o aquecimento global, com previsões catastróficas para o presente e para o futuro. Esta relação-limite revela, de algum modo, o que Marx chamou de rachadura ou falha metabólica sob as relações produtivas e sociais, a partir do mando do modo de produção capitalista, ou o que Georgescu-Roegen chamou de processo entrópico da irreversibilidade. Com ênfase na síntese destas duas perspectivas teóricas, a tese se situa na problemática da existência de uma crise socioecológica profunda, onde o fundamento teórico-prático desta; repousa no sociometabolismo, no sentido marxista, e na noção de entropia, a partir da bioeconomia, como uma poderosa ferramenta de interpretação e compreensão qualitativa das relações sociais e ambientais no presente tempo com “Um todo manifesto”. A tese visa, assim, contribuir para o campo das ciências humanas na pretensão de propor uma visão ampla e criteriosa das relações entre a humanidade e a natureza e do papel da educação frente a este processo, para além das tramas do capital e da ideologia do desenvolvimento verde. A estrutura da tese consiste num aprofundamento do pensamento de Marx sobre a natureza e o metabolismo, e da questão da entropia em Georgescu-Roegen, bem como da evidência teórico-prática destas duas visões de mundo. Para tanto, ela propõe um todo estruturado para a análise da crise socioecológica: No primeiro capítulo, no marco teórico, recorrendo ao pensamento de Georgescu-Roegen e Marx; no segundo, a dupla visão da crise e os limites do desenvolvimento verde; no terceiro, a historicidade da crise a partir da evolução do metabolismo, até o papel dos sujeitos e da educação como uma das dimensões necessárias para outro sistema metabólico/entrópico e conciliatório entre a humanidade e a natureza no quarto capítulo, onde o metabolismo e a entropia se articulam como um salto de qualidade. / This thesis about "The socio-ecological crisis in the capital labyrinth: an analysis of the relationship between humanity and nature from the concepts of entropy and socio-metabolism" has as its starting point the crisis scenario of the current capitalism, which, in a historical sense, has spread itself all over the world under the domain of the goods. It can be noticed in two ways. The first one is in social terms in cases as structural unemployment and work precariousness, the other one is in ecological terms ranging from soil disruption by industrial and homogeneous agriculture to global warming, with catastrophic forecasts for the present and for the future. This limit relationship reveals, somehow, what Marx called metabolic failure or crack under the productive and social relationships, from the behest of the capitalist production way, or what Georgescu-Roegen called entropic process of irreversibility. Emphasizing the synthesis of these two theoretical perspectives, the thesis lies on the questioning about the existence of a deep socio-ecological crisis, where its theoretical and practical ground lies on socio-metabolism. It is in the Marxist sense, and in the notion of entropy, from the bio-economy, as a powerful tool to have a qualitative interpretation and comprehension of the social and environmental relations in this time with "A whole manifesto". Thus, the thesis aims to contribute to the field of human sciences and intends to propose a careful and wide vision of the relationships between humanity and nature as well as the role of education facing this process, beyond the capital plots and the ideology of green development. The structure of the thesis is a deepening of Marx's thought about nature and metabolism, and the entropy issue in Georgescu-Roegen, as well as the theoretical and practical evidence of these two worldviews. To do so, it proposes a whole structured to analyze the socio-ecological crisis. In the first chapter, in the theoretical framework, using the thought of Georgescu-Roegen and Marx. In the second one, the double vision of the crisis and the limits of green development. In the third chapter, the historicity of the crisis from the metabolism evolution to the role of subject and education as one of the necessary dimensions for other metabolic/entropic and conciliatory system between humanity and nature. Finally in the fourth chapter, where metabolism and entropy are articulated as a leap in quality.
348

[en] OPTICAL CHARACTER RECOGNITION FOR AUTOMATED LICENSE PLATE RECOGNITION SYSTEMS / [pt] IDENTIFICAÇÃO DE CARACTERES PARA RECONHECIMENTO AUTOMÁTICO DE PLACAS VEICULARES

EDUARDO PIMENTEL DE ALVARENGA 13 January 2017 (has links)
[pt] Sistemas de reconhecimento automático de placas (ALPR na sigla em inglês) são geralmente utilizados em aplicações como controle de tráfego, estacionamento, monitoração de faixas exclusivas entre outras aplicações. A estrutura básica de um sistema ALPR pode ser dividida em quatro etapas principais: aquisição da imagem, localização da placa em uma foto ou frame de vídeo; segmentação dos caracteres que compõe a placa; e reconhecimento destes caracteres. Neste trabalho focamos somente na etapa de reconhecimento. Para esta tarefa, utilizamos um Perceptron multiclasse, aprimorado pela técnica de geração de atributos baseada em entropia. Mostramos que é possível atingir resultados comparáveis com o estado da arte, com uma arquitetura leve e que permite aprendizado contínuo mesmo em equipamentos com baixo poder de processamento, tais como dispositivos móveis. / [en] ALPR systems are commonly used in applications such as traffic control, parking ticketing, exclusive lane monitoring and others. The basic structure of an ALPR system can be divided in four major steps: image acquisition, license plate localization in a picture or movie frame; character segmentation; and character recognition. In this work we ll focus solely on the recognition step. For this task, we used a multiclass Perceptron, enhanced by an entropy guided feature generation technique. We ll show that it s possible to achieve results on par with the state of the art solution, with a lightweight architecture that allows continuous learning, even on low processing power machines, such as mobile devices.
349

[en] A MACHINE LEARNING APPROACH FOR PORTUGUESE TEXT CHUNKING / [pt] UMA ABORDAGEM DE APRENDIZADO DE MÁQUINA PARA SEGMENTAÇÃO TEXTUAL NO PORTUGUÊS

GUILHERME CARLOS DE NAPOLI FERREIRA 10 February 2017 (has links)
[pt] A segmentação textual é uma tarefa de Processamento de Linguagem Natural muito relevante, e consiste na divisão de uma sentença em sequências disjuntas de palavras sintaticamente relacionadas. Um dos fatores que contribuem fortemente para sua importância é que seus resultados são usados como significativos dados de entrada para problemas linguísticos mais complexos. Dentre esses problemas estão a análise sintática completa, a identificação de orações, a análise sintática de dependência, a identificação de papéis semânticos e a tradução automática. Em particular, abordagens de Aprendizado de Máquina para estas tarefas beneficiam-se intensamente com o uso de um atributo de segmentos textuais. Um número respeitável de eficazes estratégias de extração de segmentos para o inglês foi apresentado ao longo dos últimos anos. No entanto, até onde podemos determinar, nenhum estudo abrangente foi feito sobre a segmentação textual para o português, de modo a demonstrar seus benefícios. O escopo deste trabalho é a língua portuguesa, e seus objetivos são dois. Primeiramente, analisamos o impacto de diferentes definições de segmentação, utilizando uma heurística para gerar segmentos que depende de uma análise sintática completa previamente anotada. Em seguida, propomos modelos de Aprendizado de Máquina para a extração de segmentos textuais baseados na técnica Aprendizado de Transformações Guiado por Entropia. Fazemos uso do corpus Bosque, do projeto Floresta Sintá(c)tica, nos nossos experimentos. Utilizando os valores determinados diretamente por nossa heurística, um atributo de segmentos textuais aumenta a métrica F beta igual 1 de um sistema de identificação de orações para o português em 6.85 e a acurácia de um sistema de análise sintática de dependência em 1.54. Ademais, nosso melhor extrator de segmentos apresenta um F beta igual 1 de 87.95 usando anotaçoes automáticas de categoria gramatical. As descobertas indicam que, de fato, a informação de segmentação textual derivada por nossa heurística é relevante para tarefas mais elaboradas cujo foco é o português. Além disso, a eficácia de nossos extratores é comparável à dos similares do estado-da-arte para o inglês, tendo em vista que os modelos propostos são razoavelmente simples. / [en] Text chunking is a very relevant Natural Language Processing task, and consists in dividing a sentence into disjoint sequences of syntactically correlated words. One of the factors that highly contribute to its importance is that its results are used as a significant input to more complex linguistic problems. Among those problems we have full parsing, clause identification, dependency parsing, semantic role labeling and machine translation. In particular, Machine Learning approaches to these tasks greatly benefit from the use of a chunk feature. A respectable number of effective chunk extraction strategies for the English language has been presented during the last few years. However, as far as we know, no comprehensive study has been done on text chunking for Portuguese, showing its benefits. The scope of this work is the Portuguese language, and its objective is twofold. First, we analyze the impact of different chunk definitions, using a heuristic to generate chunks that relies on previous full parsing annotation. Then, we propose Machine Learning models for chunk extraction based on the Entropy Guided Transformation Learning technique. We employ the Bosque corpus, from the Floresta Sintá(c)tica project, for our experiments. Using golden values determined by our heuristic, a chunk feature improves the F beta equal 1 score of a clause identification system for Portuguese by 6.85 and the accuracy of a dependency parsing system by 1.54. Moreover, our best chunk extractor achieves a F beta equal 1 of 87.95 when automatic part-of-speech tags are applied. The empirical findings indicate that, indeed, chunk information derived by our heuristic is relevant to more elaborate tasks targeted on Portuguese. Furthermore, the effectiveness of our extractors is comparable to the state-of-the-art similars for English, taking into account that our proposed models are reasonably simple.
350

Geração de números pseudo-aleatórios empregando mapas caóticos

ARTILES, José Antonio Pérez de Morales 26 February 2016 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2017-07-11T13:06:08Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TeseJoseversaoCD.pdf: 2349040 bytes, checksum: f9cf2bfb304c798e864da4edd16e3a90 (MD5) / Made available in DSpace on 2017-07-11T13:06:08Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TeseJoseversaoCD.pdf: 2349040 bytes, checksum: f9cf2bfb304c798e864da4edd16e3a90 (MD5) Previous issue date: 2016-02-26 / CNPQ / Geradores de números pseudo-aleatórios são amplamente utilizados em aplicações científicas e tecnológicas. Particularmente em criptografia, estes são empregados em sistemas de chave secreta, como geradores de sequências de cifragem. Neste trabalho, propomos algumas metodologias para o projeto destes geradores a partir de mapas caóticos. A primeira é baseada em duas técnicas: salto de amostras e discretização codificada variante no tempo. Mostra-se que o procedimento possui alta taxa de geração de bits por amostra caótica quando comparado com a codificação fixa no tempo, além de dispensar pós-processamento para melhoria de suas propriedades aleatórias. A outra metodologia utilizada é o emprego de sequências-m para eliminar a correlação residual na sequência codificada. A discretização variante no tempo apresenta uma característica de correlação bem definida que é aproveitada por um novo bloco de pós-processamento que utiliza sequências-m de menor complexidade linear que a metodologia anterior. Validam-se os métodos propostos empregando a bateria de teste NIST. / Random number generators are widely used in scientific and technological applications. Particularly in cryptography, they are used in secret-key systems, such as key sequence generators. In this work, we present two methodologies for the design of these generators from chaotic maps. The first one is based on two techniques: Skipping and time-varying coded discretization. We show that the proposed method has higher bit generation rate when compared to fixed-time coded discretization and dispenses post-processing in order to improve their random properties. Another methodology is the use of m-sequences to eliminate the residual correlation of the coded sequence. The time-varying coded discretization has a well-defined correlation characteristic that is exploited by a new block ofpost-processing using m-sequences that requires less memory than the previous methodology. The effectiveness of this procedure is verified through the NIST test.

Page generated in 0.0312 seconds