• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 878
  • 59
  • 58
  • 11
  • 1
  • 1
  • 1
  • Tagged with
  • 1016
  • 706
  • 298
  • 242
  • 159
  • 157
  • 150
  • 148
  • 146
  • 141
  • 133
  • 130
  • 112
  • 108
  • 94
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Calibração de simuladores microscópicos de tráfego através de medidas macroscópicas / Calibration of microscopic traffic simulators using macroscopic measures

Felipe Costa Bethonico 19 April 2016 (has links)
Os simuladores de tráfego são programas computacionais que, através de diversos modelos, tentam simular o tráfego, o comportamento dos motoristas, o desempenho dos veículos, entre outros aspectos que envolvem uma rede viária. Estes modelos precisam ser calibrados para representar as condições de um determinado local. O objetivo da pesquisa foi propor um método de calibração de um microssimulador de tráfego através de dados coletados por estações de monitoramento. O estudo de caso foi realizado através do simulador VISSIM para um trecho do Rodoanel Mário Covas (SP-021), utilizando um algoritmo genético (AG). A calibração envolveu, além dos parâmetros comportamentais dos sub-modelos de car-following e lane-change, o ajuste das distribuições de velocidade desejada dos veículos e um método para simulação do congestionamento. A função fitness do AG foi baseada em três medidas de desempenho: uma que comparava gráficos de fluxo-velocidade simulados e observados e outras duas que comparavam a distribuição do volume de tráfego e o percentual de veículos comerciais por faixa de tráfego. Os resultados mostraram que a medida mais apropriada para a comparação dos gráficos foi a distância de Hausdorff modificada (MHD). A medida MHD também foi fundamental para garantir a ciência do método de simulação de congestionamento de tráfego proposto. O modelo calibrado foi validado usando dados de tráfego coletados em dias diferentes, pela mesma estação de monitoramento. / Traffic simulators are computer programs that, through various models, try to simulate traffic, driver behavior, vehicle performance, and other aspects involved in a road network. These models need calibration to represent local conditions satisfactorily. The objective of the research was to propose a method for the calibration of a traffic microsimulator based on traffic data collected by monitoring stations. To demonstrate the feasibility of the proposed approach, a case study was performed calibrating the simulator VISSIM for a section of Rodoanel Mario Covas (SP-021) using a genetic algorithm (GA). The calibration focused on behavioral parameters for car-following and lane-change submodels, as well as on the desired speed distributions of vehicles and on a method to simulate congestion. The GA fitness function was based on three performance measures: one that compared simulated and observed speed-flow plots, and two that compared the distribution of traffic volume and truck volumes across traffic lanes, respectively. The results showed that the most appropriate measure for comparison of the graphs was the modified Hausdor distance (MHD). MHD was also important to ensure the efficiency of the method used to simulate traffic congestion. The calibrated model was validate using traffic data collected on different days, by the same monitoring station.
172

Identificação de pessoas através de algoritmo genético aplicado em medidas das proporções áureas da face humana / Recognition of human faces through genetic algorithm applied in reasons áureas

Walison Joel Barbera Alves 24 September 2008 (has links)
Na emergente busca por sistemas automáticos que realizem o reconhecimento de faces humanas, pesquisadores têm agrupado diferentes técnicas para obterem resultados que possam ser cada vez mais robustos e ágeis. Essa preocupação não se restringe aos meios acadêmicos, também existe interesse legal comercial em utilizar sistemas que reconheçam faces humanas como por exemplo, que locais em que seja difícil a identificação de pessoas pelos seres humanos. Diante dessa constante preocupação, este trabalho teve como objetivo desenvolver um sistema de reconhecimento automático de faces, por intermédio de suas proporções, aplicando uma técnica inovadora, em que por meio de um algoritmo genético, que tem como entrada o número de segmentos áureos encontrados na face, é possível determinar as proporções existentes e, assim, encontrar a face desejada. Os resultados demonstram que a razão áurea, utilizada desde a antiguidade por pintores e escultores, está presente nas proporções das faces humanas e que fornece um meio de medida biométrica que permite a identificação de um indivíduo, mesmo com expressões faciais. / There has been an emerging pursuit of automatic systems that provide the recognition of human faces. Seeing that, scientists have gathered different techniques in order to obtain more and more positive and concrete results. This pursuit is not of academic concern only, but there is also legal and commercial interest in using systems that can recognize faces in places where it is difficult for humans to locate a person, that is when it is necessary to locate outlaws in crowded places. That being so, this work aims at developing a system for the automatic recognition of human faces using proportions and applying an innovative technique that implements a Genetic Algorithm. This algorithm uses the number of facial golden proportion sections as its input, so it is possible to determine the existing proportions and consequently, to locate the desired face no matter the person\'s facial expression. The results show that the golden ratio, which has been used since the earlier times by painters and sculptors, is present in human facial proportions and is a biometric measurement that enables to identify an individual even when facial expressions are worn.
173

A genetic algorithm for fair land allocation / um algoritmo genético para alocação justa de terras

Gliesch, Alex Zoch January 2018 (has links)
O objetivo de projetos de reforma agrária é redistribuir terras de grandes latifúndios para terrenos menores, com destino à agricultura familiar. Um dos principais problemas do Instituto Nacional de Colonização e Reforma Agrária (INCRA) é subdividir uma parcela grande de terra em lotes menores que são balanceados com relação a certos atributos. Este problema é difícil por que precisa considerar diversas restrições legais e éticas. As soluções atuais são auxiliadas por computador, mas manuais, demoradas e suscetíveis a erros, tipicamente produzindo lotes retangulares de áreas similares mas que são injustos com relação a critérios como aptidão do solo ou acesso a recursos hidrográficos. Nesta dissertação, nós propomos um algoritmo genético para gerar subdivisões justas de forma automática. Nós apresentamos um algoritmo construtivo guloso randomizado baseado em locação-alocação para gerar soluções iniciais, assim como operadores de mutação e recombinação que consideram especificidades do problema. Experimentos com 5 instâncias reais e 25 instâncias geradas artificialmente confirmam a efetividade dos diferentes componentes do método proposto, e mostram que ele gera soluções mais balanceadas que as atualmente usadas na prática. / The goal of agrarian reform projects is the redistribution of farmland from large latifundia to smaller, often family farmers. One of the main problems the Brazilian National Institute of Colonization and Agrarian Reform (INCRA) has to solve is to subdivide a large parcel of land into smaller lots that are balanced with respect to certain attributes. This problem is difficult since it considers several constraints originating from legislation as well as ethical considerations. Current solutions are computer-assisted, but manual, time-consuming and error-prone, leading to rectangular lots of similar areas which are unfair with respect to soil aptitude and access to hydric resources. In this thesis, we propose a genetic algorithm to produce fair land subdivisions automatically. We present a greedy randomized constructive heuristic based on location-allocation to generate initial solutions, as well as mutation and recombination operators that consider specifics of the problem. Experiments on 5 real-world and 25 artificial instances confirm the effectiveness of the different components of our method, and show that it leads to fairer solutions than those currently applied in practice.
174

Otimização geométrica de cavidades e caminhos de alta condutividade empregando Design Construtal e algoritmos genéticos

Estrada, Emanuel da Silva Diaz January 2016 (has links)
No presente trabalho propõe-se empregar algoritmos genéticos em associação com o design construtal para a otimização de geometrias em problemas de transferência de calor. O objetivo principal de todos os estudos deste trabalho é minimizar a máxima temperatura que ocorre no domínio computacional. Investigou-se, inicialmente, uma cavidade isotérmica em forma de Y inserida em um sólido retangular com geração de calor uniforme a uma taxa volumétrica constante, onde foi feita uma comparação e validação do algoritmo genético frente à busca exaustiva para poucos graus de liberdade. Após, foi feita uma otimização usando somente algoritmos genéticos considerando todos os quatro graus de liberdade do problema e diferentes valores para suas restrições geométricas. O estudo seguinte foi feito considerando a mesma geometria anteriormente discutida, porém considerou-se as paredes da cavidade Y com uma condição de contorno convectiva. Da mesma forma anterior, foi feita uma validação do algoritmo genético frente à busca exaustiva e na sequência uma otimização de todos os quatro graus de liberdade e diferentes valores do parâmetro convectivo a, empregando somente algoritmos genéticos. No terceiro caso, estudou-se um caminho assimétrico em forma de V de um material de alta condutividade. A geometria tem sua base recebendo um fluxo de calor constante e o remove através das extremidades de dois braços ligados a um sumidouro de calor. Otimizou-se a forma pelo método exaustivo considerando quatro graus de liberdade e uma restrição constante . Após, usou-se algoritmos genéticos para otimizar a geometria considerando os mesmos graus de liberdade e diferentes valores para a restrição de ocupação do material condutivo. Similarmente ao caso da cavidade convectiva em forma de Y, por fim, estudou-se a otimização geométrica de um corpo cilíndrico onde cavidades convectivas retangulares com dois pares de braços são inseridas. Realizaram-se otimizações de até sete graus de liberdade e também se estudou a influência de um parâmetro convectivo e das frações de ocupação das áreas do corpo e braços da cavidade. Deste estudo, concluiu-se que quanto maior o número de cavidades, menores são as máximas temperaturas que ocorrem no domínio. Destaca-se, também, a dependência do parâmetro convectivo, que influenciou na forma da melhor geometria encontrada. Para todos os estudos feitos, os resultados mostraram que a busca por meio de algoritmos genéticos levou a uma redução significativa do número de simulações necessárias para obter a geometria ótima com resultados concordantes aos obtidos com busca exaustiva. Além disso, foi possível estender o estudo para problemas com mais graus de liberdade, restrições e propriedades térmicas. Conclui-se que o melhor design é altamente dependente dos graus de liberdade e restrições, este sendo alcançado de acordo com o princípio construtal da ótima distribuição das imperfeições. / In this work, we propose employing genetic algorithms in association with constructal design for geometry optimization in heat transfer problems. The main objective of all studies is to minimize the maximum temperature that occurs in the computational domain. It was investigated initially an isothermal Y-shaped cavity intruded into a rectangular solid conducting wall with heat generation uniformly at a volumetric rate, where a comparison and validation of genetic algorithm against exhaustive search for few degrees of freedom was made. Then, an optimization is performed by means of genetic algorithms considering all four degrees of freedom of the problem and different values for geometric constraints. The following study has been done considering the same geometry as previously discussed, but it is considered the walls of the Y-cavity with a convective boundary condition. Thus, a dimensionless heat transfer parameter to study (a) was added. Similarly, foregoing study, a genetic algorithm validation was performed comparing to the exhaustive search. After, all four degrees of freedom and different values of a parameter only using genetic algorithms were optimized. In the next investigation, an asymmetric V-shaped pathway of high conductivity material was studied. This geometry receives a constant heat transfer rate in its base and removes it by the end of the two branches that are in touch with the heat sink. The shape was optimized by exhaustive approach considering four degree of freedom and a constraint. After, we used genetic algorithms to optimize the geometry considering the same degrees of freedom and different values for the restriction. Finally, similar to the case of the Y-shaped convective cavity, rectangular convective cavities with two pairs of arms inserted into a cylindrical solid body were optimized. Optimizations of up to seven degrees of freedom were performed and the influence of the convective parameter and of the area fractions of the body and arms of the cavity, were also investigated. From this study, it was concluded that the higher the number of cavities, the lower the maximum temperatures occurring in the domain. Also, the dependence of the convective parameter, influenced in the form of the best geometry, is highlighted. For all studies carried out, the results showed that the search using genetic algorithms led to a significant reduction of the number of simulations required to obtain the optimal geometry. Moreover, it was possible to extend the study where it was considered other degrees of freedom, constraints and thermal properties. We concluded that the best design is highly dependent of degrees of freedom and constraints, and this has been achieved according to the constructal principle of optimal distribution of imperfections.
175

Tempo de resposta a tratamento antipsicótico na esquizofrenia de início recente: um estudo randomizado e controlado de 12 semanas / Time to response to antipsychotics in recent onset schizophrenia a randomized controlled 12-week trial

Kayo, Monica 16 December 2010 (has links)
INTRODUÇÃO: Acredita-se cada vez mais que o tempo para se observar a resposta ao antipsicótico é curto, sendo possível nas primeiras duas semanas já prever se o paciente responderá em 12 semanas. Entretanto, a maior parte das evidências que sustentam tal hipótese provém da análise de dados de estudos controlados duplo-cegos, que não definiam o conceito de início de ação de antipsicóticos, o que pode gerar uma certa confusão quanto às expectativas de resposta. Neste estudo, testamos se a ausência de melhora mínima de 20% da PANSS nas primeiras duas semanas correlacionava-se a ausência de resposta em 12 semanas. MÉTODOS: Foi feita a avaliação do tempo de resposta ao tratamento antipsicótico, utilizando o algoritmo de tratamento do IPAP, que recomenda o uso de monoterapia por 4 a 6 semanas, e troca por outro antipsicótico em caso de ausência de resposta. Os pacientes incluídos tinham esquizofrenia de início recente pelos critérios DSM-IV e foram aleatorizados para receber tratamento com antipsicótico de primeira geração (APG) ou de segunda geração (ASG). Foi considerada resposta ao tratamento a redução média de pelo menos 30% dos sintomas, em comparação com a PANSS inicial.Os pacientes foram avaliados pela PANSS a cada 2 semanas, durante 12 semanas. RESULTADOS: Foram incluídos 22 pacientes (APG, N=10 e ASG, N=12). Não houve diferença quanto ao tempo ou taxa de resposta entre os grupos; 20% (4) dos pacientes não responderam ao tratamento, enquanto 65% (13) responderam; 15% (3) abandonaram um tratamento. Um paciente não pôde ser avaliado pela PANSS e não teve seus dados incluídos na análise. Não houve correlação entre melhora nas primeiras 2 semanas e resposta em 12 semanas. A mudança média da 11 PANSS em relação ao basal foi significante a partir da 4a semana (p=0,43), e houve melhora progressiva ao longo das 12 semanas. Ambos os grupos tiveram a mesma proporção de substituições de medicamentos, sendo que não houve diferença, em termos de porcentagem de respondedores, entre os que trocaram o medicamento e entre os que permaneceram com a mesma medicação inicial. CONCLUSÕES: A ausência de resposta nas primeiras duas semanas não prediz ausência de resposta em 12 semanas. O tempo para avaliar a resposta clínica a um medicamento antipsicótico é de pelo menos quatro semanas. Aguardar o efeito do medicamento parece ser mais importante que trocar de medicamento nas primeiras 4 semanas / INTRODUCTION: It has been widely accepted that time to observe response to antipsychotic is short, with a response in 2 weeks predicting response or nonresponse in 12 weeks. However, most evidence for this hypothesis come from controlled doubleblind trials, which did not assess the onset of action, but clinical response, generating some false expectancies regarding clinical response. In this study, we assessed whether the lack of improvement in 2 weeks would predict nonresponse in 12 weeks. METHODS: We assessed time to response to antipsychotic through a treatment algorithm IPAP, which recommends monotherapy during 4-6 weeks and switch to another antipsychotic in case of nonresponse. Subjects with recent onset schizophrenia according to DSM-IV criteria were included and randomized to receive first generation antipsychotic (FGA) or second generation (SGA). Response was considered as at least 30% reduction of PANSS. Subjects were assessed every 2 weeks, during the 12-week study period. RESULTS: 22 subjects were included (FGA: 10; SGA: 12). There was no difference between groups in terms of response rate; overall 20% (4) did not respond in 12 weeks and 65% responded; 15% (3) dropped out. Data from one patient was not included in the analysis due to impossibility of assessment with PANSS. No correlation was found between response in 2 weeks and response in 12 weeks. Significant mean change at PANSS was observed in the fourth week (p= 0,43). The need for switch was similar in both groups, and improvement was progressive throughout the 12 weeks. Response rate was similar in the group that switched and the group that remained with first antipsychotic. CONCLUSIONS: Lack of response in 2 weeks does not predict lack 13 of response in 12 weeks. Time to assess clinical response é at least four weeks. Looking forward to drug effect seems to be more important for the outcome in 12 weeks than switching the drug in the first 4 weeks
176

Otimização de parâmetros de controladores difusos para estruturas inteligentes / Parameter optimization of fuzzy controllers for smart structures

Gruppioni, Édson Mulero 23 April 2003 (has links)
As estruturas aeronáuticas estão sujeitas a diversas solicitações, devido principalmente às interações com o escoamento aerodinâmico, que podem causar distúrbios e vibrações, comprometendo seu desempenho. Diversas pesquisas vêm sendo realizadas para solucionar estes problemas. Dentre elas está o uso de atuadores e sensores piezelétricos integrados na estrutura, que juntamente com um sistema de controle passa a ser denominada estrutura inteligente, a qual promove o controle ativo de vibrações garantindo um aumento no desempenho. O objetivo deste trabalho é obter parâmetros ótimos de um controlador não convencional baseado na lógica difusa para controle de vibrações em uma viga com atuadores e sensores piezelétricos. A viga e elementos piezelétricos são modelados pelo método de elementos finitos utilizando o princípio variacional eletromecânico. O sistema de controle difuso, o qual está se tornando amplamente utilizado principalmente devido à sua capacidade de representar sistemas não lineares e complexos, é baseado nos modelos difusos de Mamdani e Takagi-Sugeno-Kang. A otimização é feita através de algoritmo genético que é um processo de procura probabilística baseado nas leis de seleção natural influenciadas pelas teorias de Charles Darwin. São otimizados os valores dos ganhos de controle, bem como os suportes dos conjuntos difusos da base de conhecimento. São feitas comparações com o controlador difuso obtido por processo de ajuste manual. / Aeronautical structures are subject to a variety of loads, due mainly to the iteration with the aerodynamic flow that can present disturbances, compromising their performance. Various researches have been carried out to solve these problems. Among them, the use of piezoelectric actuators and sensors integrated to the structure, jointly with a control system, the so-called smart structure technology, has been seen with good potentiaI. A smart structure promotes active vibration control, guaranteeing a performance increase. The objective of this work is to obtain optimal control parameters of a non-conventional vibration controller based on the fuzzy logic. A smart beam with piezoelectric actuators and sensors, that has been modeled by the finite element method, has been used to controI. The fuzzy control, which is becoming broadly utilized, mainly due to its capacity to represent complex and non-linear systems, is based in Mamdani and Takagi-Sugeno-Kang fuzzy models. The optimization scheme is based on genetic algorithms, a methodology inspired on the natural selection laws influenced by the Darwin\'s theories. Gains values and membership functions are optimized. Comparisons with the fuzzy controller achieved by trial and error parameters tuning are presented.
177

Métodos para obtenção da altura da camada limite planetária a partir de dados de LIDAR / Methods to obtain heigth of Planetary Boundary Layer by LIDAR data

Moreira, Gregori de Arruda 10 September 2013 (has links)
Esta dissertação aborda um estudo sobre algoritmos matemáticos (Método da Variância, Método das Imagens, Método do Gradiente (MG), WCT - Wavelet Covariance Transform), os quais possibilitam a obtenção da altura máxima da Camada Limite Planetária (CLP) a partir de dados fornecidos por um sistema lidar. Em um primeiro momento será descrita a CLP e as suas principais variáveis, assim como também os métodos juntamente com os seus pontos positivos e negativos. Em seguida serão abordadas duas situações de medida: a primeira consiste em um estudo de casos realizado na cidade de Vitória-ES, para o qual foram escolhidas três situações típicas (calmaria, presença de subcamadas de aerossóis e/ou camadas de nuvens e turbulência) em que os métodos foram: testados, comparados entre si, com a análise visual do perfil e o BRN (Bulk Richardsons Number); a segunda situação aborda uma medida feita na cidade de São Paulo-SP durante um período de 12 horas contínuas, sendo o grande diferencial deste experimento, o lançamento de radiossondas dentro de intervalos de 3 horas, isso aliado a utilização de modelagem WRF (Weather Research Forecasting) permitiu uma maior comparação e validação dos dados. A partir dos estudos de casos foi possível observar que com o aumento da complexidade do perfil apresentado pela atmosfera, há um decréscimo na qualidade dos resultados apresentados pelos métodos e um aumento no tempo de processamento, já que há necessidade de um maior refinamento nos parâmetros que serão utilizados. Nas situações de \"calmaria\"o perfil da atmosfera se mostra mais simplificado, o que facilita a escolha de qual método utilizar, sendo que com exceção da Variância, todos os outros métodos forneceram resultados satisfatórios. Para o caso de \"presença de subcamadas de aerossóis e/ou nuvens\"a qualidade dos resultados apresentados pelos métodos decai sendo exceção da Variânci, uma vez que esta passa a apresentar resultados mais próximos do esperado devido ao aumento na complexidade do sinal lidar. Na situação caracterizada como \"turbulência\", todos os métodos passam a apresentar maiores dificuldades para detectar corretamente a CLP, sendo que o WCT se mostra o mais robusto, porém exige uma complexa escolha de parâmetros, demandando um alto tempo de processamento. Na medida de 12 horas contínuas todos os métodos conseguem representar satisfatoriamente a ascensão e o decaimento da CLP, ficando as maiores divergências para o meio do dia, principalmente quando há dispersão dos aerossóis gerando atenuação no sinal, com isso os métodos mais sensíveis (MG e Método das Imagens) passam a apresentar várias oscilações, dificultando a detecção do topo da CLP. As análises realizadas permitiram observar as vantagens e desvantagens de cada método, assim como descobrir qual possui o uso mais indicado para cada cenário meteorológico, sendo o algoritmo WCT o mais robusto em todas as situações apresentadas. / This dissertation discusses a study about mathematical algorithms (Variance Method, Method of Images, Gradient Method, WCT - Wavelet Covariance Transform) that allow obtaining the maximum height of the Planetary Boundary Layer (PBL) from data provided by the lidar system. Initially it will be described the PBL and their main variables, as well as methods along with their strengths and weaknesses. After, two situations of measurements will be discussed: the first one consists of a case study conducted in the city of Vitória-ES, where were chosen three typical situations (\"calm\", \"sublayers of aerosols and/or layers of cloud cover\"and \"turbulence\") and the methods were compared among themselves and here after validated qualitatively by a visual verify and quantitatively by obtain of the Bulk Richardson Number (BRN) extracted from radiosounding data; the second situation deals with a measurement made in the city of São Paulo - SP for a period of 12 continuous hours, and the great advantage of this experimen, launching radiosondes within 3 hour intervals, the use of this combined with WRF ( Weather Research Forecasting) model allowed a most accurate comparison and validation. Based on case studies it was observed with the increased of complexity of the profile presented by the atmosphere, there is a decrease in the quality of the results provided by the methods and an increase in processing time being necessary greater refinement of the parameters that are used. In situations of \"calm\"the profile of the atmosphere appears more simplified, which facilitates the choice of which method to use, and with exception of Variance, all other methods provided satisfactory results. For the situation of \"presence of sublayers of aerosols and/or clouds\"the quality of the results presented by the methods decays, with the exception of Variance, once this begins to show results closer than expected due to the increase in the complexity of the signal handling. In situations characterized as \"turbulence\", all methods have more difficulties to correctly detect the PBL, and the WCT shown the most robust than others, but requires a complex choice of parameters and a high processing time. The measurement of 12 hours continuous all methods can satisfactorily represent the rise and decay of PBL, the largest differences being for the middle of the day, especially when there is dispersion of aerosol generating attenuation in the signal, thus the most sensitive methods (Gradient Method and Method of Images) present several variations, making it difficult to detect the top of the PBL. The analyzes allowed to observe the advantages and disadvantages of each method, as well as find out which has the most appropriate use for each meteorological scenario, being the WCT the most robust algorithm in all situations presented.
178

Fusão de imagens de satélites aplicada à meteorologia / not available

Machado, Roberto 22 March 2001 (has links)
Imagens de satélite dos canais visível, infravermelho e vapor d\'água são ferramentas essenciais para o diagnóstico de previsão do tempo observação de cada imagem, é possível determinar a distribuição de diversos tipos de nuvens e estimar o seu respectivo potencial pluviométrico. A imagem de um mesmo tipo de nuvem apresenta-se de diferentes maneiras, quando registrada em cada um dos espectros. Neste trabalho, será implementada a fusão dessas três imagens, considerando-se que a imagem resultante deve conter todas as informações relevantes de cada espectro. Os algoritmos de fusão aqui descritos são obtidos tendo como base a execução da transformada pirâmide de cada imagem original, resultando em uma pirâmide de imagens. Esta consiste em um conjunto de cópias de imagem inicial, onde cada cópia representa um padrão de informação em diferentes formatos: 512 x 512; 256 x 256; 128 x 128, por exemplo. Com essa transformada multiescalar é possível determinar em que escala, ou em que resolução, se encontra a melhor informação, seguindo critério pré-determinados para a obtenção de uma imagem fundida na escala das imagens iniciais. Serão apresentados os métodos e os resultados qualitativos de fusões de imagens. São dados exemplos práticos, com aplicações meteorológicas, uma delas envolvendo imagens captadas pelo INPE, de três canais, cujos resultados são discutidos. / Weather forecast diagnosis is done having as a fundamental tool the analysis of satellite images such as visible (VIS), infra-red (IR) and water vapour (WV) channels. By observing each image it is possible to determine the distribution of many kinds of clouds and to estimate its respective pluviometric potential. The image of clouds of the same kind presents itself in different ways when it is registered in each of the channels. Here it will be implemented the fusion of these three images, taking into consideration that the resulting image should have all the important information of each spectrum and its use in the weather forecast determination by observing the screen images. The fusion algorithms described here are obtained from the execution of the so called transformed pyramid of each original image, resulting in an image pyramid. A pyramid of images is a set of copies of the first image, each copy representing an information standard in different formats, 512 x 512, 256 x 256, 128 x 128, for example. With this changed multiscale it is possible to determine in which scale or in which resolution is the best piece of information following pre-determined rules to obtain an image that is a fusion of the first ones. There will be presented the methods and qualitative results of image fusions, practical examples will be presented given, with meteorological applications, one of them involving images capted by INPE, of three channels, and the results will be discussed.
179

Simulação de Monte Carlo de fluidos magnéticos em magnetolipossomos

Salvador, Michele Aparecida January 2014 (has links)
Orientador: Ronei Miotto / Tese (doutorado) - Universidade Federal do ABC. Programa de Pós-Graduação em Nanociências e Materiais Avançados, 2014
180

Determinação de integrais primeiras liouvillianas em equações diferenciais ordinárias de segunda ordem / Determination of liouvilian first integrals in ordinary differential equations of the second order

Jayr Avellar Costa Filho 15 March 2013 (has links)
Nesta Tese desenvolvemos várias abordagens "Darbouxianas"para buscar integrais primeiras (elementares e Liouvillianas) de equações diferenciais ordinárias de segunda ordem (2EDOs) racionais. Os algoritmos (semi-algoritmos) que desenvolvemos seguem a linha do trabalho de Prelle e Singer. Basicamente, os métodos que buscam integrais primeiras elementares são uma extensão da técnica desenvolvida por Prelle e Singer para encontrar soluções elementares de equações diferenciais ordinárias de primeira ordem (1EDOs) racionais. O procedimento que lida com 2EDOs racionais que apresentam integrais primeiras Liouvillianas é baseado em uma extensão ao nosso método para encontrar soluções Liouvillianas de 1EDOs racionais. A ideia fundamental por tras do nosso trabalho consiste em que os fatores integrantes para 1-formas polinomiais geradas pela diferenciação de funções elementares e Liouvillianas são formados por certos polinômios denominados polinômios de Darboux. Vamos mostrar como combinar esses polinômios de Darboux para construir fatores integrantes e, de posse deles, determinar integrais primeiras. Vamos ainda discutir algumas implementações computacionais dos semi-algoritmos.

Page generated in 0.0551 seconds