• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3347
  • 195
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 3545
  • 3130
  • 2816
  • 2814
  • 2810
  • 1929
  • 1048
  • 591
  • 508
  • 497
  • 483
  • 420
  • 401
  • 391
  • 369
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Utilizando algoritmo de cross-entropy para a modelagem de imagens de núcleos ativos de galáxias obtidas com o VLBA

Perianhes, Roberto Vitoriano 09 August 2017 (has links)
Submitted by Marta Toyoda (1144061@mackenzie.br) on 2018-02-16T23:06:29Z No. of bitstreams: 2 Roberto Vitoriano Perianhes.pdf: 5483045 bytes, checksum: 54cb8ad49fe9a8dd9da3aaabb8076b2f (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Paola Damato (repositorio@mackenzie.br) on 2018-03-08T11:19:18Z (GMT) No. of bitstreams: 2 Roberto Vitoriano Perianhes.pdf: 5483045 bytes, checksum: 54cb8ad49fe9a8dd9da3aaabb8076b2f (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-03-08T11:19:18Z (GMT). No. of bitstreams: 2 Roberto Vitoriano Perianhes.pdf: 5483045 bytes, checksum: 54cb8ad49fe9a8dd9da3aaabb8076b2f (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2017-08-09 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The images obtained by interferometers such as VLBA (Very Long Baseline Array) and VLBI (Very Long Baseline Interferometry), remain the direct evidence of relativistic jets and outbursts associated with supermassive black holes in active galactic nuclei (AGN). The study of these images are critical tools to the use of information from these observations, since they are one of the main ingredients for synthesis codes7 of extragalactic objects. In this thesis is used both synthetic and observed images. The VLBA images show 2-dimensional observations generated from complex 3-dimensional astrophysical processes. In this sense, one of the main difficulties of the models is the definition of parameters of functions and equations to reproduce macroscopic and dynamic physical formation events of these objects, so that images could be study reliably and on a large scale. One of the goals of this thesis is to elaborate a generic8 form of observations, assuming that the formation of these objects had origin directly by similar astrophysical processes, given the information of certain parameters of the formation events. The definition of parameters that reproduce the observations are key to the generalization formation of sources and extragalactic jets. Most observation articles have focus on few or even unique objects. The purpose of this project is to implement an innovative method, more robust and efficient, for modeling and rendering projects of various objects, such as the MOJAVE Project, which monitors several quasars simultaneously offering a diverse library for creating models (Quasars9 and Blazars10: OVV11 and BL Lacertae12). In this thesis was implemented a dynamic way to study these objects. Presents in this thesis the adaptation of the Cross-Entropy algorithm for the calibration of the parameters of astrophysical events that summarize the actual events of the VLBA observations. The development of the code of the adaptation structure includes the possibility of extension to any image, assuming that these images are dispose in intensities (Jy/beam) distributed in Right Ascension (AR) and Declination (DEC) maps. The code is validating by searching for self-convergence to synthetic models with the same structure, i.e, realistics simulations of components ejection, in milliarcsecond, similar to the observations of the MOJAVE project in 15.3 GHz. With the use of the parameters major semi-axis, angle of position, eccentricity and intensity applied individually to each observed component, it was possible to calculate the structure of the sources, the velocities of the jets, as well as the conversion in flux density to obtain light curves. Through the light curve, the brightness temperature, the Doppler factor, the Lorentz factor and the observation angle of the extragalactic objects can be estimated with precision. The objects OJ 287, 4C +15.05, 3C 279 and 4C +29.45 are studied in this thesis due the fact that they have different and complex morphologies for a more complete study. / As imagens obtidas por interferômetros, tais como VLBA (Very Long Baseline Array) e VLBI (Very Long Baseline Interferometry), são evidências diretas de jatos relativísticos associados a buracos negros supermassivos em núcleos ativos de galáxias (AGN). O estudo dessas imagens é fundamental para o aproveitamento das informações dessas observações, já que é um dos principais ingredientes para os códigos de síntese1 de objetos extragalácticos. Utiliza-se nesta tese, tanto imagens sintéticas quanto observadas. As imagens de VLBA mostram observações em 2 dimensões de processos astrofísicos complexos ocorrendo em 3 dimensões. Nesse sentido, uma das principais dificuldades dos modelos é a definição dos parâmetros das funções e equações que reproduzam de forma macroscópica e dinâmica os eventos físicos de formação desses objetos, para que as imagens sejam estudadas de forma confiável e em grande escala. Um dos objetivos desta tese é elaborar uma forma genérica2 de observações, supondo que a formação desses objetos é originada por processos astrofísicos similares, com a informação de determinados parâmetros da formação dos eventos. A definição de parâmetros que reproduzam as observações são elementos chave para a generalização da formação de componentes em jatos extragalácticos. Grande parte dos artigos de observação são voltados para poucos ou únicos objetos. Foi realizada nesta tese a implementação um método inovador, robusto e eficiente para a modelagem e reprodução de vários objetos, como por exemplo nas fontes do Projeto MOJAVE, que monitora diversos quasares simultaneamente, oferecendo uma biblioteca diversificada para a criação de modelos (Quasares3 e Blazares4: OVV5 e BL Lacertae6). Com essas fontes implementou-se uma forma dinâmica para o estudo desses objetos. Apresenta-se, nesta tese, a adaptação do algoritmo de Cross-Entropy para a calibração dos parâmetros dos eventos astrofísicos que sintetizem os eventos reais das observações em VLBA. O desenvolvimento da estrutura de adaptação do código incluiu a possibilidade de extensão para qualquer imagem, supondo que as mesmas estão dispostas em intensidades (Jy/beam) distribuídas em mapas de Ascensão Reta (AR) e Declinação (DEC). A validação do código foi feita buscando a auto convergência para modelos sintéticos com as mesmas estruturas, ou seja, de simulações realísticas de ejeção de componentes, em milissegundos de arco, similares às observações do projeto MOJAVE, em 15,3 GHz. Com a utilização dos parâmetros semieixo maior, ângulo de posição, excentricidade e intensidade aplicados individualmente a cada componente observada, é possível calcular a estrutura das fontes, as velocidades dos jatos, bem como a conversão em densidade de fluxo para obtenção de curvas de luz. Através da curva de luz estimou-se com precisão a temperatura de brilhância, o fator Doppler, o fator de Lorentz e o ângulo de observação dos objetos extragalácticos. Os objetos OJ 287, 4C +15.05, 3C 279 e 4C +29.45 são estudados nesta tese pois têm morfologias diferentes e complexas para um estudo mais completo.
172

Uma Nova Formulação Estabilizada Regularizada para Escoamentos de Fluídos

Faria, Cristiane Oliveira de 30 August 2010 (has links)
Made available in DSpace on 2015-03-04T18:50:19Z (GMT). No. of bitstreams: 1 tese cristiane.pdf: 2779864 bytes, checksum: 78fe9d6461cd9dd3cd23fe85acdd548c (MD5) Previous issue date: 2010-08-30 / Coordenacao de Aperfeicoamento de Pessoal de Nivel Superior / Nesta tese apresenta-se uma nova formulação mista estabilizada regularizada de elementos finitos nas variáveis primais com interpolação contínua para a velocidade e descontínua para a pressão, para problemas de fluidos viscoplásticos.Esta formulação tem base nos métodos de lagrangeano aumentado-regularização e de estabilização por mínimos quadrados.Discutem-se as dificuldades de resolução dos problemas viscoplásticos especialmente aqueles modelados pela relação de Bingham que prevê uma descontinuidade na forma de restrição de desigualdade. São apresentadas criticamente a teoria de lagrangeano aumentado, os modelos regularizados e o método estabilizado via mínimos quadrados. São feitas análises matemáticas para a nova formulação em termos de estabilidade, existência e unicidade de solução. Ordens de convergência ótimas são obtidas matematicamente, superando os métodos clássicos que também apresentam limitação para o valor de tensão limite. Resultados numéricos são apresentados confirmando a teoria aqui desenvolvida e mostrando a robustez do novo método para resolver problemas onde a tensão limite é muito elevada.
173

Análise numérica de novos métodos de elementos finitos estabilizados e enriquecidos aplicados à modelos de reação-difusão elíptico e parabólico / Numerical analysis of new enriched and stabilized finite element methods applied for elliptic and pParabolic reaction-diffusion models

Fernando, Honório Joaquim 30 July 2010 (has links)
Made available in DSpace on 2015-03-04T18:50:23Z (GMT). No. of bitstreams: 1 Honorio.pdf: 2417164 bytes, checksum: a4c625e867c8db83246b723571784aae (MD5) Previous issue date: 2010-07-30 / Fundação Carlos Chagas Filho de Amparo a Pesquisa do Estado do Rio de Janeiro / Four new finite element methods, namely, Galerkin Enriched Method (MGE),Multiscale Stabilizad Method (MEM-p) and (MEM-g), and time-discontinuous Petrov-Galerkin Enriched Method (MEPGDT), are proposed to solve singularly perturbed reaction-difuusion problems. We dedicated the first three methods for solving stationary reaction-di_usion equation, while the latter handles the transient case. Optimal a priori error estimates in L2 and H1 norm for MGE, MEM-p and MEM-g are derived. For MEPGDT, a priori optimal error estimate in the energy norm is provided. Theoretical convergence rates are con_rmed and further investigated by numerical experiments. Also, the methods are validated through several numerical tests of singularly perturbed type, which demonstrate their good performance. / Quatro novos métodos de elementos finitos destinados a resolução de problemas de reacao-difusao singularmente perturbados, e designados por método de Galerkin enriquecido (MGE), metodo estabilizado multiescala (MEMp) e (MEM-g), e método enriquecido de Petrov-Galerkin descontinuo no tempo (MEPGDT), são propostos. Os três primeiros métodos são dedicados a resolução da equação de reacao-difusao estacionaria, enquanto que o ultimo e proposto para resolver a equacao de reacao-difusao transiente. Estimativas a priori de erro ótimas nas normas naturais L2 e H1 são derivadas para os métodos MGE, MEM-p e MEM-g. Para o MEPGDT, uma estimativa a priori de erro otima na norma da energia, e fornecida. As taxas de convergência teóricas são confirmadas atraves de diversos experimentos numéricos. Os novos métodos numéricos são também validados numericamente através da resolução de problemas singularmente perturbados que demonstram a ótima performance dos novos métodos propostos.
174

Processamento de imagens via derivada topológica e suas aplicações na modelagem e simulação computacional do sistema cardiovascular humano / Image processing via topological derivative and its applications to human cardiovascular system modelling and simulation

Larrabide, Ignacio 07 March 2007 (has links)
Made available in DSpace on 2015-03-04T18:50:43Z (GMT). No. of bitstreams: 1 DScTesis_ILarra_final.pdf: 13078761 bytes, checksum: ebca1f97d97a6325758606f62e7011b9 (MD5) Previous issue date: 2007-03-07 / Conselho Nacional de Desenvolvimento Cientifico e Tecnologico / The objective of this work is to study the restoration and segmentation of medical images and its application to Modeling the Human Cardiovascular System (HCVS). The growing complexity in science has motivated the exchange of knowledge and techniques between different scientific disciplines. In this sense the Topological Derivative, originally conceived to treat in an adequate manner topology optimization and inverse problems, is applied to image processing. In the case of image restoration, two different alternatives based on the heat diffusion equation are studied, being a stationary and an evolutive approach. In order to study the performance of these algorithms, different images are restored and the results are quantitatively compared to other methods widely used on the literature. In this work we also discuss the segmentation problem, where the objective is to identify objects or regions in an image. This problem is also considered using the topological derivative, were two novel techniques are proposed. The first is based on the continuous topological derivative and the other, on a simplified discrete version with lower computational cost. The performance of the corresponding algorithms is tested segmenting different images and comparing the results to those obtained with other commonly used methods. In both cases (restoration and segmentation), is performed an analysis of the algotrithm s parameters influence on the processing results. Finally, the use of computational modeling in the simulation of the HCVS is discussed. The aim of this study is the integration of the proposed image processing techniques with computational models of the HCVS. Nowadays, the use of multidimensional models, that merge representations of different parts of the HCVS with different degrees of detail, are widely used. In order to create this type of models, information of different kinds and nature has to be treated, requiring the development of computational tools that allow to handle large data sets. As such a tool does not exist at the time, a software called HeMoLab - Hemodynamics Modeling Laboratory was developed to fulfill this need. This computational tool is described and some results obtained with it are presented. / Este trabalho tem por objetivo estudar a restauração e segmentação de imagens médicas e sua aplicação na Modelagem do Sistema Cardiovascular Humano. O aumento da complexidade na ciência tem motivado o intercâmbio de conhecimento e técnicas entre diferentes disciplinas. Neste sentido a Derivada Topológica, originariamente concebida para tratar de maneira adequada problemas de otimização de topologia e problemas inversos, é utilizada no processamento de imagens. No caso de restauração, são estudadas duas alternativas baseadas na equação de difusão de calor, sendo uma abordagem estacionária e outra evolutiva. Para estudar a performance dos respectivos algoritmos propostos diversas imagens são restauradas e os resultados são quantitativamente comparados com resultados obtidos empregando outros algoritmos amplamente encontrados na literatura. Também é discutido neste trabalho o problema de segmentação que consiste em identificar objetos e regiões em uma imagem. Este problema também é abordado utilizando a derivada topológica, sendo apresentadas duas técnicas inovadoras. A primeira baseada na derivada topológica contínua e a outra em simplificações desta, chegando-se em uma versão discreta, de menor custo computacional. A performance dos respectivos algoritmos é testada segmentando diferentes imagens e comparando os resultados com os de outros métodos usualmente utilizados na literatura. Em ambas aplicações (restauração e segmentação), é realizada uma análise da influência dos parâmetros associados a cada algoritmo nos resultados do processamento. Por último, é estudado o uso de técnicas de modelagem na simulação computacional do Sistema Cardiovascular Humano (SCVH). O objetivo deste estudo é a integração das técnicas de processamento de imagens propostas com os modelos necessários na simulação computacional do SCVH. Cabe ressaltar que, na atualidade, modelos multidimensionais que integram representações das diversas partes do sistema cardiovascular com diferente nível de detalhe, são amplamente utilizados. Para criar estes tipos de modelos, informações de diversas origens e variada natureza devem ser tratadas, requerendo-se o desenvolvimento de ferramentas computacionais que permitam operar com grandes volumes de dados. No entanto, não existe na atualidade uma ferramenta deste tipo. Sendo assim, e com o intuito de suprir esta deficiência, foi desenvolvido um sistema chamado HeMoLab - Laboratório de Modelagem em Hemodinâmica, o qual é descrito neste trabalho. Por último, são apresentados alguns resultados obtidos com este sistema computacional.
175

Modelos de dinâmica metapopulacional espacialmente implícitos / Spatially implicit metapopulation models

Santos, Francisca Ana Soares dos 12 March 2007 (has links)
Made available in DSpace on 2015-03-04T18:50:45Z (GMT). No. of bitstreams: 1 Dissertacao.pdf: 667521 bytes, checksum: bb065dd72ee7f7268f022ef94b81d208 (MD5) Previous issue date: 2007-03-12 / Uma metapopulação pode ser definida como uma população regional de populações locais geograficamente distintas, interconectadas por migração. Dentro deste contexto, modelos de dinâmica metapopulacional espacialmente implícitos descrevem a taxa de variação da proporção de manchas ocupadas por uma ou mais espécies por meio de um balanço entre os processos de colonização de manchas vazias e extinção de manchas ocupadas. O modelo metapopulacional de Levins prevê que mesmo na presença de habitat adequado, uma espécie pode se extinguir regionalmente, de forma determinística, se a intensidade de extinção for maior do que a intensidade de colonização. Além disso, este modelo sugere a existência de uma quantidade limiar de habitat remanescente, abaixo do qual a extinção regional determinística da espécie ocorre. Características importantes da dinâmica espacial, tais quais, efeito Allee, efeito resgate, colonização externa, qualidade da matriz, efeito anti-resgate e heterogeneidade de manchas podem ser incluídas em variantes do modelo de Levins. Uma outra extensão natural desses modelos é o agrupamento das manchas com relação ao seu estado de ocupação em modelos de metapopulações de espécies interativas, dando origem aos modelos de metacomunidades. Estudos de dinâmica de metacomunidades permitem a análise das relações entre a diversidade de espécies e a heterogeneidade ambiental no nível da paisagem, bem como as implicações de interações diretas e indiretas para a estrutura de comunidades.
176

Implementação de um banco de dados de proteomas de bactérias associadas a plantas: ProBacter / Implementation of a plant-associated bacteria proteome database:ProBacter

Almeida, Fernanda Nascimento 26 March 2007 (has links)
Made available in DSpace on 2015-03-04T18:50:46Z (GMT). No. of bitstreams: 1 DissertacaoMestrado_FernandaNAlmeida.pdf: 2657877 bytes, checksum: df5f53867efd4a6e183687ebd25aa077 (MD5) Previous issue date: 2007-03-26 / Coordenacao de Aperfeicoamento de Pessoal de Nivel Superior / This dissertation offers a computation approach to comparative analysis between cmpletely sequenced genomes of plant-associated bacteria. The created system was denominated ProBacter and it is composed of a relational database and computational tools for sequence analysis. The database was created from a diverse data source, including information from GenBank, TrEMBL, Interpro, COG and GO. The proteins were organized into clusters through the BBH (Bidirectional Best Hits) methodology and categorized according to the functional classification of the Xanthomonas Genome Project. Each entry displayed by the system in a friendly user interface corresponds to an information sheet with the gene and protein sequence, functional category, domain prediction, and related scientific publications, in addition to the group that it belongs, and external links. The system offers a search interface similar to other database systems with pre-formatted queries. For advanced queries, the user has access to an interface that can be used without previous knowledge of the SQL language or ProBacter s database arquiteture. The BLASTP program and two multiple sequence alignment tools, namely ClustalW and T-Coffee, were integrated into the system as well, allowing internal and external sequence comparison. In addition, the system makes available visualization tools capable of displaying the gene position inside a genome and BHH links of clusters. Also, the user is capable of adding new information for each gene in the system. ProBacter s goal is to collect information available from a large source of databases into one computational environment, organize this information and offer comparative tools for sequence analysis. / Esta dissertação resultou na implementação de uma abordagem computacional para a análise comparativa entre informações de genomas completamente seqüenciados de bactérias associadas à planta. O sistema desenvolvido foi denominado de Probacter e é composto de um banco de dados relacional e de ferramentas computacionais para a análise de seqüências, teve por finalidade agrupar as informações disponíveis em vários bancos de dados em um único ambiente, oferecer uma padronização às informações disponibilizadas e fornecer ferramentas para análises comparativas e de seqüências. O banco de dados contém informações provenientes de diversas fontes, incluindo as bases GenBank, Swiss-Prot, TrEMBL, Interpro, COG e GO. As proteínas foram organizadas dentro de grupos, utilizando a metodologia de BBH (Bidirectional Best Hit) e a anotação padronizada de acordo com a classificação funcional anteriormente descrita para o Projeto Genoma de bactérias do gênero Xanthomonas. Cada entrada disponibilizada pelo sistema numa interface amigável corresponde a uma ficha contendo informações sobre o gene e a proteína por ele codificada, incluindo a categorização funcional, a predição de domínios, a seqüência de aminoácidos da proteína, a ligação com os grupos gerados pelo BBH, referências direta a outros bancos de dados, e as publicações científicas. O sistema oferece uma interface de busca comum a bancos de dados, utilizando consultas pré-definidas. Para consultas mais elaboradas, foi desenvolvida uma interface para ser utilizada sem que o usuário tenha conhecimento prévio de linguagens como SQL e/ou da arquitetura desta base. Ferramentas de alinhamento múltiplo ClustalW e T-Coffee e o programa BLASTP também foram integradas a este sistema, permitindo que sejam feitas comparações entre seqüências internas e externas ao banco. O ProBacter integra ferramentas de visualização gráfica, que permite disponibilizar o posicionamento dos genes pertencentes a grupos no genoma de cada organismo e que permite visualizar as ligações durante a formação dos grupos formados pelo BBH. Por fim, um campo aberto é disponibilizado para que seja possível a intervenção de usuários na anotação de novas informações em determinada entrada, sendo as informações novas oferecidas gravadas diretamente no banco de dados.
177

Formulações convexas para problemas de controle H2 - robusto relativo a pertubações não-paramétricas / Convex formularizations for robust H2 control problems relative to non-parametric pertubations

Freire, Emerson Souza 04 December 2006 (has links)
Made available in DSpace on 2015-03-04T18:50:47Z (GMT). No. of bitstreams: 1 tese completa.pdf: 1208568 bytes, checksum: c0cd1bce0998cd8116d5ae8f7429ef23 (MD5) Previous issue date: 2006-12-04 / Fundação Carlos Chagas Filho de Amparo a Pesquisa do Estado do Rio de Janeiro / In this work, performance analysis and control synthesis for good performance are studied for systems subject to non-parametric perturbations which satisfy a prescribed norm bound. First, the performance analysis problem is considered for a given controller that ensures robust stability in presence of such perturbations.. The performance index used is the so-called worst-case index. Due to the the character of the correspondent non-convex problem, convex optimization problems in function spaces are formulated whose solutions are upper bounds on the worst-case index. Next, it is shown that when the decision variables are confined to finite dimensional subspaces, these problems can be formulated in terms of linear optimization problems in euclidean spaces with constraints defined by linear matrix inequalities (LMI s). On the basis of the upper bounds obtained, procedures for controller synthesis can be formulated, which consist of a D-K iteration procedure for minimization problems with respect to multipliers and robust satabilizing controllers. Using the Youla parametrization of these controllers, for a given set of multipliers it is shown that when the Youla parameter is confined to finite dimensional subspace, the synthesis formulations are equivalent to linear optimization problems in euclidean spaces with constraints defined by LMIs. In both the cases (analysis and synthesis) heuristics to iterative modify the confining subspaces are suggested. An approach analogous to the one robust problems was applied to robust filtering problems leading to similar results. It is worth noting that in this case, due to the fact that only open-loop systems are involved, the correspondent synthesis procedures do not require D-K itearation.. / Neste trabalho são estudados problemas de controle correspondentes à análise de desempenho e síntese de controladores para bom desempenho no sentido da norma de sistemas sujeitos a perturbações não-paramétricas e limitadas na norma . Inicialmente é considerado o problema de análise de desempenho de um dado controlador que assegure a estabilidade de um sistema sujeito a estas perturbações. O índice de desempenho utilizado é o chamado pior-caso . Dada a dificuldade de resolução do correspondente problema não-convexo , são formulados problemas de otimização convexa em espaços de funções cujas soluções são limitantes superiores para o pior-caso . A seguir, mostra-se que quando as variáveis de decisão são confinadas a subespaços de dimensão finita, estes problemas podem ser formulados em termos de problemas de otimização linear em espaços euclidianos com restrições definidas por desigualdades matriciais lineares (LMI s). Com base nos limitantes obtidos, podem ser formulados procedimentos de síntese de controladores, que consistem essencialmente em procedimentos do tipo D-K iteration para problemas de minimização com respeito a multiplicadores e controladores robustamente estabilizantes. Utilizando a parametrização de Youla destes controladores, mostra-se que, para um dado conjunto de multiplicadores, quando o parâmetro de Youla é confinado a um subespaço de dimensão finita, as formulações para síntese também são equivalentes a problemas de otimização linear em espaços euclidianos, com restrições definidas por LMI s. Em ambos os casos (análise e síntese) são sugeridos heurísticas para a modificação iterativa dos subespaços aos quais as variáveis de decisão serão confinadas. A mesma metodologia utilizada para os problemas de controle robusto aqui considerados, pode ser aplicada a problemas de filtragem robusta. Neste caso, devido ao fato de se tratar de sistemas em malha aberta, não há necessidade de procedimentos do tipo D-K iteration . In this work, performance analysis and control synthesis for good performance are studied for systems subject to non-parametric perturbations which satisfy a prescribed norm bound. First, the performance analysis problem is considered for a given controller that ensures robust stability in presence of such perturbations.. The performance index used is the so-called worst-case index. Due to the the character of the correspondent non-convex problem, convex optimization problems in function spaces are formulated whose solutions are upper bounds on the worst-case index. Next, it is shown that when the decision variables are confined to finite dimensional subspaces, these problems can be formulated in terms of linear optimization problems in euclidean spaces with constraints defined by linear matrix inequalities (LMI s). On the basis of the upper bounds obtained, procedures for controller synthesis can be formulated, which consist of a D-K iteration procedure for minimization problems with respect to multipliers and robust satabilizing controllers. Using the Youla parametrization of these controllers, for a given set of multipliers it is shown that when the Youla parameter is confined to finite dimensional subspace, the synthesis formulations are equivalent to linear optimization problems in euclidean spaces with constraints defined by LMIs. In both the cases (analysis and synthesis) heuristics to iterative modify the confining subspaces are suggested. An approach analogous to the one robust problems was applied to robust filtering problems leading to similar results. It is worth noting that in this case, due to the fact that only open-loop systems are involved, the correspondent synthesis procedures do not require D-K itearation..
178

Análise de segurança em criptografia e esteganografia em sequências de imagens / Analysis of the cryptography security and steganography in images sequences

Oliveira, Fábio Borges de 14 February 2007 (has links)
Made available in DSpace on 2015-03-04T18:50:49Z (GMT). No. of bitstreams: 1 Dissertacao.pdf: 3034546 bytes, checksum: 5e2004dbb50f098736d630710e806e70 (MD5) Previous issue date: 2007-02-14 / Coordenacao de Aperfeicoamento de Pessoal de Nivel Superior / Information security is being considered of great importance to the private and governamental institutions. For this reason, we opted to conduct a study of security in this dissertation. We started with an introduction to the information theory, and then we proposed a new kind of Perfect Secrecy cryptographic and finally made a study of steganography in an image sequence, in which we suggest a more aggressive steganography in coefficients of the discrete cosine transform. / A segurança da informação vem sendo considerada de grande importância para as instituições privadas e governamentais. Por este motivo, optamos em realizar um estudo sobre segurança nesta dissertação. Iniciamos com uma introdução à teoria da informação, partimos para métodos de criptografia onde propomos um novo tipo de Segredo Perfeito e finalmente fazemos um estudo de esteganografia em uma sequência de imagens, onde propomos uma esteganografia mais agressiva nos coeficientes da transformada discreta de cosseno.
179

Simulação de caminhos quânticos em redes bidimensionais / Simulation of quantum walks in two-Dimensional lattices

Oliveira, Amanda Castro 15 June 2007 (has links)
Made available in DSpace on 2015-03-04T18:50:52Z (GMT). No. of bitstreams: 1 thesis.pdf: 6097890 bytes, checksum: 7eea019378a8126c37befefac84557cb (MD5) Previous issue date: 2007-06-15 / Fundação Carlos Chagas Filho de Amparo a Pesquisa do Estado do Rio de Janeiro / Caminhos aleatórios clássicos são essenciais para a Física, a Matemática, a Ciência da Computação e muitas outras áreas. Há uma grande expectativa que a sua versão quântica seja ainda mais poderosa, uma vez que o caminhante quântico se espalha quadraticamente mais rápido que o seu análogo clássico. Neste trabalho, estudamos o comportamento do caminhante quântico em uma e duas dimensões, além de generalizarmos o formalismo de ligações interrompidas para duas ou mais dimensões. Em uma dimensão, analisamos o comportamento do caminhante quântico, que além das duas possibilidades de deslocamento usuais, direita e esquerda, também permanece na posição atual. Em duas dimensões, apresentamos um estudo detalhado do comportamento do caminhante no plano e quando há descoerência gerada pela quebra aleatória das ligações para as posições vizinhas com uma certa probabilidade para cada uma das direções. Quando essa probabilidade de quebra é diferente nas duas direções encontramos um resultado não trivial que representa uma transição do caso 2-D descorente para o caso 1-D coerente. Também utilizamos o formalismo de ligações interrompidas para modelar o comportamento de um caminhante quântico que passa por uma e por duas fendas. Realizamos simulações com com as principais moedas e observamos conclusivamente os padrões de interferência e difração.
180

Análise de algoritmos de agrupamento para base de dados textuais / Analysis of the clustering algorithms for the databases

Almeida, Luiz Gonzaga Paula de 31 August 2008 (has links)
Made available in DSpace on 2015-03-04T18:50:55Z (GMT). No. of bitstreams: 1 DissertacaoLuizGonzaga.pdf: 3514446 bytes, checksum: 517d9c7b241b2bd9c799c807d6eac037 (MD5) Previous issue date: 2008-08-31 / The increasing amount of digitally stored texts makes necessary the development of computational tools to allow the access of information and knowledge in an efficient and efficacious manner. This problem is extremely relevant in biomedicine research, since most of the generated knowledge is translated into scientific articles and it is necessary to have the most easy and fast access. The research field known as Text Mining deals with the problem of identifying new information and knowledge in text databases. One of its tasks is to find in databases groups of texts that are correlated, an issue known as text clustering. To allow clustering, text databases must be transformed into the commonly used Vector Space Model, in which texts are represented by vectors composed by the frequency of occurrence of words and terms present in the databases. The set of vectors composing a matrix named document-term is usually sparse with high dimension. Normally, to attenuate the problems caused by these features, a subset of terms is selected, thus giving rise a new document-term matrix with reduced dimensions, which is then used by clustering algorithms. This work presents two algorithms for terms selection and the evaluation of clustering algorithms: k-means, spectral and graph portioning, in five pre-classified databases. The databases were pre-processed by previously described methods. The results indicate that the term selection algorithms implemented increased the performance of the clustering algorithms used and that the k-means and spectral algorithms outperformed the graph portioning. / O volume crescente de textos digitalmente armazenados torna necessária a construção de ferramentas computacionais que permitam a organização e o acesso eficaz e eficiente à informação e ao conhecimento nele contidos. No campo do conhecimento da biomedicina este problema se torna extremamente relevante, pois a maior parte do conhecimento gerado é formalizada através de artigos científicos e é necessário que o acesso a estes seja o mais fácil e rápido possível. A área de pesquisa conhecida como Mineração de Textos (do inglês Text Mining), se propõe a enfrentar este problema ao procurar identificar novas informações e conhecimentos até então desconhecidos, em bases de dados textuais. Uma de suas tarefas é a descoberta de grupos de textos correlatos em base de dados textuais e esse problema é conhecido como agrupamento de textos (do inglês Text Clustering). Para este fim, a representação das bases de dados textuais comumente utilizada no agrupamento de textos é o Modelo Espaço-vetorial, no qual cada texto é representado por um vetor de características, que são as freqüências das palavras ou termos que nele ocorrem. O conjunto de vetores forma uma matriz denominada de documento-termo, que é esparsa e de alta dimensionalidade. Para atenuar os problemas decorrentes dessas características, normalmente é selecionado um subconjunto de termos, construindo-se assim uma nova matriz documento-termo com um número reduzido de dimensões que é então utilizada nos algoritmos de agrupamento. Este trabalho se desdobra em: i) introdução e implementação de dois algoritmos para seleção de termos e ii) avaliação dos algoritmos k-means, espectral e de particionamento de grafos, em cinco base de dados de textos previamente classificadas. As bases de dados são pré-processadas através de métodos descritos na literatura, produzindo-se as matrizes documento-termo. Os resultados indicam que os algoritmos de seleção propostos, para a redução das matrizes documento-termo, melhoram o desempenho dos algoritmos de agrupamento avaliados. Os algoritmos k-means e espectral têm um desempenho superior ao algoritmos de particionamento de grafos no agrupamento de bases de dados textuais, com ou sem a seleção de características.

Page generated in 0.0431 seconds