• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 358
  • 13
  • Tagged with
  • 371
  • 371
  • 358
  • 358
  • 358
  • 130
  • 86
  • 71
  • 66
  • 66
  • 66
  • 60
  • 50
  • 48
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
281

Reconhecimento quântico de padrões aplicados à sequências de DNA

BARROS, Patrícia Silva Nascimento 21 February 2011 (has links)
Submitted by (ana.araujo@ufrpe.br) on 2016-08-09T14:23:02Z No. of bitstreams: 1 Patricia Silva Nascimento.pdf: 1820001 bytes, checksum: f1196e1a5ad73d884c17e09610faf980 (MD5) / Made available in DSpace on 2016-08-09T14:23:02Z (GMT). No. of bitstreams: 1 Patricia Silva Nascimento.pdf: 1820001 bytes, checksum: f1196e1a5ad73d884c17e09610faf980 (MD5) Previous issue date: 2011-02-21 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Quantum computing is a recent area of research that encompasses three known areas: mathematics, physics and computing. With the research in quantum algorithms came the need to understand and express such algorithms in terms of programming. Several languages and programming models for high-level quantum have been proposed in recent years. Quantum mechanics (QM) is a set of mathematical rules that serve for the construction of physical theories, from its inception until the present day it has been applied in various branches. In this context we developed the Quantum Computation, perhaps the most spectacular proposal for practical implementation of QM. The difficulty in developing quantum algorithms provides the use of alternative techniques to the solution of purely algorithmic problems, such as machine learning and genetic algorithms. Carlo Trugenberger proposes a model of quantum associative memory which binary patterns of n bits are stored in a quantum superposition of an appropriate subset of the computational basis of n qubits. This model solves the problem of insufficient capacity of the well known classical associative memory, providing a large improvement in capacity. The distribution proposed by Trugenberger uses the Hamming distance, where the amplitudes have a peak in the stored patterns, which has smaller distance from the entrance. The accuracy of pattern recognition can be adjusted by the parameter b, in other words increasing b increases the probability of recognition. This study examines the genetic diversity of stingless bees Melipona quinquefasciata, obtained from several wild colonies in different localities of the Chapada do Araripe-CE, Chapada da Ibiapaba-CE, city’s Canto do Buriti-PI and Luziânia-GO. DNA sequences were processed by replacing A by 00, G by 01, C by 10 and T by 11. The results show that this probability is very efficient to recognize the patterns of DNA sequences of the stingless bees Melipona quinquefasciata regions 18S and ITS1 partial. The algorithm is not computationally efficient on a classical computer, but is extremely efficient on a quantum computer. It was concluded that this method of recognition of quantum standards is better than the classic method used by Pereira. / A computação quântica é uma área de pesquisa recente que engloba três áreas conhecidas: matemática, física e computação. Com as pesquisas na área de algoritmos quânticos veio a necessidade de entender e expressar tais algoritmos do ponto de vista de programação. Diversas linguagens e modelos para programação quântica de alto nível têm sido propostas nos últimos anos. A Mecânica Quântica (MQ) é um conjunto de regras matemáticas que servem para a construção de teorias físicas, desde a sua criação até os dias de hoje ela tem sido aplicada em diversos ramos. Neste contexto se desenvolveu a Computação Quântica, talvez a mais espetacular proposta de aplicação prática da MQ. A dificuldade de se desenvolver algoritmos quânticos propicia o uso de técnicas alternativas à solução de problemas puramente algorítmica, como por exemplo o aprendizado de máquinas e algoritmos genéticos. Carlo Trugenberger propõe um modelo de memória quântica associativa onde os padrões binários de n bits são armazenados em superposição com um subconjunto apropriado da base computacional de n qubits. Este modelo resolve o problema de escassez de capacidade bem conhecida da memória clássica associativa,provendo uma melhoria grande em capacidade. A distribuição proposta por Trugenberger usa a distância de Hamming, em que as amplitudes tem um pico nos padrões armazenados, que tem menor distância em relação à entrada. A precisão do reconhecimento de padrões pode ser ajustado por um parâmetro b, isto é, aumentando b aumenta a probabilidade de reconhecimento. Este trabalho analisa a diversidade genética das abelhas sem ferrão Melipona quinquefasciata, obtidas de várias colônias silvestres, em localidades distintas da Chapada do Araripe-CE, Chapada da Ibiapaba-CE, cidade do Canto do Buriti-PI e Luziânia-GO. As sequências de DNA foram transformados substituindo A por 00, G por 01, C por 10 e T por 11. Os resultados mostram que essa probabilidade é muito eficiente para reconhecer os padrões de sequências de DNA das abelhas sem ferrão Melipona quinquefasciata das regiões 18S e ITS1 parcial. O algoritmo não é computacionalmente eficiente em um computador clássico, mas será extremamente eficiente em um computador quântico. Concluiu-se que este método de reconhecimento quântico de padrões é melhor que o método clássico utilizado por Pereira.
282

Análise de correlação de longo alcance no registro da atividade elétrica cortical no fenômeno da depressão alastrante em ratos

NASCIMENTO, Rosângela Silveira do 29 February 2008 (has links)
Submitted by (ana.araujo@ufrpe.br) on 2016-08-12T14:04:00Z No. of bitstreams: 1 Rosangela Silveira do Nascimento.pdf: 1012353 bytes, checksum: b5f0d139481ab0bfdd6a1f689175c1f6 (MD5) / Made available in DSpace on 2016-08-12T14:04:00Z (GMT). No. of bitstreams: 1 Rosangela Silveira do Nascimento.pdf: 1012353 bytes, checksum: b5f0d139481ab0bfdd6a1f689175c1f6 (MD5) Previous issue date: 2008-02-29 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / In the present work we analyze the dynamics of electrical cortical activity during the phenomenon of spreading depression (DA) and during the periods before and after this phenomenon. The characteristic of DA is reduced amplitude of spontaneous electrical activity that occurs in neural tissue after the application of stimulus that can be electrical, chemical, mechanical, luminous etc. In order to study properties of time series of electrical cortical activity recorded by ECoG (electrocortiogram) before,during and after DA, we apply Detrended Fluctuation Analysis(DFA). This method is designed to quantify long term correlations (memory) in temporal series such ECoG register. The method was successfully applied in studies of DNA sequences and non-stationary time series as heart rate variability, stride intervals, financial time series etc. The application of DFA results in scaling exponentα that quantifies correlation properties of nonlinear dynamical systems. This experiment indicates if temporal series posses long term correlations. In this work we calculate exponent α for different intervals: control (before the stimulus), after the stimulus, during the avalanche, during DA and after DA for two experimental groups of rats, nourished and malnourished. For both experimental groups the values of exponent α indicates persistent behavior for all intervals except during the avalanche in which correlations degrade. The presence of long term correlations in physiological time series observed in healthy organisms represents complexity that guaranties the organism’s adaptability to stress and disease. The absence of correlations during the avalanche indicates the loss of this complexity. Non-parametric Wilcoxon test was used to compare mean values of exponents α for all intervals of analyzed time series. In cases of nourished rats, the mean values ofα are significantly different for control, stimulus, avalanche, DA and after-DA intervals. Wilcoxon test was also used to compare mean values of α for corresponding intervals for the two experimental groups. The result is significant difference in mean values of α for control, stimulus avalanche, DA and after DA intervals between two experimental groups. The hypothesis that α =0.5 for avalanche intervals was not rejected by test, confirming the loss of correlations in this phase. Comparison of mean values of α for different intervals (control, stimulus, DA and after DA) with avalanche using the Wilcoxon test results in significant difference between two groups. / O presente estudo se propõe a analisar a dinâmica da atividade elétrica cortical durante o fenômeno da depressão alastrante (DA) e nos períodos que antecede e sucede o fenomêno. A DA é caracterizada pela redução da amplitude da atividade elétrica espontânea que ocorre no tecido neural, após a aplicação de um estímulo de natureza elétrica, química, mecânica, luminosa e outros. Visando estudar o comportamento da série temporal da atividade elétrica cortical, registrada no ECoG (eletrocorticograma), durante a DA e nos períodos que precede e sucede o fenômeno, foi aplicado o método do DFA (Detrended Fluctuation Analysis). Este método permite quantificar a existência de correlação de longo alcance (memória) numa série temporal, como é o caso do registro do ECoG. Anteriormente, o método foi aplicado em seqüências de DNA e no estudo de séries temporais não estacionárias, tais como, dinâmica da variabilidade cardíaca, flutuações de eletroencefalograma de humanos, intervalos entre passos sucessivos de humanos, séries econômicas e outros. A aplicação do DFA numa série temporal permite a determinação de um expoente de escalonamento α, que pode contribuir para a compreensão das propriedades dos sistemas dinâmicos não lineares. Este expoenteα revela se a série temporal apresenta correlação de longo alcance ou não. Neste trabalho os expoentes α foram calculados nas fases de controle, estímulo, avalanche, DA e após a DA para o ECoG, em dois grupos experimentais, ratos nutridos e ratos desnutridos. Em ambos os grupos experimentais, os valores obtidos para o expoente de escalonamento α denotam que a série temporal do ECoG apresenta correlação persistente (comportamento da série no presente se mantém no futuro) em todas as fases do processo com exceção da avalanche, período no qual ocorre perda de correlação. A presença de correlação de longo alcance numa série temporal biológica é uma resposta sempre observada em organismos saudáveis cuja complexidade do sinal registrado garante a adaptabilidade do organismo a situações de estresse e/ou distúrbios. Enquanto a ausência de correlação, observada na avalanche, indica a perda de propriedades fractais nos sistemas fisiológicos. O uso do método não-paramétrico de Wilcoxon, para comparar os valores médios dos expoentes α obtidos para o grupo de animais nutrido, durante as fases de controle, estimulação, DA, após DA, revelou que essas diferentes fasesdiferem significativamente. Os valores médios dos expoentes α obtidos para o grupo de animais desnutrido, durante as fases de controle, estimulação, DA, após DA, também não foram significativamente diferentes, quando comparados pelo método de Wilcoxon. Na comparação dos valores médios de α nas fases de controle, estimulação, DA, após DA entre os dois grupos de animais (nutrido e desnutrido) o teste de Wilcoxon revelou que as médias dos expoentes α em cada fase para os animais nutridos diferem significativamente daquelas obtidas para os animais desnutridos. Na avalanche a hipótese de que o expoente α é igual a 0,5, não foi rejeitada pelo teste de Wilcoxon, ou seja, o teste confirmou a perda de correlação nessa fase. Na comparação entre as médias dos expoentes α nos diferentes intervalos (controle, estimulação, DA, após DA) com o valor do expoente α na avalanche, o teste de Wilcoxon acusou diferença significativa tanto no grupo dos nutridos como no grupo dos desnutridos.
283

Modelos lineares mistos: uma aplicação na produção de leite de vacas da raça Sindi

COSTA, Tadeu Rodrigues da 04 June 2010 (has links)
Submitted by (ana.araujo@ufrpe.br) on 2016-08-16T14:52:45Z No. of bitstreams: 1 Tadeu Rodrigues da Costa.pdf: 720363 bytes, checksum: 0d88c29d42226d845c07376db4760d92 (MD5) / Made available in DSpace on 2016-08-16T14:52:45Z (GMT). No. of bitstreams: 1 Tadeu Rodrigues da Costa.pdf: 720363 bytes, checksum: 0d88c29d42226d845c07376db4760d92 (MD5) Previous issue date: 2010-06-04 / Lactation curves graphically represent individual milk or dairy herd production during their lactation period and they carry an unquestionable importance in terms of understanding the behavior of that particular herd production, which is fundamental to take decisions over conditions of the herd. Among many Brazilian dairy breeds that exist nowadays, the Sindhi breed has a special role in milk production because of its adaptation to the hard semiarid climate, turning it into a feasible alternative for milk production in Brazil´s Northeast. Therefore, the deal of this work was to use a linear mixed model in a database of a Sindhi breed herd, in order to verify milk production and animals individual forecast of this herd. Furthermore, the analysis of the waste and the sensitivity to verify model adaptability were done. The main result was that mixed linear model was suitable to study the behavior of each animal and the prediction of milk production. / Curvas de lactação representam, de forma gráfica, a produção de leite individual ou de um rebanho durante seu período de lactação e carregam uma importância indiscutível no que tange o entendimento do comportamento da produção daquele determinado rebanho, sendo fundamental na tomada de decisões acerca das condições do rebanho. Dentre as muitas raças leiteiras existentes hoje no Brasil, a raça Sindi tem um papel especial na produção de leite por se adaptar à rigorosidade do clima semi-árido, tornando-se uma alternativa viável para a produção de leite no Nordeste.Nesse sentido, o objetivo desse trabalho foi o de aplicar um modelo linear misto em um banco de dados de um rebanho da raça Sindi, com o intuito de verificar a produção de leite e a previsão individual dos animais desse rebanho. Além disso, foi feita a análise de resíduos e sensibilidade para verificação da adequacidade do modelo. Como resultado principal, o modelo linear misto foi considerado adequado para estudar o comportamento individual de cada animal e a previsão da produção de leite.
284

Adaptabilidade e estabilidade de variedades de cana-de-açúcar em Alagoas e Pernambuco

GUIMARÃES, Ulisses Vieira 10 February 2010 (has links)
Submitted by (ana.araujo@ufrpe.br) on 2016-08-17T12:29:26Z No. of bitstreams: 1 Ulisses Vieira Guimaraes.pdf: 877634 bytes, checksum: cafb89d2c3ac8722437ff1ee2a838a65 (MD5) / Made available in DSpace on 2016-08-17T12:29:26Z (GMT). No. of bitstreams: 1 Ulisses Vieira Guimaraes.pdf: 877634 bytes, checksum: cafb89d2c3ac8722437ff1ee2a838a65 (MD5) Previous issue date: 2010-02-10 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / The objective of this study was to assess the magnitude of the interaction between genotypes of cane sugar and environments and the adaptability and stability to the character of total sugar recovered (TSR) using the methodology proposed by Wricke (1965), Eberhart and Russell (1966), Cruz, Torres and Vencovsky (1989) and Annic-chiarico (1992). It was evaluated eight genotypes of sugar cane cultivated in Usina Trapiche in the State of Pernambuco and Usina Serra Grande in the State of Ala-goas. The experimental design was a randomized block design with four blocks during the period 2004 to 2008, referring to cuts, sugarcane, ratoon, second ratoon cane and fourth leaf, respectively. It was observed differences among genotypes within each environment. The evaluation of genotypes, has highlighted the G8 genotype to obtain the average productivity of TSR above the overall average, adaptable and suitable for all types of environments, according to Eberhart and Russell (1966), Cruz et al. (1989) and Annichiarico (1992), and high stability by the methods listed above and Wricke (1965). The G5 was the most productive, adaptable to all types of envi-ronments, but as it presents low stability, its behavior is unpredictable. At unfavorable environments, the genotype G4 was the best, with high productivity and good rre-sponse to environmental changes. It was noted a strong association between the results of the methods Eberhart and Russell (1966) and Cruz et al. (1989), which are based on linear regression analysis and simple linear regression bissegmented re-spectively. The use of methods of adaptability and stability in combination can be interesting and add information about the performance of genotypes evaluated, how-ever, the use of these methods, based on the same statistic is not recomendable. / O objetivo deste trabalho foi o de avaliar a magnitude da interação entre genótipos de cana-de-açúcar e ambientes e a adaptabilidade e estabilidade para o caráter açúcares totais recuperados (ATR) por meio dos métodos propostos por Wricke (1965), Eberhart e Russell (1966), Cruz, Torres e Vencovsky (1989) e Annicchiarico (1992). Foram avaliados oito genótipos de cana-de-açúcar cultivados na Usina Trapiche no Estado de Pernambuco e Usina Serra Grande no Estado de Alagoas. O delineamento estatístico utilizado foi o de blocos ao acaso com quatro repetições durante o período de 2004 a 2008, referentes aos cortes: cana-planta, cana-soca, cana-ressoca e quarta folha, respectivamente. Verificou-se a existência de diferenças significativas entre os genótipos dentro de cada ambiente. Dos genótipos avalia-dos, tem-se em destaque o genótipo G8 por obter a média de produtividade de ATR acima da média geral, adaptável e recomendado para todos os tipos de ambientes, segundo os métodos Eberhart e Russel (1966), Cruz et al. (1989) e Annichiarico (1992), e alta estabilidade segundo os métodos já citados e Wricke (1965). O G5 foi o mais produtivo, adaptável a todos os tipos de ambientes, no entanto apresenta baixa estabilidade, isto é, seu comportamento é imprevisível. Em ambientes desfavoráveis, se destaca o genótipo G4, com alta produtividade e responde bem às mu-danças ambientais. Notou-se uma forte associação entre os resultados dos métodos Eberhart e Russell (1966) e Cruz et al. (1989), sendo estes baseados em análise de regressão linear simples e regressão linear bissegmentada, respectivamente. A utilização de métodos de análise de adaptabilidade e estabilidade de forma combinada pode ser interessante e agregar informações a respeito do comportamento dos genótipos avaliados, no entanto, o uso desses métodos, baseados em mesma estatística, é desaconselhável.
285

VCom : uma abordagem para modelagem de ambientes colaborativos

Rangel, Vinícius Gazzoli 17 January 2011 (has links)
Made available in DSpace on 2016-12-23T14:33:45Z (GMT). No. of bitstreams: 1 Dissertacao Vinicius Gazzoli Rangel.pdf: 3224178 bytes, checksum: d9fb1cdcd1e8bc9985da5d5f609b340e (MD5) Previous issue date: 2011-01-17 / First generation of web applications was responsible for the popularization of the network and the emergence of the first groups of Internet users. At that time, the web content was little interactive and web sites were limited in the aspects of configuration options and interface of the system. The Users were mere spectators of the actions that took place in the pages browsed, since they could not change its contents. Any additional functionality depended on the work of programming teams. With the advent of Web 2.0, the focus became the collective construction of knowledge. The essence is to allow users to become more active, not only through participation in interactive content generation, but also as the creation of virtual communities. Since then, Internet users are increasingly getting interested in the construction of environments that take advantage of the interactivity, of the authorship and of the semantic retrieval promoted by web, and various technological aspects. From the perspective of computing in education, efforts are noticeable in the production of educational software and virtual environments to support learning, especially with support for authoring tools and interaction such as chat, wiki, blog and forum. The educational activities supported by digital resources has highlighted the lack of flexibility in environments whose modeling is focused on tools, compromising the support for different activities proposed. This work proposes a approach for modeling of collaborative environments, through the design of Communication Vehicles. With these vehicles, it should be possible, to individuals or groups, organize and describe workspaces on the web by defining a set of structural properties. The validation of this proposal is made through a prototype of an editor Communication Vehicles, which provides a range of facilities to design vehicles without requiring the use of textual programming languages / A primeira geração de aplicações para web foi responsável pela popularização da rede e pelo surgimento dos primeiros grupos de internautas. Nesta época, o conteúdo web era pouco interativo e os sites eram limitados quanto aos aspectos de opções de configuração e interface do sistema. Os usuários eram meros espectadores das ações que aconteciam nas páginas que navegavam, já que não podiam alterar seu conteúdo. Qualquer funcionalidade adicional dependia do trabalho das equipes de programação. Com o advento da Web 2.0, o foco se tornou a construção coletiva do conhecimento. A essência é permitir que os usuários se tornem mais ativos, através não só da participação interativa na geração de conteúdo, como também da criação de comunidades virtuais. Desde então, os internautas vêm se interessando cada vez mais pela construção de ambientes que aproveitem a interatividade, a autoria e a recuperação semântica promovida pela web, além de vários aspectos tecnológicos. Do ponto de vista da informática na educação, notam-se iniciativas na produção de softwares educacionais e ambientes virtuais de apoio à aprendizagem, principalmente com suporte a ferramentas de autoria e interação, como chat, wiki, blog e fórum. As atividades pedagógicas apoiadas por recursos digitais têm evidenciado a carência de flexibilidade em ambientes cuja modelagem é centrada em ferramentas, comprometendo o suporte a diferentes atividades propostas. Este trabalho propõe uma abordagem para modelagem de ambientes colaborativos, por meio da concepção de Veículos de Comunicação. Com esses veículos, deverá ser possível, a indivíduos ou grupos, organizarem e descreverem espaços de trabalho na web pela definição de um conjunto de propriedades estruturais. A validação desta proposta faz-se por meio de um protótipo de um editor de Veículos de Comunicação, que disponibiliza um conjunto de facilidades para projetar veículos sem a necessidade de uso de linguagens de programação textuais
286

Mineração de Dados Educacionais: Previsão de notas parciais utilizando classificação

Sousa, Marília Maria Bastos de Araújo Cavalcanti Feitosa Fava de, 92981772658 29 September 2017 (has links)
Submitted by Marília Sousa (mariliamariafeitoza@gmail.com) on 2018-07-26T12:25:36Z No. of bitstreams: 3 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertação Marília.pdf: 1106096 bytes, checksum: 5f4d3a102f590e08a72c6af9ef02d2e4 (MD5) folha de aprovação.pdf: 114224 bytes, checksum: 83acb0aa4ff29dd5cc1364b9b391ac77 (MD5) / Approved for entry into archive by Secretaria PPGI (secretariappgi@icomp.ufam.edu.br) on 2018-07-26T18:20:47Z (GMT) No. of bitstreams: 3 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertação Marília.pdf: 1106096 bytes, checksum: 5f4d3a102f590e08a72c6af9ef02d2e4 (MD5) folha de aprovação.pdf: 114224 bytes, checksum: 83acb0aa4ff29dd5cc1364b9b391ac77 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2018-07-27T12:39:14Z (GMT) No. of bitstreams: 3 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertação Marília.pdf: 1106096 bytes, checksum: 5f4d3a102f590e08a72c6af9ef02d2e4 (MD5) folha de aprovação.pdf: 114224 bytes, checksum: 83acb0aa4ff29dd5cc1364b9b391ac77 (MD5) / Made available in DSpace on 2018-07-27T12:39:15Z (GMT). No. of bitstreams: 3 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertação Marília.pdf: 1106096 bytes, checksum: 5f4d3a102f590e08a72c6af9ef02d2e4 (MD5) folha de aprovação.pdf: 114224 bytes, checksum: 83acb0aa4ff29dd5cc1364b9b391ac77 (MD5) Previous issue date: 2017-09-29 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The present work introduces the Educational Data Mining and an experiment involving prediction of partial exams. The experiment uses data of the Introduction to Computer Programming course of the Federal University of Amazonas and seeks to classify the students according to their grade, in a maximum of three classes: satisfactory, unsatisfactory and without concept (dropout students). As conclusion, there is a quantitative analysis with the predictive data. / O presente trabalho tem o intuito de apresentar a Mineração de Dados Educacionais e um experimento envolvendo previsão de provas parciais. O experimento é realizado através dos dados da disciplina de Introdução à Programação de Computadores da Universidade Federal do Amazonas e busca classificar os alunos de acordo com as notas obtidas, em no máximo três classes: satisfatório, insatisfatório e sem conceito (alunos evadidos). Como conclusão, tem-se uma análise quantitativa com os dados da previsão.
287

Verificação formal aplicada à análise de confiabilidade de sistemas hidráulicos / Formal verification applied to reliability analysis of hydraulic systems

Bozz, Claudia Beatriz 26 July 2018 (has links)
Submitted by Wagner Junior (wagner.junior@unioeste.br) on 2018-11-30T17:04:04Z No. of bitstreams: 2 Claudia_Beatriz_Bozz_2018.pdf: 4791914 bytes, checksum: 0affba2e984ec7e6beefa83d0c3bdfeb (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-11-30T17:04:04Z (GMT). No. of bitstreams: 2 Claudia_Beatriz_Bozz_2018.pdf: 4791914 bytes, checksum: 0affba2e984ec7e6beefa83d0c3bdfeb (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2018-07-26 / Real time systems that have continuous behavior associated with discrete elements are called hybrid systems. Among them, in this master’s research, a hydraulic system has been chosen as an object of study in order to perform the reliability analysis of it through modeling and formal verification. Much as several models for the reliability analysis of complex systems have been proposed in the literature, most of them are not suitable to represent the system when its behavior needs to be expressed by means of continuous variables, like the case of hybrid systems. Generally, simulation and experimental testing are used to analyze systems, and they give only approximate results from a large amount of samples. To eliminate the limitations of these techniques, the formal verification is an effective alternative, since it is characterized by performing a sweep in all possible states of the system automatically, verifying the behavior as a whole. The UPPAAL STRATEGO toolkit for modelling by stochastic hybrid automata and model checking has been used in this work, both classic formal verification and statistical formal verification. A benckmark has been used as object of study. Initially, the system has been modelling and its behavior (physical and controlled) verified through simulation and formal verification (property specification and model checking). The reliability parameters obtained in the statistical analysis of the system failures have been compared with results of literature, presenting a dispersion less than 2.5%, so it can be verify that the methodology used and the models constructed were adequate to analyze the reliability of this system hybrid.In a second step of this work, the probability distribution of failure of the components have been modified, in order to become the system more reliable with real hydraulic systems, and estimate the optimum mean time between maintenance (MTBM) of this system. Thus, it’s possible to conclude that the methodology is adequate to perform the reliability analysis of the hydraulic system, being that model checking is effective to estimate the reliability parameters of the hydraulic system. / Sistemas de tempo real que possuem comportamento contínuo associado com elementos de características discretas são chamados de sistemas híbridos. Dentre estes, nesta pesquisa de mestrado, optou-se pelo emprego de um sistema hidráulico como objeto de estudo a fim de realizar a análise de confiabilidade do mesmo a partir de modelagem e verificação formal. Por mais que diversos modelos para a análise de confiabilidade de sistemas complexos tenham sido propostos na literatura, a maioria não são adequados para representar sistemas em que o comportamento é expresso em variáveis contínuas, como é o caso dos sistemas híbridos. De modo geral, para a análise de sistemas, a simulação e os testes experimentais são comumente utilizados, e geram apenas resultados aproximados a partir de uma grande quantidade de amostras. Para eliminar as limitações destas técnicas, a verificação formal é uma alternativa eficaz, visto que é caracterizada por realizar uma varredura em todos os estados possíveis do sistema de forma automática, verificando o comportamento como um todo do mesmo. Neste trabalho, foi utilizada a ferramenta computacional UPPAAL STRATEGO para a modelagem por autômatos estocásticos híbridos e verificação dos modelos, tanto verificação formal clássica como estatística. Um modelo padrão (benchmark) foi utilizado como objeto de estudo. Inicialmente o sistema foi modelado e seu comportamento (físico e controlado) verificado através da simulação e verificação formal (especificação de propriedades e verificação de modelos). Os parâmetros de confiabilidade obtidos na análise estatística de falha do sistema foram comparados com outros existentes na literatura, apresentado uma dispersão inferior a 2,5%, logo pôde se verificar que a metodologia empregada e os modelos construídos foram adequados para análise de confiabilidade deste sistema hibrido. Em uma segunda etapa do trabalho, foi modificada a distribuição de probabilidade de falha dos componentes, a fim de tornar o sistema mais fidedigno com sistemas hidráulicos reais, e estimar o tempo médio entre manutenções (MTBM – Mean Time Between Maintenance) ideal deste sistema. Portanto, conclui-se que a metodologia empregada foi adequada para realizar a análise de confiabilidade do sistema hidráulico, sendo efetivo levantar os parâmetros de confiabilidade através da verificação de modelos.
288

Compressão de imagens utilizando análise de componentes independentes / COMPRESSION FOR IMAGE ANALYSIS USING INDEPENDENT COMPONENTS

Sousa Junior, Carlos Magno 20 March 2007 (has links)
Made available in DSpace on 2016-08-17T14:53:09Z (GMT). No. of bitstreams: 1 Carlos Magno.pdf: 663844 bytes, checksum: a783e1b5874266e0e7bca44dc3f315ae (MD5) Previous issue date: 2007-03-20 / Redundancy is an old issue in data compression research. Compression methods that use statistics have been heavily influenced by neuroscience research. In this work, we propose an image compression system based on the efficient coding concept derived from neural information processing models. The system performance is compared with discrete cosine transform (DCT) and principal components analysis (PCA) results at several compression ratios (CR). Evaluation through both objective measurements and visual inspection showed that the proposed system is more robust to distortions such as blocking artifacts than DCT and PCA. / A redundância é um assunto antigo em pesquisa sobre compressão de dados. Os métodos de compressão de dados que usam estatísticas foram recentemente influenciados pelas pesquisas em neurociência. Neste trabalho, propomos um sistema de compressão de imagem baseado no conceito de codificação eficiente derivado dos modelos de processamento da informação neural. O desempenho do sistema é comparado aos resultados da transformada discreta cosseno (DCT) e análise de componentes principais (PCA) com a mesma taxa de compressão (CR). A avaliação através das medidas objetiva e visual mostrou que o sistema proposto apresentou menos distorções, tais como artefatos de blocos do que a DCT e PCA.
289

Stormsom: clusterização em tempo-real de fluxos de dados distribuídos no contexto de BigData

LIMA, João Gabriel Rodrigues de Oliveira 28 August 2015 (has links)
Submitted by camilla martins (camillasmmartins@gmail.com) on 2017-01-27T16:34:20Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_StormsomClusterizacaoTempo-Real.pdf: 1081222 bytes, checksum: 30261425224872c11433d064abb4a2d8 (MD5) / Approved for entry into archive by Edisangela Bastos (edisangela@ufpa.br) on 2017-01-30T13:30:32Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_StormsomClusterizacaoTempo-Real.pdf: 1081222 bytes, checksum: 30261425224872c11433d064abb4a2d8 (MD5) / Made available in DSpace on 2017-01-30T13:30:32Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_StormsomClusterizacaoTempo-Real.pdf: 1081222 bytes, checksum: 30261425224872c11433d064abb4a2d8 (MD5) Previous issue date: 2015-08-28 / Cresce cada vez mais a quantidade de cenários e aplicações que algoritmo necessitam de processamento e respostas em tempo real e que se utilizam de modelos estatísticos e de mineração de dados a fim de garantir um melhor suporte à tomada de decisão. As ferramentas disponíveis no mercado carecem de processos computacionais mais refinados que sejam capazes de extrair padrões de forma mais eficiente a partir de grandes volumes de dados. Além disso, há a grande necessidade, em diversos cenários, que o os resultados sejam providos em tempo real, tão logo inicie o processo, uma resposta imediata já deve estar sendo produzida. A partir dessas necessidades identificadas, neste trabalho propomos um processo autoral, chamado StormSOM, que consiste em um modelo de processamento, baseado em topologia distribuída, para a clusterização de grandes volumes de fluxos, contínuos e ilimitados, de dados, através do uso de redes neurais artificiais conhecidas como mapas auto-organizáveis, produzindo resultados em tempo real. Os experimentos foram realizados em um ambiente de computação em nuvem e os resultados comprovam a eficiência da proposta ao garantir que o modelo neural utilizado possa gerar respostas em tempo real para o processamento de Big Data.
290

Desenvolvimento e validação de novos métodos de distribuição da população inicial em algoritmos genéticos para o problema de docking proteína-ligante / Development and validation of new methods of distribution of initial population on genetic algorithms for the problem of protein-ligand docking

Gonçalves, Reinaldo Bellini 05 June 2008 (has links)
Made available in DSpace on 2015-03-04T18:51:00Z (GMT). No. of bitstreams: 1 thesis.pdf: 1380737 bytes, checksum: b13fc1ab9cd11eb3900d2a9edd2a9131 (MD5) Previous issue date: 2008-06-05 / Coordenacao de Aperfeicoamento de Pessoal de Nivel Superior / The methods of protein-ligand docking are computational methods usedto predict the mode of binding of molecules into drug candidates for its receptor. The docking allows tests of hundreds of compounds in ashort space of time, assisting in the discovery of new drug candidates. The great complexity that involves the binding of protein-ligand complex, makes the problem of docking computationally difficult to be solved. In this work, we used the Genetic Algorithms which is a technique of optimization based on the theory of biological evolution of Darwin. The proposed algorithm was implemented and tested initially by Camila S. de Magalhães in her doctoral thesis, with the Group of Molecular Modeling of Biological Systems at LNCC, with a range of 5 ligands of HIV-1 protease. It was built a new set used for test with 49 structures with several physico-chemical properties, distributed in 22 different families of protein, allowing for a broader test of the algorithm It was conducted a detailed study of the dependence of the genetic algorithm in relation to the distribution of its initial population and it was also investigated ways more efficient and robust to generate the same. Among these, the proposal to distribute the initial population based on the coordinates of individuals of lower energy in the population (proposal 5), it is very promising. This distribution has allowed the algorithm to obtain good results, finding solutions of lower energy in the population very close to experimental structure optimized, without having specific information about the experimental structure. This fact is very important, because the algorithm makes it more realistic in view that in the rational design of drugs, it has not the trial structure. / Os métodos de docking proteína-ligante, são métodos computacionais usados para predizer o modo de ligação de moléculas candidatas a fármaco em seu receptor. O docking permite o teste de centenas de compostos em um curto espaço de tempo, auxiliando na descoberta de novos candidatos a fármacos. A grande complexidade que envolve a ligação do complexo ligante-proteína, torna o problema de docking difícil de ser resolvido computacionalmente. Neste trabalho, são usados os Algoritmos Genéticos, que são uma técnica de otimização baseada na teoria da evolução biológica de Darwin. O algoritmo proposto foi implementado e testado inicialmente por Camila S. de Magalhães em sua tese de doutorado, junto ao Grupo de Modelagem Molecular de Sistemas Biológicos do LNCC, com um conjunto de 5 ligantes de HIV-1 protease. Foi construido um novo conjunto utilizado para teste, agora com 49 estruturas com propriedades físico-químicas diversas, distribuidos em 22 famílias distintas de proteínas, permitindo um teste mais amplo do algoritmo. Foi realizado um estudo aprofundado sobre a dependência do Algoritmo Genético em relação à distribuição da sua população inicial e investigou-se formas mais eficientes e robustas de gerar a mesma. Dentre estas, a proposta de distribuir a população inicial baseada nas coordenadas dos indivíduos de menor energia na população (proposta 5), é muito promissora. Esta distribuição permitiu o algoritmo obter bons resultados, encontrando soluções de menor energia na população muito próximas a estrutura experimental otimizada, sem possuir informações específicas sobre a estrutura experimental. Este fato é muito importante, pois torna o algoritmo mais realista, tendo em vista que no desenho racional de fármacos real não se dispoe da estrutura experimental.

Page generated in 0.0425 seconds