131 |
Um modelo parametriz?vel de consumo de energia para estimativas de desempenho em redes de sensores visuais sem fioCerqueira, Marcos Vinicius Bi?o 27 March 2018 (has links)
Submitted by Verena Pereira (verenagoncalves@uefs.br) on 2018-07-09T21:47:13Z
No. of bitstreams: 1
Dissertacao__final.pdf: 1378964 bytes, checksum: 0688c8e1f2a03519ff40f07649e30868 (MD5) / Made available in DSpace on 2018-07-09T21:47:13Z (GMT). No. of bitstreams: 1
Dissertacao__final.pdf: 1378964 bytes, checksum: 0688c8e1f2a03519ff40f07649e30868 (MD5)
Previous issue date: 2018-03-27 / Funda??o de Amparo ? Pesquisa do Estado da Bahia - FAPEB / Wireless Sensor Networks (WSN) are composed of several devices, powered by bat- teries, distributed by the monitored area, where the use of internet networks is not applied. They have been gaining a lot of space because of the flexibility of appli- cations and their low implementation cost. With the improvement and cheapening of sensors equipped with cameras, and with their integration with the WSN, the Wireless Visual Sensors Networks (WVSN) have appeared, increasing, thus, the possibilities of possible applications. However, visual data demand greater proces- sing in their actions, potentially generating a greater energy consumption, making it necessary to better evaluate the useful life for the network. Therefore, this paper proposes to develop a mathematical model suitable for wireless visual sensor network that can estimate energy consumption. In addition, a tool was developed that im- plemented the proposed model, which in turn, was promising, obtaining satisfactory results, mainly in the area of image capture / Redes de Sensores Sem Fio (RSSF) s?o compostas por v?rios dispositivos, alimentados por baterias, distribu?dos pela ?rea monitorada, onde o uso de redes de internet n?o ? aplicado. Elas v?m ganhando muito espa?o devido a flexibilidade de aplica??es e do seu baixo custo de implementa??oo. Com o melhoramento e barateamento de sensores equipados com c?meras, e com a sua integra??o com as RSSF, surgiram as Redes de Sensores Visuais em Fio (RSVSF), aumentando, assim, as possibilidades de aplica??es poss?veis. Todavia, dados visuais demandam maior processamento em suas a??es, gerando potencialmente um maior consumo energ?tico, fazendo-se ent?o necess?rio uma melhor avalia??o do tempo de vida ?til para a rede. Portanto, esse trabalho se prop?e a desenvolver um modelo matem?tico pr?prio para rede de sensores visuais sem fio que possa estimar consumo de energia. Al?m disso, foi desenvolvido uma ferramenta que implementasse o modelo proposto. O modelo proposto se mostrou promissor, obtendo resultados satisfat?rios, principalmente no quesito de captura de imagens
|
132 |
Uma Linguagem de Domíınio Específico para Programação de Memórias Transacionais em JavaEchevarria, Marcos Gonçalves 25 March 2010 (has links)
Made available in DSpace on 2016-03-22T17:26:23Z (GMT). No. of bitstreams: 1
Dissertacao_de_Mestrado_II_Marcos_Echevarria.pdf: 448582 bytes, checksum: ee87f1f43559b95302ad2f21fa2813e7 (MD5)
Previous issue date: 2010-03-25 / As arquiteturas multi-core influenciam diretamente no desenvolvimento de software.
Para que os programas possam tirar proveito dessas arquiteturas ´e necess´ario que
estes possuam v´arias atividades concorrentes e que possam ser alocadas aos cores dispon
´ıveis. Programas concorrentes para m´aquinas multi-core s ao geralmente implementados
usando threads e se comunicam atrav´es de uma mem´oria compartilhada. Para evitar
que threads interfiram de maneira errada no trabalho de outras threads, as linguagens fornecem
mecanismos de sincronizac¸ ao, como por exemplo bloqueios. Mas sincronizac¸ oes
baseadas em bloqueios apresentam algumas armadilhas que dificultam a programac¸ ao e
s ao propensas a erros (PEYTON JONES, 2007; HERLIHY; MOSS, 1993).
Mem´orias transacionais fornecem um novo modelo de controle de concorr encia
que n ao apresenta as mesmas dificuldades encontradas no uso de bloqueios. Elas trazem
para a programac¸ ao concorrente os conceitos de controle de concorr encia usados
h`a d´ecadas pela comunidade de banco de dados. Construc¸ oes em linguagens transacionais
s ao f´aceis de serem usadas e podem gerar programas altamente escal´aveis (ADLTABATABAI;
KOZYRAKIS; SAHA, 2006).
O objetivo deste trabalho ´e apresentar a linguagem CMTJava. CMTJava ´e uma
linguagem de dom´ınio espec´ıfico para programac¸ ao de mem´orias transacionais em Java e
foi criada visando facilitar a programac¸ ao de m´aquinas multi-core. Seu sistema foi todo
desenvolvido em Java e a forma de implementac¸ ao pode ser aplicada em qualquer outra
linguagem orientada a objetos que suporte closures, como por exemplo C#.
CMTJava faz uso das chamadas m onadas para compor ac¸ oes transacionais. Ac¸ oes
transacionais podem ser combinadas para gerar novas transac¸ oes e vale ressaltar que o
sistema de tipos da linguagem CMTJava garante que ac¸ oes transacionais somente ser ao
executadas atrav´es da primitiva atomic. CMTJava apresenta todas as construc¸ oes de
mem´orias transacionais (atomic, retry, OrElse) e ´e a primeira extens ao Java para
transac¸ oes que suporta a construc¸ ao OrElse
|
133 |
Um Modelo de Agente Econômico Cognitivo em um Sistema Microeconômico com Base no Conceito de Agentes BDIJeannes, Fernanda Mendez 22 December 2009 (has links)
Made available in DSpace on 2016-03-22T17:26:24Z (GMT). No. of bitstreams: 1
Dissertacao II Fernanda.pdf: 5870886 bytes, checksum: 38e862a3e70d2150160467fa6341965c (MD5)
Previous issue date: 2009-12-22 / Simulações sociais em sistemas de agentes têm sido um tema presente na comunidade
de Inteligência Artificial. O presente trabalho aborda estudos de conceitos relativos
a um sistema microeconômico para modelagem de agentes econômicos cognitivos, com
comportamento de consumidor e de produtor, com base no conceito do modelo de agentes
BDI. A fim de destacar a importância desta modelagem, trabalhos relacionados à área
de pesquisa são examinados, enfatizando a originalidade deste modelo de agente econômico
cognitivo. Também são apresentados conceitos básicos inerentes a esta modelagem,
tais como: trocas sociais e econômicas, e as interações entre os agentes. O conteúdo de
microeconomia apresentado aborda os conceitos básicos de mercado e dos modelos de
consumidor e de produtor utilizados na modelagem. Do mesmo modo, é apresentado um
estudo do modelo de agentes BDI para a modelagem de agentes reativos e cognitivos.
Estudos sobre um modelo básico de comportamento do consumidor, o processo de tomada
de decisão e formação de comportamento e sobre Teoria da Firma são apresentados
para embasar o comportamento dos agentes. Por fim, o modelo de um agente econômico
cognitivo, com comportamento de consumidor e de produtor, é apresentado, bem como
os resultados da simulação de um mercado com quatro agentes econômicos cognitivos
|
134 |
Análise do uso dos laboratórios de experimentação remota como ferramenta de apoio à aprendizagemSilva, Raiane Silveira da 28 August 2015 (has links)
Esse trabalho apresenta três artigos científicos relacionados ao uso de
ferramentas tecnológicas de apoio à aprendizagem, com ênfase no uso de
laboratórios de experimentação remota. O primeiro artigo traz uma pesquisa
bibliográfica e observatória sobre as dificuldades do uso das ferramentas de apoio
à aprendizagem. O segundo artigo trata-se de estudo exploratório que faz uma
análise da revisão da literatura sobre a utilização da experimentação remota como
ferramenta de aprendizagem. Essa análise foi realizada com a execução de
passos necessários e bem estruturados, com critérios bem definidos e
criticamente avaliados, através da identificação de estudos em oito bases de
dados diferentes. O terceiro artigo relata a experiência do uso da experimentação
remota em uma aula da disciplina de física para alunos do ensino médio que
vivem e estudam na Comunidade Quilombola Lagoa da Pedra em Arraias (TO). O
objetivo desse estudo específico foi observar o comportamento e os relatos dos
alunos e professores durante a apresentação do laboratório de experimentação
remota. A experimentação remota é baseada em ambientes que são laboratórios
experimentais convencionais que passaram por um processo de automatização
para que pudessem ser controlados remotamente através de dispositivos
computadorizados. Os projetos de experimentação remota foram criados como
uma alternativa a experimentos baseados em simulações ou na utilização de
laboratórios tradicionais. Os experimentos remotos são mediados por
computador, e podem ser executados em qualquer lugar, como nas simulações,
porém em um laboratório remoto o aluno está controlando um aparato físico real,
e obtém dados reais de uma experiência física. Diante da possibilidade da
utilização de simuladores ou laboratórios tradicionais, este estudo tem o objetivo
de analisar o uso da experimentação remota como instrumento de ensino. A
Experimentação Remota possibilita à distância e em tempo real, a utilização de
experimentos laboratoriais com recursos não existentes na escola, e que são
essenciais aos alunos para aprofundar o conhecimento teórico com experiências
práticas. Diante dos resultados obtidos, apresenta-se a contribuição da pesquisa
e os ganhos significativos no processo de ensino e aprendizagem, e a importância
VIII da inclusão de Tecnologias Educacionais em comunidade sem grandes recursos
tecnológicos. / This work presents three papers related to the use of technology to support
learning tools, with emphasis on the use of remote experimentation laboratories.
The first article provides a literature search and observatory on the difficulties in
the use of learning support tools. The second article deals with is an exploratory
study that analyzes the literature review on the relevance of the use of remote
experimentation as a learning tool. The remote experimentation is based on
environments that are conventional laboratory experiments that have gone
through an automation process so that they could be remotely controlled by
computerized devices. The remote experimentation projects were created as an
alternative to experiments or simulations based on the use of traditional
laboratories. Remote experiments are mediated by computer, and can be
performed anywhere, as in the simulations, but in a remote lab the student is
controlling a real physical apparatus, and get real data from a physical experience.
Faced with the possibility of using simulators or traditional laboratories, this study
aims to verify the relevance of the use of remote experimentation as a teaching
tool. The literature review was performed with the execution of necessary and
well-structured steps, with clear criteria and critically assessed, through the
identification studies in eight different databases. The second paper describes the
experience of using remote experimentation in a class of physical discipline for
high school students who live and study in the Community Quilombola Lagoa da
Pedra in city of Arraias (TO). The aim of this study was to observe the behavior
and reports of students and teachers during the presentation of remote
experimentation lab. Remote Testing enables remotely and in real time, using
laboratory experiments with non-existing resources in school, and that are
essential for students to deepen their theoretical knowledge with practical
experience. Based on these results, we present the research contribution and
significant gains in teaching and learning process, and the importance of inclusion
of Educational Technologies in community without major technological resources.
Keywords: Remote Testing, Tools for learning, educational technologies.
|
135 |
Sistema de rastreamento de múltiplos alvos sob restrições de conectividadeCarvalho, Rafael Lima de 30 March 2016 (has links)
A primeira parte deste trabalho lida com o problema de posicionar um grupo de agentes retransmissores (relays) de forma a dar conectividade a um segundo grupo de agentes ativos (pursuers). A primeira abordagem apresentada consiste em modelar o cenário como um problema de programação quadrática (PPQ) com restrições lineares, usando uma estrutura de conectividade fixa. Para resolver o modelo proposto, foi implementada uma rede neural recorrente a qual converge rapidamente para a solução ótima do problema, mesmo em instâncias razoavelmente grandes. Como forma de avaliação, realizou-se um comparativo entre o solver de PPQ da plataforma Matlab e a rede proposta, também implementada na mesma plataforma. Na segunda abordagem foi proposto o uso de uma estimativa da conectividade algébrica do grafo de proximidade gerado pela rede, para direcionar o grupo de relays e pursuers, usando-se apenas as informações da vizinhança de cada agente. Nesta abordagem a estrutura do grafo é dinâmica, além disso, como proposta de paralelização, a esta solução distribuída foi acoplada um algoritmo de escalonamento por reversão de arestas (SER). Além do mais, as metaheurísticas Simulated Annealing, Genetic Algorithms, Particle Swarm Optimization e Backtracking Search Algorithm foram implementadas como alternativas de soluções ao problema. As soluções são avaliadas em um cenário de perseguição de alvos, os quais podem possuir comportamentos reativos (tais como fugir dos perseguidores). A segunda parte deste trabalho investiga o problema de rastreamento de múltiplos objetos em tempo real. Como solução, foi proposto um algoritmo que se baseia em memória de curto e longo prazo usando redes neurais sem peso. / The first part of this work deals with the problem of positioning a swarm of relay agents with the objective of providing connectivity to a second group of active agents (pursuers). The first approach consists of modelling the considered scenario as a quadratic programming problem (QP) with linear restrictions, using a fixed graph structure. In order to solve such model, a recurrent neural network is proposed with fast convergence rate to the optimal solution, even with reasonably big size instances. In addition, a comparison with the Matlab QP solver has been conducted in some experimental simulations. In the second approach, it is proposed an estimation of the algebraic connectivity of the underlying graph generated by the network. Over this estimation, it is proposed a metric to direct the group of relays and pursuers, using only local neighbourhood information of each agent. On this approach, the graph structure is dynamic and it is also proposed the use of the schedule by edge reversal (SER) as a solution to ordering the parallelization of the robot positioning computation. Moreover, the meta-heuristics Simulated Annealing, Genetic Algorithms, Particle Swarm Optimization and Backtracking Search Algorithm have been applied as alternative solution providers. The proposed solutions have been applied in a target pursuit scenario, for which the targets are deployed in different spots and may have some reactive behaviours (such as escape from the pursuers).The second part of this work investigates the visual tracking of shape shift objects in real time. As a solution, it is proposed a short- and long-time memories tracker which uses a weightless neural network for training and retraining the objects patterns.
|
136 |
Exploring Transfer Learning via Convolutional Neural Networks for Image Classification and Super-ResolutionRibeiro, Eduardo Ferreira 22 March 2018 (has links)
This work presents my research about the use of Convolutional Neural Network (CNNs) for
transfer learning through its application for colonic polyp classification and iris super-resolution.
Traditionally, machine learning methods use the same feature space and the same distribution
for training and testing the tools. Several problems in this approach can emerge as, for example,
when the number of samples for training (especially in a supervised training) is limited. In the
medical field, this problem is recurrent mainly because obtaining a database large enough with
appropriate annotations for training is highly costly and may become impractical. Another
problem relates to the distribution of textural features in a image database which may be too
large such as the texture patterns of the human iris. In this case a single and specific training
database might not get enough generalization to be applied to the entire domain. In this work
we explore the use of texture transfer learning to surpass these problems for two applications:
colonic polyp classification and iris super-resolution.
The leading cause of deaths related to intestinal tract is the development of cancer cells
(polyps) in its many parts. An early detection (when the cancer is still at an early stage) can
reduce the risk of mortality among these patients. More specifically, colonic polyps (benign tumors
or growths which arise on the inner colon surface) have a high occurrence and are known
to be precursors of colon cancer development. Several studies have shown that automatic detection
and classification of image regions which may contain polyps within the colon can be
used to assist specialists in order to decrease the polyp miss rate.
However, the classification can be a difficult task due to several factors such as the lack or
excess of illumination, the blurring due to movement or water injection and the different appearances
of polyps. Also, to find a robust and a global feature extractor that summarizes and
represents all these pit-patterns structures in a single vector is very difficult and Deep Learning
can be a good alternative to surpass these problems.
One of the goals of this work is show the effectiveness of CNNs trained from scratch for
colonic polyp classification besides the capability of knowledge transfer between natural images
and medical images using off-the-shelf pretrained CNNs for colonic polyp classification. In this
case, the CNN will project the target database samples into a vector space where the classes are
more likely to be separable.
The second part of this work dedicates to the transfer learning for iris super-resolution. The
main goal of Super-Resolution (SR) is to produce, from one or more images, an image with a
higher resolution (with more pixels) at the same time that produces a more detailed and realistic
image being faithful to the low resolution image(s). Currently, most iris recognition systems
require the user to present their iris for the sensor at a close distance. However, at present, there
is a constant pressure to make that relaxed conditions of acquisitions in such systems could be
allowed. In this work we show that the use of deep learning and transfer learning for single
image super resolution applied to iris recognition can be an alternative for Iris Recognition of
low resolution images. For this purpose, we explore if the nature of the images as well as if the
pattern from the iris can influence the CNN transfer learning and, consequently, the results in
the recognition process. / Diese Arbeit pr¨asentiert meine Forschung hinsichtlich der Verwendung von ”Transfer-Learning”
(TL) in Kombination mit Convolutional Neural Networks (CNNs), um dadurch die Klassifikation
von Dickdarmpolypen und die Qualit¨at von Iris Bildern (”Iris-Super-Resolution”) zu
verbessern.
Herk¨ommlicherweise verwenden Verfahren des maschinellen Lernens den gleichen Merkmalsraum
und die gleiche Verteilung zum Trainieren und Testen der abgewendeten Methoden.
Mehrere Probleme k¨onnen bei diesem Ansatz jedoch auftreten. Zum Beispiel ist es
m¨ oglich, dass die Anzahl der zu trainierenden Daten (insbesondere in einem ”supervised training”
Szenario) begrenzt ist. Im Speziellen im medizinischen Anwendungsfall ist man regelm¨aßig
mit dem angesprochenen Problem konfrontiert, da die Zusammenstellung einer Datenbank,
welche ¨ uber eine geeignete Anzahl an verwendbaren Daten verf ¨ ugt, entweder sehr kostspielig
ist und/oder sich als ¨ uber die Maßen zeitaufw¨andig herausstellt. Ein anderes Problem betrifft
die Verteilung von Strukturmerkmalen in einer Bilddatenbank, die zu groß sein kann, wie es
im Fall der Verwendung von Texturmustern der menschlichen Iris auftritt. Dies kann zu dem
Umstand f ¨ uhren, dass eine einzelne und sehr spezifische Trainingsdatenbank m¨oglicherweise
nicht ausreichend verallgemeinert wird, um sie auf die gesamte betrachtete Dom¨ane anzuwenden.
In dieser Arbeit wird die Verwendung von TL auf diverse Texturen untersucht, um die
zuvor angesprochenen Probleme f ¨ ur zwei Anwendungen zu ¨ uberwinden: in der Klassifikation
von Dickdarmpolypen und in Iris Super-Resolution.
Die Hauptursache f ¨ ur Todesf¨alle im Zusammenhang mit dem Darmtrakt ist die Entwicklung
von Krebszellen (Polypen) in vielen unterschiedlichen Auspr¨agungen. Eine Fr ¨uherkennung
kann das Mortalit¨atsrisiko bei Patienten verringern, wenn sich der Krebs noch in einem fr ¨uhen
Stadium befindet. Genauer gesagt, Dickdarmpolypen (gutartige Tumore oder Wucherungen,
die an der inneren Dickdarmoberfl¨ache entstehen) haben ein hohes Vorkommen und sind bekanntermaßen
Vorl¨aufer von Darmkrebsentwicklung. Mehrere Studien haben gezeigt, dass die automatische
Erkennung und Klassifizierung von Bildregionen, die Polypen innerhalb des Dickdarms
m¨oglicherweise enthalten, verwendet werden k¨onnen, um Spezialisten zu helfen, die
Fehlerrate bei Polypen zu verringern.
Die Klassifizierung kann sich jedoch aufgrund mehrerer Faktoren als eine schwierige Aufgabe
herausstellen. ZumBeispiel kann das Fehlen oder ein U¨ bermaß an Beleuchtung zu starken
Problemen hinsichtlich der Kontrastinformation der Bilder f ¨ uhren, wohingegen Unsch¨arfe aufgrund
von Bewegung/Wassereinspritzung die Qualit¨at des Bildmaterials ebenfalls verschlechtert.
Daten, welche ein unterschiedlich starkes Auftreten von Polypen repr¨asentieren, bieten auch
dieM¨oglichkeit zu einer Reduktion der Klassifizierungsgenauigkeit. Weiters ist es sehr schwierig,
einen robusten und vor allem globalen Feature-Extraktor zu finden, der all die notwendigen
Pit-Pattern-Strukturen in einem einzigen Vektor zusammenfasst und darstellt. Um mit diesen
Problemen ad¨aquat umzugehen, kann die Anwendung von CNNs eine gute Alternative bieten.
Eines der Ziele dieser Arbeit ist es, die Wirksamkeit von CNNs, die von Grund auf f ¨ ur
die Klassifikation von Dickdarmpolypen konstruiert wurden, zu zeigen. Des Weiteren soll
die Anwendung von TL unter der Verwendung vorgefertigter CNNs f ¨ ur die Klassifikation
von Dickdarmpolypen untersucht werden. Hierbei wird zus¨atzliche Information von nichtmedizinischen
Bildern hinzugezogen und mit den verwendeten medizinischen Daten verbunden:
Information wird also transferiert - TL entsteht. Auch in diesem Fall projiziert das CNN
iii
die Zieldatenbank (die Polypenbilder) in einen vorher trainierten Vektorraum, in dem die zu
separierenden Klassen dann eher trennbar sind, daWissen aus den nicht-medizinischen Bildern
einfließt.
Der zweite Teil dieser Arbeit widmet sich dem TL hinsichtlich der Verbesserung der Bildqualit¨at
von Iris Bilder - ”Iris- Super-Resolution”. Das Hauptziel von Super-Resolution (SR) ist es, aus
einem oder mehreren Bildern gleichzeitig ein Bild mit einer h¨oheren Aufl¨osung (mit mehr
Pixeln) zu erzeugen, welches dadurch zu einem detaillierteren und somit realistischeren Bild
wird, wobei der visuelle Bildinhalt unver¨andert bleibt. Gegenw¨artig fordern die meisten Iris-
Erkennungssysteme, dass der Benutzer seine Iris f ¨ ur den Sensor in geringer Entfernung pr¨asentiert.
Jedoch ist es ein Anliegen der Industrie die bisher notwendigen Bedingungen - kurzer
Abstand zwischen Sensor und Iris, sowie Verwendung von sehr teuren hochqualitativen Sensoren
- zu ver¨andern. Diese Ver¨anderung betrifft einerseits die Verwendung von billigeren
Sensoren und andererseits die Vergr¨oßerung des Abstandes zwischen Iris und Sensor. Beide
Anpassungen f ¨ uhren zu Reduktion der Bildqualit¨at, was sich direkt auf die Erkennungsgenauigkeit
der aktuell verwendeten Iris- erkennungssysteme auswirkt. In dieser Arbeit zeigen
wir, dass die Verwendung von CNNs und TL f ¨ ur die ”Single Image Super-Resolution”, die bei
der Iriserkennung angewendet wird, eine Alternative f ¨ ur die Iriserkennung von Bildern mit
niedriger Aufl¨osung sein kann. Zu diesem Zweck untersuchen wir, ob die Art der Bilder sowie
das Muster der Iris das CNN-TL beeinflusst und folglich die Ergebnisse im Erkennungsprozess
ver¨andern kann.
|
137 |
Transformada de Fourier quântica no grupo DiedralGonçalves, Demerson Nunes 31 March 2006 (has links)
Made available in DSpace on 2015-03-04T18:50:39Z (GMT). No. of bitstreams: 1
Apresentacao.pdf: 66215 bytes, checksum: 0f29cb361f1c311758185ca4e078e552 (MD5)
Previous issue date: 2006-10-26 / Coordenacao de Aperfeicoamento de Pessoal de Nivel Superior / Descrevemos a transformada de Fourier em grupos não abelianos motivado por suas aplicações em algoritmos quânticos para a computação quântica. A transformada de Fourier em grupos é descrita em termos das representações irredutíveis da teoria da representação de grupos finitos. Essa teoria é a peça chave para atacar o famoso Problema do Subgrupo Escondido (PSE), que consiste na determinação de geradores de um subgrupo, uma vez dado um oráculo que diz se um elemento pertence ou não a esse subgrupo.
Neste trabalho, nós apresentamos um algoritmo quântico para o PSE Diedral (DN). A complexidade de tempo do nosso algoritmo é O( N log2 N ). Ele é baseado no método padrão de solução: a transformada de Fourier de um estado quântico |ψ é calculada e medida. O objetivo do nosso algoritmo é reconstruir o subgrupo H de DN gerado por uma reflexão, uma vez dado uma função f em DN, constante nas classes laterais de H e distinta em cada classe lateral.
|
138 |
Computação quântica em sistemas abertos e uma aplicação ao modelo biológico de Fröhlich / Quantum computation in open systems and anapplication in the biological model of FröhlichAbreu, Jean Faber Ferreira de 13 May 2004 (has links)
Made available in DSpace on 2015-03-04T18:50:42Z (GMT). No. of bitstreams: 1
Capitulo 1 e 2.pdf: 236440 bytes, checksum: 0afb7e8e3c2b968e8c9a8921330a01b0 (MD5)
Previous issue date: 2004-05-13 / Coordenacao de Aperfeicoamento de Pessoal de Nivel Superior / An universal quantum computer is capable to perform any calculation that any classical turing machine can perform. However, the orthodox quantum mechanics is described for isolated systems. Therefore, the description of quantum computers is made starting from linear and reversible transformations. The interaction with the environment tends to eliminate the quantum effects as the superposition of states. However, any natural system is not infact isolated. Hence, noises, dissipations and errors are inevitable for any procedures that manipulate information with any natural resources. The formalism known by Quantum Operation (QO) issued to describe most of the open quantum systems. Through this format we can display the characteristic noises of the computational processes. To show the effectiveness of the QO s we applied the formalism in the quantum biological model of Fröhlich. Starting from that characterization we build a bridge between Quantum Computation and biological processes. That bridge can reveal unknown properties or to help in understanding the microbiologic dynamics; or even new techniques in the construction of quantum computers. / Um computador quântico universal é capaz de efetuar qualquer cálculo que qualquer máquina de Turing clássica possa efetuar. Porém, sistemas quânticos, em geral, são descritos como sistemas isolados. A interação do meio com as superposições de estados reduz a função de onda para um único estado bem definido. Contudo nenhum sistema na natureza é de fato isolado. Assim, ruídos, dissipações e erros são 'inevitáveis' para quaisquer procedimentos que manipulem informação com quaisquer recursos naturais (quânticos ou clássicos). O formalismo conhecido por Operação Quântica (OQ) é usado para descrever a maioria dos sistemas quânticos abertos num formato de tempo discreto. A partir desse formato pode-se evidenciar operações e ruídos característicos de processos computacionais. Para mostrar a eficiência de uma OQ aplicamos o formalismo no modelo quântico-biológico de Fröhlich. A partir dessa caracterização construímos uma ponte entre computação quântica e processos biofísicos. Essa ponte pode revelar propriedades desconhecidas ou ajudar na compreensão da dinâmica ainda difusa de sistemas biológicos; ou mesmo em novas técnicas na construção de computadores quânticos.
|
139 |
A transformada de Fourier quântica aproximada e sua simulação / The approximate quantum Fourier transform and its simulationMarquezino, Franklin de Lima 23 March 2006 (has links)
Made available in DSpace on 2015-03-04T18:50:13Z (GMT). No. of bitstreams: 1
Apresentacao.pdf: 108219 bytes, checksum: 5d45885c1cb3a3bd5830f6b0e8711721 (MD5)
Previous issue date: 2006-03-23 / Fundação Carlos Chagas Filho de Amparo a Pesquisa do Estado do Rio de Janeiro / Main memory limitations can lower the performance of segmentation applications for large images or even make it undoable. In this work we integrate the T-Surfaces model
and Out-of-Core isosurface generation methods in a general framework for segmentation of large image volumes.
T-Surfaces is a parametric deformable model based on a triangulation of the image domain, a discrete surface model and an image threshold. Isosurface generation techniques have been implemented through an Out-of-Core method that uses a kd-tree structure, called Meta-Cell technique. By using the Meta-Cell framework, we present an Out-of-Core version of a segmentation method based on T-Surfaces and isosurface extraction. The Gradient Vector Flow (GVF) is an
approach based on Partial Differential Equations. This method has been applied together with snake models for image segmentation through boundary extraction. The key idea is to use a diffusion-reaction PDE in order to generate a new external force field that makes snake models less sensitivity to initialization as well as improves the snakes ability to move into boundary concavities. In this work, we firstly review basic results about global optimization conditions of the GVF and numerical considerations of usual GVF schemes. Besides, we present an analytical analysis of the GVF and a frequency
domain analysis, which gives elements to discuss the dependency from the parameter values. Also, we discuss the numerical solution of the GVF based in a SOR method. We
observe that the model can be used for Multiply Connected Domains and applied an image processing approach in order to increase the GVF efficiency. / Limitações de memória principal podem diminuir a performance de aplicativos de segmentação de imagens para grandes volumes ou mesmo impedir seu funcionamento. Nesse trabalho nós integramos o modelo das T-Superfícies com um método de extração de iso-superfícies Out-of-Core formando um esquema de segmentação para imagens de grande volume. A T-Superficie é um modelo deformável paramétrico baseado em uma triangulação do domínio da imagem, um modelo discreto de superfície e um threshold da imagem. Técnicas de extração de isso-superfícies foram implementadas usando o método Out-of-Core que usa estruturas kd-tree, chamadas técnicas de Meta-Células. Usando essas técnicas, apresentamos uma versão Out-of-Core de um método de segmentação baseado nas T-Superfícies e em iso-superfícies. O fluxo do Vetor Gradiente (GVF) é um campo vetorial baseado em equações diferenciais parciais. Esse método é aplicado em conjunto com o modelo das Snakes para segmentação de imagens através de extração de contorno. A idéia principal é usar uma equação de difusão-reação para gerar um novo campo de força externa que deixa o modelo menos sensível a inicialização e melhora a habilidade das Snakes para extrair bordas com concavidades acentuadas. Nesse trabalho, primeiramente serão revistos resultados sobre condições de otimização global do GVF e feitas algumas considerações numéricas. Além disso, serão apresentadas uma análise analítica do GVF e uma análise no domínio da frequência, as quais oferecem elementos para discutir a dependência dos parâmetros do modelo. Ainda, será discutida a solução numérica do GVF baseada no método de SOR. Observamos também que o modelo pode ser estendido para Domínios Multiplamente Conexos e aplicamos uma metodologia de pré-processamento que pode tornar mais eficiente o método.
|
140 |
Biota-Rio: Um banco de dados para a biodiversidade do Estado do Rio de Janeiro / BIOTA-RIO: A Database of Biodiversity in the State of Rio de JaneiroNunes, Vinicius Schmitz Pereira 27 May 2008 (has links)
Made available in DSpace on 2015-03-04T18:51:04Z (GMT). No. of bitstreams: 1
dissertacao_versaofinal.pdf: 4193769 bytes, checksum: 028e41923811f71a2de3f1099d402a29 (MD5)
Previous issue date: 2008-05-27 / Coordenacao de Aperfeicoamento de Pessoal de Nivel Superior / The use of information technology in biodiversity related databases is increasing due to the open access to a large sum of data. Access to this information may be regarded as crucial to different areas of knowledge. The present work aims at the development of a open access computational system on biodiversity of the State of Rio de Janeiro. The Biota-Rio system focuses on the animal species, vertebrates and invertebrates, which were originally described for the State of Rio de Janeiro. In this sense, key information such as original descriptions, type localities, habitats and other are directly available on the system. Biota-Rio is a system in which the user may freely access the information via web that was implemented using the PERL language. The MySQL was the selected DBMS in the implementation of the database in which the informations are deposited. To date, surveys have been made of references to thirty-six species of mammals using the Zoological Record database. / O uso da tecnologia da informação na implementação de bases de dados com informações sobre a biodiversidade, vem ganhando uma grande importância. Isso se deve a grande necessidade de se promover um acesso livre a dados e informações sobre as espécies. O acesso a essas informações é considerado como fundamental para o desenvolvimento de diferentes áreas do conhecimento. A presente dissertação teve como objetivo o desenvolvimento de um sistema computacional para acesso a informações sobre a biodiversidade do Estado do Rio de Janeiro. O sistema Biota-Rio deverá conter informações sobre as espécies de animais, vertebrados e invertebrados, que foram descritas para o Estado do Rio de Janeiro. Informações como descrições originais, localidades-tipo, ambiente e outras informações estarão disponíveis no sistema. Biota-Rio é um sistema de acesso livre via web, que foi implementado utilizando a linguagem de programação PERL. O MySQL foi o SGBD utilizado na implementação do banco de dados onde estarão depositadas as informações sobre as espécies. Até o momento, foram feitos levantamentos das referências para trinta e seis espécies de mamíferos utilizando a base de dados Zoological Record.
|
Page generated in 0.0422 seconds