• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 43
  • 9
  • 6
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 68
  • 45
  • 14
  • 13
  • 12
  • 10
  • 10
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Viana maps and limit distributions of sums of point measures

Schnellmann, Daniel January 2009 (has links)
No description available.
52

Análise de complexidade de códigos turbo utilizando as treliças mínima e seccionada

Moritz, Guilherme Luiz 17 February 2012 (has links)
A dissertação apresentada utiliza a representação de treliça mínima e seccionada para a decodificação de códigos turbo, analisando os impactos da aplicação desta técnica no desempenho (taxa de erro em função da relação sinal ruído) em um canal AWGN e avaliando a redução de complexidade de processamento. O processo de decodificação proposto utilizará a teoria de minimização de treliça proposta em (MCELIECE, 1996) e a teoria de seccionamento de treliça proposto em (VARDY, 1998). Decodifica-se utilizando o algoritmo max-log-MAP (VUCETIC; YUAN, 2000). Desenvolve-se uma métrica de complexidade baseada no número de operações e mostra-se técnicas para escolher-se seccionamentos que são simples e apresentam pouca ou nenhuma perda de desempenho em função da decodificação convencional. / We present a technique for reducing the turbo decoding complexity based on minimal and sectionalized trellises. A novel complexity metric is proposed and the complexity of all possible sectionalizations for some selected codes is evaluated. We use the minimal trellis representation proposed in (MCELIECE, 1996) for BCJR decoding and conclude that one can find less complex sectionalizations (when compared to the conventional trellis) which show small or none performance degradation.
53

Video analysis for augmented cataract surgery / Analyse vidéo pour la chirurgie de la cataracte augmentée

Al Hajj, Hassan 13 July 2018 (has links)
L’ère numérique change de plus en plus le monde en raison de la quantité de données récoltées chaque jour. Le domaine médical est fortement affecté par cette explosion, car l’exploitation de ces données est un véritable atout pour l’aide à la pratique médicale. Dans cette thèse, nous proposons d’utiliser les vidéos chirurgicales dans le but de créer un système de chirurgie assistée par ordinateur. Nous nous intéressons principalement à reconnaître les gestes chirurgicaux à chaque instant afin de fournir aux chirurgiens des recommandations et des informations pertinentes. Pour ce faire, l’objectif principal de cette thèse est de reconnaître les outils chirurgicaux dans les vidéos de chirurgie de la cataracte. Dans le flux vidéo du microscope, ces outils sont partiellement visibles et certains se ressemblent beaucoup. Pour relever ces défis, nous proposons d'ajouter une caméra supplémentaire filmant la table opératoire. Notre objectif est donc de détecter la présence des outils dans les deux types de flux vidéo : les vidéos du microscope et les vidéos de la table opératoire. Le premier enregistre l'oeil du patient et le second enregistre les activités de la table opératoire. Deux tâches sont proposées pour détecter les outils dans les vidéos de la table : la détection des changements et la détection de présence d'outil. Dans un premier temps, nous proposons un système similaire pour ces deux tâches. Il est basé sur l’extraction des caractéristiques visuelles avec des méthodes de classification classique. Il fournit des résultats satisfaisants pour la détection de changement, cependant, il fonctionne insuffisamment bien pour la tâche de détection de présence des outils sur la table. Dans un second temps, afin de résoudre le problème du choix des caractéristiques, nous utilisons des architectures d’apprentissage profond pour la détection d'outils chirurgicaux sur les deux types de vidéo. Pour surmonter les défis rencontrés dans les vidéos de la table, nous proposons de générer des vidéos artificielles imitant la scène de la table opératoire et d’utiliser un réseau de neurones à convolutions (CNN) à base de patch. Enfin, nous exploitons l'information temporelle en utilisant un réseau de neurones récurrent analysant les résultats de CNNs. Contrairement à notre hypothèse, les expérimentations montrent des résultats insuffisants pour la détection de présence des outils sur la table, mais de très bons résultats dans les vidéos du microscope. Nous obtenons des résultats encore meilleurs dans les vidéos du microscope après avoir fusionné l’information issue de la détection des changements sur la table et la présence des outils dans l’oeil. / The digital era is increasingly changing the world due to the sheer volume of data produced every day. The medical domain is highly affected by this revolution, because analysing this data can be a source of education/support for the clinicians. In this thesis, we propose to reuse the surgery videos recorded in the operating rooms for computer-assisted surgery system. We are chiefly interested in recognizing the surgical gesture being performed at each instant in order to provide relevant information. To achieve this goal, this thesis addresses the surgical tool recognition problem, with applications in cataract surgery. The main objective of this thesis is to address the surgical tool recognition problem in cataract surgery videos.In the surgical field, those tools are partially visible in videos and highly similar to one another. To address the visual challenges in the cataract surgical field, we propose to add an additional camera filming the surgical tray. Our goal is to detect the tool presence in the two complementary types of videos: tool-tissue interaction and surgical tray videos. The former records the patient's eye and the latter records the surgical tray activities.Two tasks are proposed to perform the task on the surgical tray videos: tools change detection and tool presence detection.First, we establish a similar pipeline for both tasks. It is based on standard classification methods on top of visual learning features. It yields satisfactory results for the tools change task, howev-lateer, it badly performs the surgical tool presence task on the tray. Second, we design deep learning architectures for the surgical tool detection on both video types in order to address the difficulties in manually designing the visual features.To alleviate the inherent challenges on the surgical tray videos, we propose to generate simulated surgical tray scenes along with a patch-based convolutional neural network (CNN).Ultimately, we study the temporal information using RNN processing the CNN results. Contrary to our primary hypothesis, the experimental results show deficient results for surgical tool presence on the tray but very good results on the tool-tissue interaction videos. We achieve even better results in the surgical field after fusing the tool change information coming from the tray and tool presence signals on the tool-tissue interaction videos.
54

Classificação de eventos em redes de distribuição de energia elétrica utilizando modelos neurais autônomos

Lazzaretti, André Eugênio 06 July 2010 (has links)
Este trabalho apresenta uma metodologia para classificação de eventos de curto-circuito e mano-bras em redes de distribuição de energia elétrica, com base nos registros oscilográficos de tensão na barra da subestação de distribuição. São apresentados os resultados obtidos para duas formas distintas de pré-processamento dos sinais de tensão, sendo a primeira baseada em Transformada de Fourier e a segunda em Transformada Wavelet para diferentes famílias de funções wavelet. Foram comparados três modelos neurais para o processo de classificação: Multi-Layer Perceptron, Radial Basis Function e Support Vector Machine. Os modelos foram treinados levando em conta uma característica autônoma de operação das redes, ou seja, a seleção automática do modelo e o controle de complexidade. Os resultados foram validados para um conjunto de simulações realizadas no programa Alternative Transient Program, visando a aplicação prática do método proposto em um equipamento registrador de oscilografias, desenvolvido pelo Lactec em conjunto com a Copel - Curitiba, PR, denominado Power Quality Monitor. Foram obtidos resultados com desempenho na ordem de 90% de acerto médio para as diferentes formas de pré-processamento e diferente modelos neurais. / This work presents a method for automatic classification of faults and events related to quality of service in power distribution networks, based on oscillographies of the bar feeder voltages of the distribution substation. We present the results for two distinct pre-processing forms of the voltage signals. The first is based on the Fourier Transform and the second on the Wavelet Transform for different families of wavelet functions. We compared three neural models for the process of classification: Multi-Layer Perceptron, Radial Basis Function and Support Vector Machine. The models were trained taking into account the autonomous operation of networks, i.e. automatic model selection and control complexity. The results were validated for a set of simulations performed using the Alternative Transient Program, aimed at practical implementation of the proposed method in an oscillograph logger, developed by Lactec together with Copel, called the Power Quality Monitor. The results were obtained with performance on the order of 90% of average accuracy for the various pre-processing forms and neural models.
55

Análise de complexidade de códigos turbo utilizando as treliças mínima e seccionada

Moritz, Guilherme Luiz 17 February 2012 (has links)
A dissertação apresentada utiliza a representação de treliça mínima e seccionada para a decodificação de códigos turbo, analisando os impactos da aplicação desta técnica no desempenho (taxa de erro em função da relação sinal ruído) em um canal AWGN e avaliando a redução de complexidade de processamento. O processo de decodificação proposto utilizará a teoria de minimização de treliça proposta em (MCELIECE, 1996) e a teoria de seccionamento de treliça proposto em (VARDY, 1998). Decodifica-se utilizando o algoritmo max-log-MAP (VUCETIC; YUAN, 2000). Desenvolve-se uma métrica de complexidade baseada no número de operações e mostra-se técnicas para escolher-se seccionamentos que são simples e apresentam pouca ou nenhuma perda de desempenho em função da decodificação convencional. / We present a technique for reducing the turbo decoding complexity based on minimal and sectionalized trellises. A novel complexity metric is proposed and the complexity of all possible sectionalizations for some selected codes is evaluated. We use the minimal trellis representation proposed in (MCELIECE, 1996) for BCJR decoding and conclude that one can find less complex sectionalizations (when compared to the conventional trellis) which show small or none performance degradation.
56

Classificação de eventos em redes de distribuição de energia elétrica utilizando modelos neurais autônomos

Lazzaretti, André Eugênio 06 July 2010 (has links)
Este trabalho apresenta uma metodologia para classificação de eventos de curto-circuito e mano-bras em redes de distribuição de energia elétrica, com base nos registros oscilográficos de tensão na barra da subestação de distribuição. São apresentados os resultados obtidos para duas formas distintas de pré-processamento dos sinais de tensão, sendo a primeira baseada em Transformada de Fourier e a segunda em Transformada Wavelet para diferentes famílias de funções wavelet. Foram comparados três modelos neurais para o processo de classificação: Multi-Layer Perceptron, Radial Basis Function e Support Vector Machine. Os modelos foram treinados levando em conta uma característica autônoma de operação das redes, ou seja, a seleção automática do modelo e o controle de complexidade. Os resultados foram validados para um conjunto de simulações realizadas no programa Alternative Transient Program, visando a aplicação prática do método proposto em um equipamento registrador de oscilografias, desenvolvido pelo Lactec em conjunto com a Copel - Curitiba, PR, denominado Power Quality Monitor. Foram obtidos resultados com desempenho na ordem de 90% de acerto médio para as diferentes formas de pré-processamento e diferente modelos neurais. / This work presents a method for automatic classification of faults and events related to quality of service in power distribution networks, based on oscillographies of the bar feeder voltages of the distribution substation. We present the results for two distinct pre-processing forms of the voltage signals. The first is based on the Fourier Transform and the second on the Wavelet Transform for different families of wavelet functions. We compared three neural models for the process of classification: Multi-Layer Perceptron, Radial Basis Function and Support Vector Machine. The models were trained taking into account the autonomous operation of networks, i.e. automatic model selection and control complexity. The results were validated for a set of simulations performed using the Alternative Transient Program, aimed at practical implementation of the proposed method in an oscillograph logger, developed by Lactec together with Copel, called the Power Quality Monitor. The results were obtained with performance on the order of 90% of average accuracy for the various pre-processing forms and neural models.
57

Propagação e convolução do fluxo primário de raios cósmicos ultra-energéticos segundo a resolução de energia estimada do Observatório Pierre Auger / Propagation and convolution of the ultra-high energy cosmic ray spectrum due to the estimated energy resolution of the Pierre Auger Observatory

Rodrigues, João Paulo Caminha Cascudo 26 February 2007 (has links)
Orientador: Carola Dobrigkeit Chinellato / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Fisica Gleb Wataghin / Made available in DSpace on 2018-08-08T01:00:42Z (GMT). No. of bitstreams: 1 Rodrigues_JoaoPauloCaminhaCascudo_M.pdf: 7322384 bytes, checksum: e50136f5ec9d16fff8fd6a15ba64b5f0 (MD5) Previous issue date: 2007 / Resumo: Neste trabalho estuda-se a propagação pelo meio intergaláctico de raios cósmicos ultra-energéticos partindo de fontes com distribuição espacial uniforme, considerando as perdas de energia ocasionadas pela expansão adiabática do universo e pelas interações com a Radiação , Cósmica de Fundo (produção de pares e-e+ e fotoprodução de píons), o que resulta no aparecimento do corte GZK (Greisen-Zatsepin-Kuzmin). A degradação de energia no espectro primário da radiação cósmica que chega ao topo da atmosfera terrestre é então analisada para diferentes redshifts das fontes injetoras. São utilizadas simulações de Monte Carlo bem como uma abordagem analítica, com a posterior comparação dos resultados obtidos em cada método. Uma vez conhecido o fluxo propagado, é feita uma estimativa da forma da resolução de energia do Observatório Pierre Auger, com a decorrente convolução desta resolução com o fluxo propagado, novamente utilizando-se ambos os métodos. Os resultados mostram que o corte GZK pode se mostrar severamente atenuado no fluxo convoluído, o que dificulta a sua constatação experimental / Abstract: In this work, we study the propagation of Ultra-High Energy Cosmic Rays (UHECR) which are injected into the intergalactic medium by sources with flat spatial distribution for several redshifts. The energy spectrum of UHECR observed on the Earth is directly influenced by the energy losses due to both the adiabatic expansion of the universe and interactions with the Cosmic Microwave Background radiation (e-e+ pair production and photoproduction of pions), which cause the so-called Greisen-Zatsepin-Kuzmin (GZK) cutoff. We perform Monte Carlo simulations and also consider a semi-analytical approach and compare the results obtained by each method. Once the propagated primary flux is known, we make a simple estimate of the shape of the Pierre Auger Observatory energy resolution. This resolution is folded with the propagated primary flux again utilizing both methods. The results show the GZK cutoff may be severely smeared and might not be detected as sharp as predicted. / Mestrado / Teorias Especificas e Modelos de Interação ; Sistematica de Particulas ; Raios Cosmicos / Mestre em Física
58

[en] ATROUS CGAN FOR SAR TO OPTICAL IMAGE TRANSLATION / [pt] ATROUS CGAN PARA TRADUÇÃO DE IMAGENS SAR À ÓTICA

JAVIER NOA TURNES 18 November 2020 (has links)
[pt] A captura de cenas de cobertura da Terra com sensores óticos de satélite é frequentemente limitada pela presença de nuvens que corrompem as imagens coletadas. Entre os métodos para recuperar imagens óticas de satélite corrompidas por nuvens, várias abordagens de tradução de imagemimagem usando Redes Adversárias Generativas (GANs) têm surgido com bons resultados, conseguindo criar imagens óticas realistas a partir de imagens de Radar de Abertura Sintética (SAR). Os métodos baseados em GANs condicionais (cGAN) propostos até agora para a síntese de imagens SAR-óticas tendem a produzir imagens ruidosas e com pouca nitidez. Neste trabalho, propomos a atrous-cGAN, uma nova arquitetura que melhora a transformação de imagem SAR em ótica. As redes propostas para o gerador e discriminador contam com convolusões dilatadas (atrous) e incorporam o módulo Pirâmide Espacial Atrous Pooling (ASPP) para realçar detalhes finos na imagem ótica gerada, explorando o contexto espacial em várias escalas. Este trabalho apresenta experimentos realizados para avaliar o desempenho da atrous-cGAN na síntese de imagens Landsat a partir de dados Sentinel-1A, usando quatro bases de dados públicas. A análise experimental indicou que a atrous-cGAN supera o modelo clássico pix2pix como uma ferramenta de aprendizado de atributos para segmentação semântica. A proposta também gera imagens com maior qualidade visual, e em geral com maior semelhança com a verdadeira imagem ótica. / [en] The capture of land cover scenes with optical satellite sensors is often constrained by the presence of clouds that corrupt the collected images. Among the methods for recovering satellite optical images corrupted by clouds, several image to image translation approaches using Generative Adversarial Networks (GANs) have emerged with profitable results, managing to create realistic optical images from Synthetic Aperture Radar (SAR) data. Conditional GAN (cGAN) based methods proposed so far for SAR-to-optical image synthesis tend to produce noisy and unsharp optical outcomes. In this work, we propose the atrous-cGAN, a novel cGAN architecture that improves the SAR-to-optical image translation. The proposed generator and discriminator networks rely on atrous convolutions and incorporate the Atrous Spatial Pyramid Pooling (ASPP) module to enhance fine details in the generated optical image by exploiting spatial context at multiple scales. This work reports experiments carried out to assess the performance of atrouscGAN for the synthesis of Landsat images from Sentinel-1A data based on four public datasets. The experimental analysis indicated that the atrouscGAN overcomes the classical pix2pix model as a feature learning tool for semantic segmentation. The proposal also generates higher visual quality images, in general with higher similarity with the true optical image.
59

Imitation Learning on Branching Strategies for Branch and Bound Problems / Imitationsinlärning av Grenstrategier för Branch and Bound-Problem

Axén, Magnus January 2023 (has links)
A new branch of machine and deep learning models has evolved in constrained optimization, specifically in mixed integer programming problems (MIP). These models draw inspiration from earlier solver methods, primarily the heuristic, branch and bound. While utilizing the branch and bound framework, machine and deep learning models enhance either the computational efficiency or performance of the model. This thesis examines how imitating different variable selection strategies of classical MIP solvers behave on a state-of-the-art deep learning model. A recently developed deep learning algorithm is used in this thesis, which represents the branch and bound state as a bipartite graph. This graph serves as the input to a graph network model, which determines the variable in the MIP on which branching occurs. This thesis compares how imitating different classical branching strategies behaves on different algorithm outputs and, most importantly, time span. More specifically, this thesis conducts an empirical study on a MIP known as the facility location problem (FLP) and compares the different methods for imitation. This thesis shows that the deep learning algorithm can outperform the classical methods in terms of time span. More specifically, imitating the branching strategies resulting in small branch and bound trees give rise to a more rapid performance in finding the global optimum. Lastly, it is shown that a smaller embedding size in the network model is preferred for these instances when looking at the trade-off between variable selection and time cost. / En ny typ av maskin och djupinlärningsmodeller har utvecklats inom villkors optimering, specifikt för så kallade blandade heltalsproblem (MIP). Dessa modeller hämtar inspiration från tidigare lösningsmetoder, främst en heuristisk som kallas “branch and bound”. Genom att använda “branch and bound” ramverket förbättrar maskin och djupinlärningsmodeller antingen beräkningshastigheten eller prestandan hos modellen. Denna uppsats undersöker hur imitation av olika strategier för val av variabler från klassiska MIP-algoritmer beter sig på en modern djupinlärningsmodell. I denna uppsats används en nyligen utvecklad djupinlärningsalgoritm som representerar “branch and bound” tillståndet som en bipartit graf. Denna graf används som indata till en “graph network” modell som avgör vilken variabel i MIP-problemet som tas hänsyn till. Uppsatsen jämför hur imitation av olika klassiska “branching” strategier påverkar olika algoritmutgångar, framför allt, tidslängd. Mer specifikt utför denna uppsats en empirisk studie på ett MIP-problem som kallas för “facility location problem” (FLP) och jämför imitationen av de olika metoderna. I denna uppsats visas det att denna djupinlärningsalgoritm kan överträffa de klassiska metoderna när det gäller tidslängd. Mer specifikt ger imitation av “branching” strategier som resulterar i små “branch and bound” träd upphov till en snabbare prestation vid sökning av den globala optimala lösningen. Slutligen visas det att en mindre inbäddningsstorlek i nätverksmodellen föredras i dessa fall när man ser på avvägningen mellan val av variabler och tidskostnad.
60

Identificação de descontinuidades em peças metálicas utilizando sinais ultrassônicos e técnicas de problemas inversos

Guarneri, Giovanni Alfredo 17 July 2015 (has links)
CNPQ; LASCA / Este trabalho propõe um algoritmo para identificar descontinuidades internas em uma peça metálica a partir de sinais A-scan provenientes de um ensaio não-destrutivo por ultrassom. As descontinuidades são identificadas por seu formato, dimensões, orientação e localização. Esse algoritmo é baseado na resolução de problemas inversos. O problema da identificação de descontinuidades é modelado utilizando uma abordagem inédita, em que a descontinuidade é caracterizada por dois elementos distintos: a sua amplitude de espalhamento e a localização de seu centro. Com essa nova forma de representação, o problema de identificação da descontinuidade passa a ser dividido em dois subproblemas. O primeiro é o problema de reconstrução para encontrar a localização do centro da descontinuidade e o segundo é o problema de caracterização para estimar os parâmetros geométricos da descontinuidade. Os ensaios realizados comprovam que o problema de localização é resolvido de forma satisfatória utilizando o algoritmo de reconstrução de imagens esparsas UTSR (ultrasonic sparse reconstruction). A caracterização da descontinuidade é realizada por um algoritmo baseado no método dos mínimos quadrados não-lineares, com a inclusão de um termo de regularização não-quadrático utilizando norma l1. Os resultados obtidos tanto com dados simulados como com dados experimentais mostram que esse algoritmo estima as descontinuidades de forma satisfatória. / The present work proposes an algorithm to identify internal discontinuities in metallic specimen from A-scan ultrasonic signals. Discontinuities are identified by their shape, size, orientation and location. This algorithm is based on inverse problems. The identification of discontinuities is modeled using a novel approach. The discontinuity is modeled by two distinct elements: its scattering amplitude and its center location. Through this approach, the identification problem is split into two sub problems. The first is a reconstruction problem to find the location of the discontinuity. The second is a model identification problem to estimate geometric parameters of the discontinuity. Simulations and experimental validation show that the localization problem is satisfactorily solved using the UTSR (ultrasonic sparse reconstruction) algorithm. The characterization of discontinuities is carried out by an algorithm based on non-linear least squares with l1 norm regularization. The results obtained with simulated data as well with experimental data show a fine estimation of discontinuities.

Page generated in 0.1336 seconds