• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 71
  • Tagged with
  • 71
  • 20
  • 20
  • 16
  • 11
  • 11
  • 10
  • 10
  • 10
  • 10
  • 10
  • 9
  • 9
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Estudo da estabilidade de circuitos RC via otimização

Mariz, Carlos Henrique da Costa 08 1900 (has links)
Submitted by Algacilda Conceição (algacilda@sibi.ufrj.br) on 2018-04-02T14:41:15Z No. of bitstreams: 1 133291.pdf: 2852001 bytes, checksum: d16e2ebe65998bf843ce0c848d5f5b94 (MD5) / Made available in DSpace on 2018-04-02T14:41:15Z (GMT). No. of bitstreams: 1 133291.pdf: 2852001 bytes, checksum: d16e2ebe65998bf843ce0c848d5f5b94 (MD5) Previous issue date: 1973-08 / CAPES / Universidade Federal de Pernambuco / Estuda sobre estabilidade de redes RC não lineares. Uma rede RC é considerada assintóticamente estável quando a carga dos capacitores converge a uma carga de equilíbrio. O estudo é desenvolvido a partir da análise do comportamento de redes resistivas. Em todo trabalho é admitida a hipótese dos resistores possuírem curvas características crescentes, com o que, formular os problemas de redes resistivas como problemas de otimização em grafos. Técnicas de dualidade são utilizadas na dedução de alguns resultados. Hipóteses adicionais sobre os resistores, dependentes da estrutura da rede, permitirão representar-se as soluções de rede como soluções de um sistema de equações diferenciais onde a existência e unicidade de soluções é garantida. O método de Liapunov é o instrumento básico na análise de estabilidade deste sistema de equações. / Study of non-linear RC network stability. An RC network is considered assymptotically stable when the capacitar charges converge to equilibrium charges. The study is developed from the analysis of the behavior of resistive networks. It is assumed that all resistors have increasing characteristics curves, from which it is possible to formulate resistive network problems as optimization problems on graphs. Duality techniques are used in the proof of certain results. Additional hypothesis on the resistors, depending on the network structure, will permit representation of the networks solutions as solutions of a system of differential equations for which the existence and uniqueness of solutions is guaranteed. Liapunov's method is the basic tool in the stability analysis of this system of equations.
42

Multilinear technics in face recognition / TÃcnicas multilineares em reconhecimento facial

Emanuel Dario Rodrigues Sena 07 November 2014 (has links)
CoordenaÃÃo de AperfeiÃoamento de NÃvel Superior / In this dissertation, the face recognition problem is investigated from the standpoint of multilinear algebra, more specifically the tensor decomposition, and by making use of Gabor wavelets. The feature extraction occurs in two stages: first the Gabor wavelets are applied holistically in feature selection; Secondly facial images are modeled as a higher-order tensor according to the multimodal factors present. Then, the HOSVD is applied to separate the multimodal factors of the images. The proposed facial recognition approach exhibits higher average success rate and stability when there is variation in the various multimodal factors such as facial position, lighting condition and facial expression. We also propose a systematic way to perform cross-validation on tensor models to estimate the error rate in face recognition systems that explore the nature of the multimodal ensemble. Through the random partitioning of data organized as a tensor, the mode-n cross-validation provides folds as subtensors extracted of the desired mode, featuring a stratified method and susceptible to repetition of cross-validation with different partitioning. / Nesta dissertaÃÃo o problema de reconhecimento facial à investigado do ponto de vista da Ãlgebra multilinear, mais especificamente por meio de decomposiÃÃes tensoriais fazendo uso das wavelets de Gabor. A extraÃÃo de caracterÃsticas ocorre em dois estÃgios: primeiramente as wavelets de Gabor sÃo aplicadas de maneira holÃstica na seleÃÃo de caracterÃsticas; em segundo as imagens faciais sÃo modeladas como um tensor de ordem superior de acordo com o fatores multimodais presentes. Com isso aplicamos a decomposiÃÃo tensorial Higher Order Singular Value Decomposition (HOSVD) para separar os fatores que influenciam na formaÃÃo das imagens. O mÃtodo de reconhecimento facial proposto possui uma alta taxa de acerto e estabilidade quando hà variaÃÃo nos diversos fatores multimodais, tais como, posiÃÃo facial, condiÃÃo de iluminaÃÃo e expressÃo facial. Propomos ainda uma maneira sistemÃtica para realizaÃÃo da validaÃÃo cruzada em modelos tensoriais para estimaÃÃo da taxa de erro em sistemas de reconhecimento facial que exploram a natureza multilinear do conjunto de imagens. AtravÃs do particionamento aleatÃrio dos dados organizado como um tensor, a validaÃÃo cruzada modo-n proporciona a criaÃÃo de folds extraindo subtensores no modo desejado, caracterizando um mÃtodo estratificado e susceptÃvel a repetiÃÃes da validaÃÃo cruzada com diferentes particionamentos.
43

SISTEMA DE ELETROCARDIOGRAFIA DE BAIXO CUSTO BASEADO EM PLATAFORMAS MÓVEIS PARA APLICAÇÃO EM TELEMEDICINA / SYSTEM OF ELETROCARDIOGRAM OF LOW COST BASED ON MOBILE PLATFORMS FOR APPLICATION IN TELEMEDICINE

Robson, Ricardo Rodrigues 25 May 2007 (has links)
Made available in DSpace on 2016-08-17T14:53:08Z (GMT). No. of bitstreams: 1 Ricardo Rodrigues Robson.pdf: 572502 bytes, checksum: 5afacedbe3b25a60fc72a8b215964082 (MD5) Previous issue date: 2007-05-25 / The majority of cardiovascular diseases cases occur in low and middle income countries. Even at high-income countries, heart diseases demands great economic resources. Thus, this work proposes a low-cost telemedicine application to collect, transmit and display ECG exams for cardiologists. To reduce the final cost, the system proposed here employs a data acquisition board based on low-cost microcontroller, low-cost PDA equipment with infrared interface and open source software. Costing 76% less than the revised commercial and academic equipments, the proposed system achieves or even surpasses their performance in resolution and signal quality. / A maior parte dos casos de ocorrência de doenças cardiovasculares ocorre em países de baixa e média renda. Mesmo em países desenvolvidos, as doenças do coração exigem recursos econômicos elevados. Deste modo, este trabalho propõe o desenvolvimento de um sistema de telemedicina de baixo custo para a realização da coleta, transmissão e impressão do exame de eletrocardiograma. Para redução do custo final, o sistema proposto aqui se utiliza de uma placa de aquisição de dados baseada em um microcontrolador 8 bits de baixo custo, em um Assistente Pessoal Digital simples e desenvolvimento de softwares de código fonte aberto. Calculamos que o custo é em torno de 76% menor que a solução comercial disponível e trabalhos acadêmicos pesquisados.
44

Posicionamento de m?ltiplos Sinks em redes de sensores sem fio com prioriza??o

Peixoto, Jo?o Paulo Just 15 December 2015 (has links)
Submitted by Ricardo Cedraz Duque Moliterno (ricardo.moliterno@uefs.br) on 2016-04-07T00:24:20Z No. of bitstreams: 1 Posicionamento de Multiplos Sinks em RSSF com Priorizacao.pdf: 1718384 bytes, checksum: e4372e2075ce58446664e4be89f2676f (MD5) / Made available in DSpace on 2016-04-07T00:24:20Z (GMT). No. of bitstreams: 1 Posicionamento de Multiplos Sinks em RSSF com Priorizacao.pdf: 1718384 bytes, checksum: e4372e2075ce58446664e4be89f2676f (MD5) Previous issue date: 2015-12-15 / Wireless Sensor Networks can be used for environment monitoring, which may be in indoor scenarios such as in industries, warehouses and buildings, or in outdoor scenarios, just like forests, vulcanos and cities. Due to its energy supply limitations, researchers have been developing several approaches to reduce energy consumption in sensors and extend their lifetime. One of the ways to improve energy usage in a Wireless Sensor Network is by using multiple mobile sinks. In this work, a method to position multiple sinks in a relevance-based Wireless Sensor Network is proposed. After several simulations, it was observed that in applications where sensors have di erent importance levels, the network lifetime can be extended by using this approach. / Redes de Sensores Sem Fios podem ser utilizadas para o monitoramento de ambientes, sejam eles internos como ind ?strias, galp?es, constru??ess, ou externos como florestas, vulc?es, cidades, entre outros. Devido a sua limita ??o no fornecimento de energia, pesquisadores tem desenvolvido diversas abordagens para reduzir o consumo energ?tico nos sensores e prolongar seu tempo de vida. Uma das formas de melhorar o consumo de energia em uma Rede de Sensores Sem Fios e atrav?s do uso de m ?ltiplos sinks m oveis. Neste trabalho, e proposto um m ?todo para posicionamento de m ?ltiplos sinks em uma Rede de Sensores Sem Fios baseada em relev?ncias. Ap ?s diversas simula ??es, foi observado que em aplica ??es onde sensores possuem diferentes ni veis de import?ncia, o uso dessa abordagem aumenta o tempo de vida da rede.
45

AvaliaÃÃo de redes neurais competitivas em tarefas de quantizaÃÃo vetorial:um estudo comparativo / Evaluation of competitive neural networks in tasks of vector quantization (VQ): a comparative study

Magnus Alencar da cruz 06 October 2007 (has links)
nÃo hà / Esta dissertaÃÃo tem como principal meta realizar um estudo comparativo do desempenho de algoritmos de redes neurais competitivas nÃo-supervisionadas em problemas de quantizaÃÃo vetorial (QV) e aplicaÃÃes correlatas, tais como anÃlise de agrupamentos (clustering) e compressÃo de imagens. A motivaÃÃo para tanto parte da percepÃÃo de que hà uma relativa escassez de estudos comparativos sistemÃticos entre algoritmos neurais e nÃo-neurais de anÃlise de agrupamentos na literatura especializada. Um total de sete algoritmos sÃo avaliados, a saber: algoritmo K -mÃdias e as redes WTA, FSCL, SOM, Neural-Gas, FuzzyCL e RPCL. De particular interesse à a seleÃÃo do nÃmero Ãtimo de neurÃnios. NÃo hà um mÃtodo que funcione para todas as situaÃÃes, restando portanto avaliar a influÃncia que cada tipo de mÃtrica exerce sobre algoritmo em estudo. Por exemplo, os algoritmos de QV supracitados sÃo bastante usados em tarefas de clustering. Neste tipo de aplicaÃÃo, a validaÃÃo dos agrupamentos à feita com base em Ãndices que quantificam os graus de compacidade e separabilidade dos agrupamentos encontrados, tais como Ãndice Dunn e Ãndice Davies-Bouldin (DB). Jà em tarefas de compressÃo de imagens, determinado algoritmo de QV à avaliado em funÃÃo da qualidade da informaÃÃo reconstruÃda, daà as mÃtricas mais usadas serem o erro quadrÃtico mÃdio de quantizaÃÃo (EQMQ) ou a relaÃÃo sinal-ruÃdo de pico (PSNR). Empiricamente verificou-se que, enquanto o Ãndice DB favorece arquiteturas com poucos protÃtipos e o Dunn com muitos, as mÃtricas EQMQ e PSNR sempre favorecem nÃmeros ainda maiores. Nenhuma das mÃtricas supracitadas leva em consideraÃÃo o nÃmero de parÃmetros do modelo. Em funÃÃo disso, esta dissertaÃÃo propÃe o uso do critÃrio de informaÃÃo de Akaike (AIC) e o critÃrio do comprimento descritivo mÃnimo (MDL) de Rissanen para selecionar o nÃmero Ãtimo de protÃtipos. Este tipo de mÃtrica mostra-se Ãtil na busca do nÃmero de protÃtipos que satisfaÃa simultaneamente critÃrios opostos, ou seja, critÃrios que buscam o menor erro de reconstruÃÃo a todo custo (MSE e PSNR) e critÃrios que buscam clusters mais compactos e coesos (Ãndices Dunn e DB). Como conseqÃÃncia, o nÃmero de protÃtipos obtidos pelas mÃtricas AIC e MDL à geralmente um valor intermediÃrio, i.e. nem tÃo baixo quanto o sugerido pelos Ãndices Dunn e DB, nem tÃo altos quanto o sugerido pelas mÃtricas MSE e PSNR. Outra conclusÃo importante à que nÃo necessariamente os algoritmos mais sofisticados do ponto de vista da modelagem, tais como as redes SOM e Neural-Gas, sÃo os que apresentam melhores desempenhos em tarefas de clustering e quantizaÃÃo vetorial. Os algoritmos FSCL e FuzzyCL sÃo os que apresentam melhores resultados em tarefas de quantizaÃÃo vetorial, com a rede FSCL apresentando melhor relaÃÃo custo-benefÃcio, em funÃÃo do seu menor custo computacional. Para finalizar, vale ressaltar que qualquer que seja o algoritmo escolhido, se o mesmo tiver seus parÃmetros devidamente ajustados e seus desempenhos devidamente avaliados, as diferenÃas de performance entre os mesmos sÃo desprezÃveis, ficando como critÃrio de desempate o custo computacional. / The main goal of this master thesis was to carry out a comparative study of the performance of algorithms of unsupervised competitive neural networks in problems of vector quantization (VQ) tasks and related applications, such as cluster analysis and image compression. This study is mainly motivated by the relative scarcity of systematic comparisons between neural and nonneural algorithms for VQ in specialized literature. A total of seven algorithms are evaluated, namely: K-means, WTA, FSCL, SOM, Neural-Gas, FuzzyCL and RPCL. Of particular interest is the problem of selecting an adequate number of neurons given a particular vector quantization problem. Since there is no widespread method that works satisfactorily for all applications, the remaining alternative is to evaluate the influence that each type of evaluation metric has on a specific algorithm. For example, the aforementioned vector quantization algorithms are widely used in clustering-related tasks. For this type of application, cluster validation is based on indexes that quantify the degrees of compactness and separability among clusters, such as the Dunn Index and the Davies- Bouldin (DB) Index. In image compression tasks, however, a given vector quantization algorithm is evaluated in terms of the quality of the reconstructed information, so that the most used evaluation metrics are the mean squared quantization error (MSQE) and the peak signal-to-noise ratio (PSNR). This work verifies empirically that, while the indices Dunn and DB or favors architectures with many prototypes (Dunn) or with few prototypes (DB), metrics MSE and PSNR always favor architectures with well bigger amounts. None of the evaluation metrics cited previously takes into account the number of parameters of the model. Thus, this thesis evaluates the feasibility of the use of the Akaikeâs information criterion (AIC) and Rissanenâs minimum description length (MDL) criterion to select the optimal number of prototypes. This type of evaluation metric indeed reveals itself useful in the search of the number of prototypes that simultaneously satisfies conflicting criteria, i.e. those favoring more compact and cohesive clusters (Dunn and DB indices) versus those searching for very low reconstruction errors (MSE and PSNR). Thus, the number of prototypes suggested by AIC and MDL is generally an intermediate value, i.e nor so low as much suggested for the indexes Dunn and DB, nor so high as much suggested one for metric MSE and PSNR. Another important conclusion is that sophisticated models, such as the SOM and Neural- Gas networks, not necessarily have the best performances in clustering and VQ tasks. For example, the algorithms FSCL and FuzzyCL present better results in terms of the the of the reconstructed information, with the FSCL presenting better cost-benefit ratio due to its lower computational cost. As a final remark, it is worth emphasizing that if a given algorithm has its parameters suitably tuned and its performance fairly evaluated, the differences in performance compared to others prototype-based algorithms is minimum, with the coputational cost being used to break ties.
46

Sistema de visÃo computacional para a caracterizaÃÃo da grafita usando microfotografias / System of computational vision for the characterization of the graphite using microphotographies

Victor Hugo Costa de Albuquerque 06 October 2007 (has links)
CoordenaÃÃo de AperfeiÃoamento de Pessoal de NÃvel Superior / A Ãrea de CiÃncia dos Materiais utiliza sistemas de VisÃo Computacional para determinar tamanho e/ou quantidade de grÃos, controle de soldagem, modelamento de elementos de ligas, entre outras. O presente trabalho tem como principal objetivo desenvolver e validar o programa SVRNA (SegmentaÃÃo de Microestruturas por VisÃo Computacional Baseada em Rede Neural Artificial), que, combinado com Rede Neural Artificial, utiliza tÃcnicas de morfologia matemÃtica para realizar a segmentaÃÃo dos constituintes do ferro fundido branco de forma semi-automÃtica e a classificaÃÃo automÃtica da grafita nos ferros fundidos nodular, maleÃvel e cinzento. Os resultados da segmentaÃÃo e quantificaÃÃo destes materiais sÃo comparados entre o SVRNA e um programa comercial bastante utilizado neste domÃnio. A anÃlise comparativa entre estes mÃtodos mostra que o SVRNA apresenta melhores resultados. Conclui-se, portanto, que o sistema proposto pode ser utilizado em aplicaÃÃes na Ãrea da CiÃncia dos Materiais para a segmentaÃÃo e quantificaÃÃo de constituintes em materiais metÃlicos, reduzindo o tempo de anÃlise e obtendo resultados precisos. / CATERIALS Sciences field uses Computational Vision systems to determine size and/or amount of grains, welding control, modeling of alloy elements, among other. The present paper has as main objective to develop and validate the SVRNA system (Microstructure Segmentation for Computational Vision based on Artificial Neural Networks), which, combined with ArtiÂcial Neural Network, uses mathematical morphology technics to accomplish the constituent segmentations from white cast iron of semi-automatic form, and graphite automatic classiÂcation from nodular, malleable and gray cast iron. Segmentation and quantiÂcation results of this materials are compared between SVRNA and a commercial program more used in this domain. Comparative analysis between this methods showed that SVRNA present best results. It has concluded, therefore, which the proposed system can be used in applications in Material Sciences field for microstructure segmentation and quantification in metallic materials, reducing the analyze time, and obtained accurate results.
47

Abordagem wavelet para detecÃÃo de cantos em formas / Wavelet boarding for detention of corners in forms

IÃlis Cavalcante de Paula JÃnior 26 March 2007 (has links)
CoordenaÃÃo de AperfeiÃoamento de Pessoal de NÃvel Superior / A anÃlise de formas representa um papel importante em aplicaÃÃes de visÃo computacional e processamento de imagens, e a representaÃÃo da forma à o primeiro passo para esta anÃlise. Esta presente dissertaÃÃo discute e aborda um conjunto de tÃcnicas disponÃveis na literatura para a geraÃÃo de uma representaÃÃo adequada de formas baseada em cantos. A abordagem proposta provà uma decomposiÃÃo wavelet nÃo-decimada do contorno representado pelo sinal de angulaÃÃo e curvatura afim de representar uma forma por seus pontos mais relevantes sem requerer intervenÃÃo do usuÃrio. A metodologia adotada apresenta resultados promissores, faz uso de ferramentas disponÃveis na literatura e elimina caracterÃsticas redundantes da forma com o intuito de alcanÃar uma representaÃÃo que mantenha uma reconstruÃÃo adequada da forma original. Uma nova medida de avaliaÃÃo, sob o aspecto do erro obtido na reconstruÃÃo, tambÃm à apresentada de modo a confirmar que o algoritmo proposto realiza com sucesso a sua meta e supera os detectores de cantos utilizados para testes e comparaÃÃes. / Shape analysis plays an important role in computer vision and image processing applications and shape representation is the first step towards it. The current dissertation discusses a set of techniques available in the literature in order to generate an adequate shape representation based on corners. The proposed approach provides an non-decimated wavelet decomposition of the represented contour by curvature and angulation signals in order to represent the shape using the most relevant contour points without requiring any user intervention. The adopted methodology presents promising results and it uses a set of tools, with little highlight in the literature, and it eliminates the redundant shape features in order to accomplish the suitable representation of the original shape. A novel evaluation measure, concerning the reconstruction error, is also presented to confirm that the proposed algorithm achieves its goal and outperforms other corner detectors used for tests and comparison.
48

Receptores MIMO baseados em algoritmo de decomposiÃÃo PARAFAC / MIMO receptors based on PARAFAC decomposition algorithm

Raul Liberato de Lacerda Neto 17 August 2005 (has links)
Programa AlÃan de bolsas de estudo de alto nÃvel destinado à AmÃrica Latina / Este trabalho tem como objetivo a aplicaÃÃo da anÃlise tensorial para o tratamento de sinais no domÃnio de comunicaÃÃes sem fio. Utilizando a decomposiÃÃo tensorial conhecida como PARAFAC (decomposiÃÃo por fatores paralelos), um receptor à modelado para um sistema de comunicaÃÃo sem fio que utiliza uma estrutura MIMO na qual cada antena transmissora possui um cÃdigo de espalhamento particular, baseado na tÃcnica de mÃltiplo acesso por divisÃo de cÃdigo (CDMA). Nesse trabalho sÃo analisadas duas estruturas receptoras baseadas na decomposiÃÃo PARAFAC. A primeira à baseada no conhecimento da matriz de cÃdigos de espalhamento e a segunda à baseada no conhecimento da matriz de seqÃÃncia de treinamento. Duas famÃlias de cÃdigos sÃo consideradas: cÃdigos de Hadamard-Walsh e cÃdigos de Hadamard-Walsh truncados. Como resultado, foi observado que os receptores propostos apresentaram rÃpida convergÃncia e foram capazes de eliminar todas as ambigÃidades, inclusive aquelas que sÃo intrÃnsecas à decomposiÃÃo PARAFAC, que foram observadas em outros trabalhos. Resultados de simulaÃÃo sÃo apresentados para comparar o desempenho das duas estruturas receptoras em diversas configuraÃÃes do sistema de comunicaÃÃo, revelando o impacto dos parÃmetros do sistema (nÃmero de antenas transmissoras, nÃmero de antenas receptoras, tamanho do cÃdigo e relaÃÃo sinal-ruÃdo). / This work deals with the application of multi-way analysis to the context of signal processing for wireless communications. A tensor decomposition known as PARAFAC (PARAllel FACtors) is considered in the design of multiple-input multiple-output (MIMO) receiver for a wireless communication system with Spread Spectrum codes. We propose two supervised PARAFAC-based receiver structures for joint symbol and channel estimation. The first one is based on the knowledge of the spreading codes and the second on the knowledge of a training sequence per transmit antenna. Two code structures are considered, which are Hadamard-Wash (HW) and Truncated Hadamard-Walsh (THW). The main advantages of the proposed PARAFAC receivers is on the fact that they exhibit fast convergence and eliminate all ambiguities inherent to the PARAFAC model. Simulation results are provided to compare the performances of the two receivers for several systems configurations, revealing the impact of the number of transmit antennas, number of receiver antennas, code length and signal to noise ratio in their performances.
49

ProposiÃÃo e avaliaÃÃo de algoritmos de filtragem adaptativa baseados na rede de kohonen / Proposition and evaluation of the adaptive filtering algorithms basad on the kohonen

Luis Gustavo Mota Souza 02 June 2007 (has links)
nÃo hà / A Rede Auto-OrganizÃvel de Kohonen (Self-Organizing Map - SOM), por empregar um algoritmo de aprendizado nÃo supervisionado, vem sendo tradicionalmente aplicada na Ãrea de processamento de sinais em tarefas de quantizaÃÃo vetorial, enquanto que redes MLP (Multi-layer Perceptron) e RBF (Radial Basis Function) dominam as aplicaÃÃes que exigem a aproximaÃÃo de mapeamentos entrada-saÃda. Este tipo de aplicaÃÃo à comumente encontrada em tarefas de filtragem adaptativa que podem ser formatadas segundo a Ãtica da modelagem direta e inversa de sistemas, tais como identificaÃÃo equalizaÃÃo de canais de comunicaÃÃo. Nesta dissertaÃÃo, a gama de aplicaÃÃes da rede SOM à estendida atravÃs da proposiÃÃo de filtros adaptativos neurais baseados nesta rede, mostrando que os mesmos sÃo alternativas viÃveis aos filtros nÃo-lineares baseados nas redes MLP e RBF. Isto torna-se possÃvel graÃas ao uso de uma tÃcnica recentemente proposta, Quantized Temporal Associative Memory - VQTAM), que basicamente usa a filosofia de chamada MemÃria Associativa Temporal por QuantizaÃÃo Vetorial (Vector )treinamento da rede SOM para realizar a quantizaÃÃo vetorial simultÃnea dos espaÃos de entrada e de saÃda relativos ao problema de filtragem analisado. A partir da tÃcnica VQTAM, sÃo propostos trÃs arquiteturas de filtros adaptativos baseadas na rede SOM, cujos desempenhos foram avaliados em tarefas de identificaÃÃo e equalizaÃÃo de canais nÃolineares. O canal usado nas simulaÃÃes foi modelado como um processo auto-regressivo de Gauss-Markov de primeira ordem, contaminado com ruÃdo branco gaussiano e dotado de nÃo-linearidade do tipo saturaÃÃo (sigmoidal). Os resultados obtidos mostram que filtros adaptativos baseados na rede SOM tÃm desempenho equivalente ou superior aos tradicionais filtros transversais lineares e aos filtros nÃo-lineares baseados na rede MLP.
50

Sistema de visÃo computacional para detecÃÃo e quantificaÃÃo de enfisema pulmonar / Computational Vision System for detection and pulmonary quality of emphysema

John Hebert da Silva Felix 03 December 2007 (has links)
FundaÃÃo Cearense de Apoio ao Desenvolvimento Cientifico e TecnolÃgico / A DoenÃa Pulmonar Obstrutiva CrÃnica (DPOC) e um problema de saÃde mundial com altos Ãndices de mortalidade, sendo o tabagismo o principal causador desta. Apesar da DPOC ser uma doenÃa de Ãmbito mundial Ã, geralmente, subestimada e subdiagnosticada, levando desta forma ao subtratamento. Para evitar um aumento de casos patolÃgicos com diagnÃsticos incorretos, a tomografia computadorizada deve ser utilizada jà que esta constitui uma excelente ferramenta para diagnÃstico precoce da componente de enfisema pulmonar na DPOC. PorÃm, as anÃlises nas imagens feitas pelos radiologistas ou mÃdicos à subjetiva levando-os a realizarem mediÃÃes imprecisas, devido à limitaÃÃo da visÃo humana. O objetivo deste trabalho à desenvolver um sistema de VisÃo Computacional para anÃlise de imagens tomogrÃficas (SDEP) capaz de segmentar automaticamente as imagens de Tomografia Computadorizada de Alta ResoluÃÃo (TCAR) dos pulmÃes, detectar e quantificar a presenÃa de enfisema pulmonar de modo preciso e automÃtico, possibilitando sua visualizaÃÃo. TambÃm, neste trabalho sÃo analisados os resultados, buscando avaliar a eficiÃncia do sistema SDEP comparando-o com o sistema Osiris 4, e com dois algoritmos de segmentaÃÃo. Os resultados da segmentaÃÃo sÃo analisados atravÃs da visualizaÃÃo de 102 imagens de 8 voluntÃrios saudÃveis e 141 imagens de 11 pacientes com DPOC. O sistema SDEP apresenta-se mais eficiente do que os outros mÃtodos considerados neste trabalho, tomando-se como base segmentaÃÃo correta, sobre-segmentaÃÃo, segmentaÃÃo com perdas e segmentaÃÃo errada. Este sistema realiza a segmentaÃÃo das faixas das densidades pulmonares atravÃs da mÃscara colorida, aplicando vÃrias cores em uma Ãnica imagem e quantifica cada cor por Ãrea e porcentagem, enquanto que o sistema Osiris usa apenas uma cor por vez em cada imagem. O sistema SDEP possui tambÃm uma ferramenta que faz a sobreposiÃÃo dos histogramas, o qual permite uma anÃlise visual mais adequada da evoluÃÃo da componente do enfisema. Este sistema possibilita auxÃlio ao diagnÃstico, bem como mostra-se ser uma ferramenta de pesquisa para anÃlise do enfisema pulmonar. / The Chronic Obstructive Pulmonary Disease (COPD) is a worldwide public health problem with high rates of mortality, being the tabacco the main causer of this disease. COPD is underestimated and underdiagnosed globally, and consequently the patient receives an undertreatment. To avoid an increase of pathological cases with incorrect diagnoses, the computerized tomography should be used as an excellent tool for premature diagnosis of pulmonary emphysema component from COPD. However, the analysis on images accomplished by radiologists or doctors is subjective,leading them to accomplish inaccurate measurements, due to human vision limitation. The objective of this work is to develop a Computational Vision System for Detection and Quantification of the Pulmonary Emphysema (SDEP) capable of segment automatically the images of High-Resolution Computerized Tomography (HRCT) of the lungs, allowing its better view. Also, in this study are analysed the obtained results to evaluate the eÂciency of SDEP system comparing it with the Osiris 4 system, and with two segmentation algorithms. Results of the segmentation are analysed through the viewing of 102 images of 8 healthy volunteers and 141 images of 11 COPD patients. The SDEP system presents more eÂcient than other methods considered in this work, evaluating the correct segmentation, the over segmentation, segmentation with losses, and wrong segmentation. The proposed system accomplishes the segmentation of zone from lung densities using colorful mask, applying several colors in a single image quantifying each color per area and percentage, while the Osiris system uses only one color on each image. The SDEP system has, beside of advantage presented, a tool that accomplish the overlap of histograms, which permit a more appropriate visual analysis of evolution of component on the emphysema. The proposed system offers to aided diagnosis, researchers, engineers, medical doctors and specialist and others of Medical Digital Image Processing field, one valid option for pulmonary emphysema analysis from HRCT images.

Page generated in 0.0749 seconds