• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 139
  • 128
  • 75
  • 31
  • 15
  • 11
  • 6
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 515
  • 515
  • 107
  • 97
  • 97
  • 78
  • 72
  • 71
  • 70
  • 66
  • 64
  • 60
  • 57
  • 50
  • 48
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Combined robust and fragile watermarking algorithms for still images : design and evaluation of combined blind discrete wavelet transform-based robust watermarking algorithms for copyright protection using mobile phone numbers and fragile watermarking algorithms for content authentication of digital still images using hash functions

Jassim, Taha Dawood January 2014 (has links)
This thesis deals with copyright protection and content authentication for still images. New blind transform domain block based algorithms using one-level and two-level Discrete Wavelet Transform (DWT) were developed for copyright protection. The mobile number with international code is used as the watermarking data. The robust algorithms used the Low-Low frequency coefficients of the DWT to embed the watermarking information. The watermarking information is embedded in the green channel of the RGB colour image and Y channel of the YCbCr images. The watermarking information is scrambled by using a secret key to increase the security of the algorithms. Due to the small size of the watermarking information comparing to the host image size, the embedding process is repeated several times which resulted in increasing the robustness of the algorithms. Shuffling process is implemented during the multi embedding process in order to avoid spatial correlation between the host image and the watermarking information. The effects of using one-level and two-level of DWT on the robustness and image quality have been studied. The Peak Signal to Noise Ratio (PSNR), the Structural Similarity Index Measure (SSIM) and Normalized Correlation Coefficient (NCC) are used to evaluate the fidelity of the images. Several grey and still colour images are used to test the new robust algorithms. The new algorithms offered better results in the robustness against different attacks such as JPEG compression, scaling, salt and pepper noise, Gaussian noise, filters and other image processing compared to DCT based algorithms. The authenticity of the images were assessed by using a fragile watermarking algorithm by using hash function (MD5) as watermarking information embedded in the spatial domain. The new algorithm showed high sensitivity against any tampering on the watermarked images. The combined fragile and robust watermarking caused minimal distortion to the images. The combined scheme achieved both the copyright protection and content authentication.
202

A Dynamic and Thermodynamic Approach to Complexity.

Yang, Jin 08 1900 (has links)
The problem of establishing the correct approach to complexity is a very hot and crucial issue to which this dissertation gives some contributions. This dissertation considers two main possibilities, one, advocated by Tsallis and co-workers, setting the foundation of complexity on a generalized, non-extensive , form of thermodynamics, and another, proposed by the UNT Center for Nonlinear Science, on complexity as a new condition that, for physical systems, would be equivalent to a state of matter intermediate between dynamics and thermodynamics. In the first part of this dissertation, the concept of Kolmogorov-Sinai entropy is introduced. The Pesin theorem is generalized in the formalism of Tsallis non-extensive thermodynamics. This generalized form of Pesin theorem is used in the study of two major classes of problems, whose prototypes are given by the Manneville and the logistic map respectively. The results of these studies convince us that the approach to complexity must be made along lines different from those of the non-extensive thermodynamics. We have been convinced that the Lévy walk can be used as a prototype model of complexity, as a condition of balance between order and randomness that yields new phenomena such as aging, and multifractality. We reach the conclusions that these properties must be studied within a dynamic rather than thermodynamic perspective. The second part focuses on the study of the heart beating problem using a dynamic model, the so-called memory beyond memory, based on the Lévy walker model. It is proved that the memory beyond memory effect is more obvious in the healthy heart beating sequence. The concepts of fractal, multifractal, wavelet transformation and wavelet transform maximum modulus (WTMM) method are introduced. Artificial time sequences are generated by the memory beyond memory model to mimic the heart beating sequence. Using WTMM method, the multifratal singular spectrums of the sequences are calculated. It is clear that the sequence with strong memory beyond memory effect has broader singular spectrum.2003-08
203

Relé digital de distância baseado na teoria de ondas viajantes e transformada Wavelet / Positional protection using travelingw waves and Wavelet transform theory

Valins, Thiago Ferreira 14 January 2005 (has links)
Neste trabalho, será abordada a proteção digital fundamentada na teoria de ondas viajantes e da ferramenta Transformada Wavelet. Um algoritmo completo para proteção digital foi implementado, consistindo basicamente nos módulos de detecção, classificação e localização da falta, com a conseqüente determinação das zonas de proteção do relé. Para este esquema completo de releamento, empregou-se como ferramenta de análise a Transformada Wavelet. Sinais transitórios de alta freqüência gerados por uma situação de falta podem ser analisados pela Transformada Wavelet, detectando-se com precisão o instante de chegada das ondas em um ou nos dois terminais da linha. Conhecendo o instante de chegada dessas ondas e sua velocidade de propagação, a zona de proteção na qual a falta está alocada pode ser estimada de maneira fácil e rápida. A capacidade de acusar com precisão os instantes de chegada das ondas torna a Transformada Wavelet adequada ao problema de determinação das zonas de proteção. Nessa implementação, o usuário pode escolher entre as técnicas de aquisição de dados provenientes de um ou de dois terminais. O algoritmo foi implementado através do software Matlabâ e posteriormente testado, quando se utilizaram dados de faltas obtidos através de simulações no software ATP (Alternative Transients Program). Nas simulações aplicadas a este software, considerou-se um sistema de transmissão de 440 kV. As simulações produziram uma base de dados, variando-se os seguintes parâmetros: tipos de faltas, localizações ao longo da linha, ângulos de incidência, resistências de faltas, entre outros. Pelos resultados alcançados, pode-se afirmar que a aplicação é bastante adequada para uso em relés digitais de distância. / The present work deals with digital protection based on the traveling wave theory and Wavelet transform. An complete algorithm for digital protection was implemented. It is composed of modules of fault detection, classification, location, with protection zone determination. For this complete relaying scheme the Wavelet transform was employed as analysis tool. Transient signals of high frequency generated by the fault occurrence was analyzed by the Wavelet transform, and also the instant of the waves arrival was accurately detected in one or two terminals of the line. By knowing the instant of the arrival of the waves and their propagation velocity, the protection zone, in which the fault is located, can be estimated easily and quickly. The Wavelet transform property of accurate detection the instant of waves arrival make it appropriate to the problem of protection zone determination. In this implementation, the user can choose between the location techniques using data from one or two terminals. The algorithm was implemented by Matlab® software and then tested utilizing data of faults obtained by means of simulations of ATP software (Alternative Transients Program). In these simulations, a transmission line of 440 kV was considered. These simulations produced a database composed of various fault types considering different fault locations, fault inception angles and fault resistances. According to the analysis of the test results, it is possible to verify that the application is very adequate for use in digital distance relays.
204

Desenvolvimento de filtros baseados em transformadas wavelet para espectroscopia por Ressonância Magnética / Development of wavelet transform based filters for magnetic resonance spectroscopy

Menezes, Leon Paixão 24 November 2017 (has links)
Existe hoje uma grande diversidade de técnicas modernas na física médica que são fundamentadas na tecnologia de ressonância magnética nuclear. Dentre estas, a espectroscopia por ressonância magnética é utilizada para medir a concentração de determinados metabólitos no paciente, permitindo o diagnóstico de doenças através de anormalidades no resultado. Dadas as limitações experimentais para melhorar a aquisição do sinal, seja na parte instrumental ou ainda pela necessidade de minimizar o tempo total dos exames, a utilização de técnicas de processamento de sinais apresenta soluções para a melhor visualização e manipulação do sinal estudado. Dentre estas, está o uso de filtros para atenuar os impactos do ruído nos dados amostrados. Recentemente, diversas áreas que necessitam de processamento de sinais têm explorado implementações de filtros que utilizam a transformada wavelet, apresentando resultados promissores com esta nova abordagem. Partindo de estudos prévios na área de espectroscopia por ressonância magnética, implementamos neste trabalho filtros com transformada wavelet, utilizando a metodologia Wavelet Shrinkage Denoising (WSD). A etapa de maior importância deste procedimento é o cálculo do limiar, isto é, o valor a partir do qual os coeficientes devem ser considerados uma representação de ruído (e portanto atenuados); além do método descrito anteriormente na literatura, foram desenvolvidas neste trabalho outras duas novas formas para este cálculo, totalizando três filtros. O primeiro método utiliza a estimativa de risco não-enviesada de Stein (SURE), o segundo uma estimativa do desvio padrão característico do ruído, calculado em uma porção sem picos do espectro, e o terceiro, por fim, introduz informação do sinal à etapa de limiarização, utilizando um procedimento de fitting para estimar regiões do espectro a serem preservadas. A performance destes filtros foi comparada entre si, e também com um método de referência utilizando a transformada de Fourier, primeiro em sinais simulados, e em seguida em sinais in vivo experimentais. Os resultados apresentam uma grande melhora na performance anteriormente documentada, com proposições de novas formas de explorar o potencial de filtros baseados em transformada wavelet. / Many of today techniques in medical physics are based on nuclear magnetic resonance technology. Among these, magnetic resonance spectroscopy is used to measure the concentration of certain metabolites in the patient, allowing the diagnosis of diseases through abnormalities in the results. Given the experimental limitations to improve the quality of the acquired signal, either by instrumental methods or due to the need to minimize the total time elapsed on exams, employing signal processing techniques presents solutions for best visualization and manipulation of the studied signal. Among these, there is the development of filters to mitigate the impacts of noise on the sampled data. Recently, several areas that require signal processing have explored filter implementations that use the wavelet transform, presenting promising results with this new approach. Based on previous studies in the area of magnetic resonance spectroscopy, we implemented wavelet transform filters using the Wavelet Shrinkage Denoising (WSD) methodology. A crucial step in this procedure is the calculation of the threshold, as this value establishes which coefficients are to be considered a noise representation (and therefore attenuated); in addition to the method described previously in the literature, two other new proceedures were developed in this work, totaling three filters. The first method uses the Stein unbiased risk estimator (SURE), the second an estimate of the characteristic standard deviation of the noise, calculated in a portion without peaks of the spectrum, and the third, finally, inputs information from the signal at the thresholding using a fitting procedure to estimate regions of the spectrum that must be preserved. The performance of these filters was compared between each other, and also to a reference method using the Fourier transform, first on simulated signals, and then on experimental in vivo signals. Results show a great improvement compared to performance previously documented, bringing new ways to explore the potential of filters based on wavelet transform.
205

Metodologia para automação de inspeção visual de bolsas para coleta de sangue / Methodology to automation visual inspection for blood bags

Adorni, Cássio Avelino 28 July 2008 (has links)
As bolsas para coleta de sangue necessitam cuidados técnicos que assegurem sua esterilidade biológica durante o processo de fabricação até a entrega do produto final. As bolsas para coleta de sangue não devem conter qualquer tipo de resíduo, para que o seu uso ou conteúdo não seja comprometido causando diversos transtornos. É preciso eliminar o risco de contaminação; no entanto muitas empresas fazem a inspeção de bolsas para coleta de sangue visualmente, a olho nu, por funcionários treinados no uso de equipamento simples, o qual não pode garantir que todas as bolsas estejam livres de resíduos, por depender do fator humano. Para assegurar a esterilização das bolsas comercializadas, este trabalho propõe uma metodologia para automação de um sistema de visão computacional baseado em conjunto de técnica de extração de características de imagens e reconhecimento de padrões para detectar resíduos em imagens de bolsas para coleta de sangue durante o processo de fabricação, e assim, melhorar a qualidade das bolsas comercializadas. Os resíduos encontrados nas imagens capturadas se apresentam como componentes de alta freqüência. A metodologia proposta utiliza a Transformada Wavelet (Wavelet de Haar) em dois níveis de decomposição, como filtro passa - alta para destacar as altas freqüências, e assim detectar a existência de resíduos nas imagens capturadas. Os resultados obtidos com a inspeção visual manual realizada em bolsas para coleta de sangue, mostram que existem resultados divergentes na análise de uma mesma bolsa, o que reforça a necessidade de automatização dessa tarefa para que sejam obtidos resultados mais uniformes com padrões definidos, e dessa maneira melhorar a qualidade das bolsas comercializadas para coleta de sangue. / The blood bags require technician attention to assure its biological sterility in the process of manufacture and in the final product. The blood bags must not contain any type of waste, so that its use or content is not compromised causing various disorders; it is necessary to eliminate any contamination risk; however many companies perform a visually inspection of the blood bags, by naked eye, by trained employees in the use of a simple equipment, which cannot guarantee that all the bags are residue-free because depending on the human factor. The residues showed on the pictures were characterized as high frequency components. So the proposed methodology applies two levels decomposition of Haar´s Wavelet as high pass filter to evidence high frequencies, and to evidence the residues at the pictures and to evidence the existence of residues on the captured pictures. To assure the sterilization of the commercialized blood bags, this work propose a methodology of an automated computational system based in a group of techniques of image characteristics extraction and recognition patterns to detect residues in blood bag images in the process of manufacture, in order to improve the quality of the commercialized blood bags.This technique is used as high-pass filter, to detach the high frequencies, using a Haar-wavelet in two decomposition levels. The results obtained with the manual visual inspection indicate that were found divergent results in the analysis of the same blood bag, which reinforces the necessity of the automation of this task in order to obtain more uniform results with defined standards.
206

Análise de wavelets com máquina de vetor de suporte no eletrencefalograma da doença de Alzheimer / Wavelets analysis with support vector machine in Alzheimer\'s disease EEG

Kanda, Paulo Afonso Medeiros 07 March 2013 (has links)
INTRODUÇÃO. O objetivo deste estudo foi responder se a transformada wavelet Morlet e as técnicas de aprendizagem de Máquina (ML), chamada Máquinas de Vetores de Suporte (SVM) são adequadas para procurar padrões no EEG que diferenciem controles normais de pacientes com DA. Não há um teste de diagnóstico específico para a doença de Alzheimer (DA). O diagnóstico da DA baseia-se na história clínica, neuropsicológica, exames laboratoriais, neuroimagem e eletroencefalografia. Portanto, novas abordagens são necessárias para permitir um diagnóstico mais precoce e preciso e para medir a resposta ao tratamento. EEG quantitativo (EEGq) pode ser utilizado como uma ferramenta de diagnóstico em casos selecionados. MÉTODOS: Os pacientes eram provenientes do Ambulatório do Grupo de Neurologia Cognitiva e do Comportamento (GNCC) da Divisão de Clínica Neurológica do HCFMUSP ou foram avaliados pelo grupo do Laboratório de Eletrencefalografia Cognitiva do CEREDIC HC-FMUSP. Estudamos EEGs de 74 indivíduos normais (33 mulheres/41 homens, com idade média de 67 anos) e 84 pacientes com provável DA leve a moderada (52 mulheres/32 homens, idade média de 74,7 anos. A transformada wavelet e a seleção de atributos foram processadas pelo software Letswave. A análise SVM dos atributos (bandas delta, teta, alfa e beta) foi calculada usando-se a ferramenta WEKA (Waikato Ambiente para Análise do Conhecimento). RESULTADOS: Na classificação dos grupos controles e DA obteve-se Acurácia de 90,74% e área ROC de 0,90. Na identificação de um único probando dentre todos os demais se conseguiu acurácia de 81,01% e área ROC de 0,80. Desenvolveu-se um método de processamento de EEG quantitativo (EEGq) para uso na diferenciação automática de pacientes com DA versus indivíduos normais. O processo destina-se a contribuir como complemento ao diagnóstico de demência provável principalmente em serviços de saúde onde os recursos sejam limitados / INTRODUCTION. The aim of this study was to answer if Morlet wavelet transform and machine learning techniques (ML), called Support Vector Machines (SVM) are suitable to look for patterns in EEG to differentiate normal controls from patients with AD. There is not a specific diagnostic test for Alzheimer\'s disease (AD). The diagnosis of AD is based on clinical history, neuropsychological testing, laboratory, neuroimaging and electroencephalography. Therefore, new approaches are needed to allow an early diagnosis and accurate to measure response to treatment. Quantitative EEG (qEEG) can be used as a diagnostic tool in selected cases. METHODS: The patients came from the Clinic Group Cognitive Neurology and Behavior (GNCC), Division of Clinical Neurology HCFMUSP or evaluated by the group of the Laboratory of Cognitive electroencephalography CEREDIC HCFMUSP. We studied EEGs of 74 normal subjects (33 females/41 men, mean age 67 years) and 84 patients with mild to moderate probable AD (52 females/32 men, mean age 74.7 years. Wavelet transform and the selection of attributes were processed by software Letswave. SVM analysis of attributes (bands delta, theta, alpha and beta) was calculated using the tool WEKA (Waikato Environment for Knowledge analysis). RESULTS: The group classification of controls and DA obtained an accuracy of 90.74% and ROC area 0.90. The identification of a unique proband among all others was achieved with accuracy of 81.01% and ROC area 0.80. It was developed a method of processing EEG quantitative (qEEG) for use in automatic differentiation of AD patients versus normal subjects. This process is intended to complement the diagnosis of probable dementia primarily in health services where resources are limited
207

Objective Perceptual Quality Assessment of JPEG2000 Image Coding Format Over Wireless Channel

Chintala, Bala Venkata Sai Sundeep January 2019 (has links)
A dominant source of Internet traffic, today, is constituted of compressed images. In modern multimedia communications, image compression plays an important role. Some of the image compression standards set by the Joint Photographic Expert Group (JPEG) include JPEG and JPEG2000. The expert group came up with the JPEG image compression standard so that still pictures could be compressed to be sent over an e-mail, be displayed on a webpage, and make high-resolution digital photography possible. This standard was originally based on a mathematical method, used to convert a sequence of data to the frequency domain, called the Discrete Cosine Transform (DCT). In the year 2000, however, a new standard was proposed by the expert group which came to be known as JPEG2000. The difference between the two is that the latter is capable of providing better compression efficiency. There is also a downside to this new format introduced. The computation required for achieving the same sort of compression efficiency as one would get with the original JPEG format is higher. JPEG is a lossy compression standard which can throw away some less important information without causing any noticeable perception differences. Whereas, in lossless compression, the primary purpose is to reduce the number of bits required to represent the original image samples without any loss of information. The areas of application of the JPEG image compression standard include the Internet, digital cameras, printing, and scanning peripherals. In this thesis work, a simulator kind of functionality setup is needed for conducting the objective quality assessment. An image is given as an input to our wireless communication system and its data size is varied (e.g. 5%, 10%, 15%, etc) and a Signal-to-Noise Ratio (SNR) value is given as input, for JPEG2000 compression. Then, this compressed image is passed through a JPEG encoder and then transmitted over a Rayleigh fading channel. The corresponding image obtained after having applied these constraints on the original image is then decoded at the receiver and inverse discrete wavelet transform (IDWT) is applied to inverse the JPEG 2000 compression. Quantization is done for the coefficients which are scalar-quantized to reduce the number of bits to represent them, without the loss of quality of the image. Then the final image is displayed on the screen. The original input image is co-passed with the images of varying data size for an SNR value at the receiver after decoding. In particular, objective perceptual quality assessment through Structural Similarity (SSIM) index using MATLAB is provided.
208

Melhoramento de sinais de voz baseado na identificação de padrões ruidosos / Speech enhancement based on noisy patterns identification

Abreu, Caio Cesar Enside de [UNESP] 03 March 2017 (has links)
Submitted by CAIO CESAR ENSIDE DE ABREU null (caioenside@gmail.com) on 2017-03-24T20:37:01Z No. of bitstreams: 1 TeseCaio.pdf: 2444421 bytes, checksum: 576f59395bffe14aa56f611b1a2dd648 (MD5) / Approved for entry into archive by Luiz Galeffi (luizgaleffi@gmail.com) on 2017-03-29T18:19:15Z (GMT) No. of bitstreams: 1 abreu_cce_dr_ilha.pdf: 2444421 bytes, checksum: 576f59395bffe14aa56f611b1a2dd648 (MD5) / Made available in DSpace on 2017-03-29T18:19:15Z (GMT). No. of bitstreams: 1 abreu_cce_dr_ilha.pdf: 2444421 bytes, checksum: 576f59395bffe14aa56f611b1a2dd648 (MD5) Previous issue date: 2017-03-03 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Este trabalho propõe contribuir com pesquisas em melhoramento de voz (MV) por meio do estudo de diversos tipos de algoritmos baseados em Fourier e wavelets, assim como o desenvolvimento de uma ferramenta para a identificação e classificação do ruído, culminando com uma nova metodologia. Denominada "Conjunto de Métodos de Melhoramento de Voz (CMMV)'', a metodologia consiste em utilizar um banco de dados com sentenças contaminadas com vários tipos de ruídos reais, ajustando, em modo off-line, vários métodos de MV para cada tipo de ruído. Os melhores métodos para cada tipo de ruído são selecionados para compor o conjunto de métodos. Durante a operação, em modo on-line, um classificador de ruído prediz o tipo de ruído presente no sinal em processamento e então o melhor método é escolhido dentro do CMMV construído. Seis tipos de ruídos foram utilizados durante as simulações e os métodos que obtiveram melhor desempenho frente a cada tipo foram indicados por meio de análise objetiva. Constatou-se que o desempenho desses métodos pode variar de acordo com o tipo do ruído de fundo, confirmando que o desenvolvimento de algoritmos que trabalham eficientemente em qualquer ambiente ruidoso, incorporando classificação de ruído, é uma tendência. O classificador de ruídos desenvolvido nesta pesquisa tem como base um sistema imunológico artificial e características extraídas por uma análise multiescala fornecida pela transformada wavelet complexa. Com uma acurácia média de 96,29% para os seis tipos de ruído considerados e tempo de resposta médio de 6,9 milissegundos, o classificador desenvolvido se mostrou viável para implementações e utilização em conjunto com outras tecnologias. Explorando algumas das possibilidades e benefícios do processamento baseado na classificação do ruído, a seguinte questão foi levantada: "seria possível realizar uma razoável estimação do ruído a partir do sinal de voz ruidoso por meio de regressão?”. Esta questão surgiu durante o desenvolvimento da pesquisa, pois o bom funcionamento de métodos de MV depende de uma boa estimação do perfil do ruído. As simulações mostram que este tipo de estimação de ruído pode gerar resultados satisfatórios com menor custo computacional. Por fim, comparado aos métodos clássicos, o CMMV mostrou-se tão ou mais eficiente quanto.
209

Melhoramento de sinais de voz baseado na identificação de padrões ruidosos /

Abreu, Caio Cesar Enside de. January 2017 (has links)
Orientador: Francisco Villarreal Alvarado / Resumo: Este trabalho propõe contribuir com pesquisas em melhoramento de voz (MV) por meio do estudo de diversos tipos de algoritmos baseados em Fourier e wavelets, assim como o desenvolvimento de uma ferramenta para a identificação e classificação do ruído, culminando com uma nova metodologia. Denominada "Conjunto de Métodos de Melhoramento de Voz (CMMV)'', a metodologia consiste em utilizar um banco de dados com sentenças contaminadas com vários tipos de ruídos reais, ajustando, em modo off-line, vários métodos de MV para cada tipo de ruído. Os melhores métodos para cada tipo de ruído são selecionados para compor o conjunto de métodos. Durante a operação, em modo on-line, um classificador de ruído prediz o tipo de ruído presente no sinal em processamento e então o melhor método é escolhido dentro do CMMV construído. Seis tipos de ruídos foram utilizados durante as simulações e os métodos que obtiveram melhor desempenho frente a cada tipo foram indicados por meio de análise objetiva. Constatou-se que o desempenho desses métodos pode variar de acordo com o tipo do ruído de fundo, confirmando que o desenvolvimento de algoritmos que trabalham eficientemente em qualquer ambiente ruidoso, incorporando classificação de ruído, é uma tendência. O classificador de ruídos desenvolvido nesta pesquisa tem como base um sistema imunológico artificial e características extraídas por uma análise multiescala fornecida pela transformada wavelet complexa. Com uma acurácia média de 96,29% para os seis... (Resumo completo, clicar acesso eletrônico abaixo) / Doutor
210

Real-time Vision-Based Lane Detection with 1D Haar Wavelet Transform on Raspberry Pi

Sudini, Vikas Reddy 01 May 2017 (has links)
Rapid progress is being made towards the realization of autonomous cars. Since the technology is in its early stages, human intervention is still necessary in order to ensure hazard-free operation of autonomous driving systems. Substantial research efforts are underway to enhance driver and passenger safety in autonomous cars. Toward that end GreedyHaarSpiker, a real-time vision-based lane detection algorithm is proposed for road lane detection in different weather conditions. The algorithm has been implemented in Python 2.7 with OpenCV 3.0 and tested on a Raspberry Pi 3 Model B ARMv8 1GB RAM coupled to a Raspberry Pi camera board v2. To test the algorithm’s performance, the Raspberry Pi and the camera board were mounted inside a Jeep Wrangler. The algorithm performed better in sunny weather with no snow on the road. The algorithm’s performance deteriorated at night time or when the road surface was covered with snow.

Page generated in 0.0738 seconds