• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 135
  • 31
  • 9
  • 8
  • 7
  • 6
  • 5
  • 4
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 236
  • 236
  • 236
  • 125
  • 124
  • 36
  • 28
  • 23
  • 21
  • 21
  • 20
  • 20
  • 20
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Desarrollo de un sistema electrónico portátil orientado a la detección de billetes falsos de 50, 100 y 200 soles basado en algoritmos de procesamiento digital de imágenes / Development of a portable electronic system oriented to the detection of counterfeit bills of 50, 100 and 200 soles based on digital image processing algorithms

Huaytalla Usurin, Bryan Juan, Humari Quispe, Diego Oswaldo 19 July 2020 (has links)
Solicitud de envío manuscrito de artículo científico. / Solicitud de envío manuscrito de artículo científico. / El presente proyecto de tesis propone el desarrollo de un sistema portátil de detección de billetes falsos de 50, 100 y 200 soles de diagnóstico automático basado en procesamiento digital de imágenes e implementado en un computador de placa reducida. En la actualidad, las técnicas de falsificación de billetes que se usan en el Perú son capaces de burlar a los sistemas de detección tradicionales. El sistema propuesto se basa en una detección más eficiente ya que enfoca la adquisición y segmentación de imagen en los patrones calcográficos de marcas de alto relieve. Para optimizar este proceso, se hace uso de una cámara, una lente y un recinto portable. Al resultado se le aplican filtros de repujado, de sobel, de erosión y de dilatación sucesivamente, para resaltar las características distintivas de los billetes legítimos. Finalmente, se usan Máquinas de Soporte Vectorial para clasificar los billetes falsos y los verdaderos, de acuerdo al proceso de entrenamiento realizado para cada denominación. El resultado entregado permitirá que el algoritmo pueda discernir la legitimidad del billete e indicarlo en un display para el entendimiento de cualquier usuario. Asimismo, el computador va conectado a una base de datos para transmitir las estadísticas de billetes falsos detectados. Para la validación de la solución, se han procesado muestras de 278 billetes entre verdaderos y falsos de 50, 100 y 200 soles provistos por el BCRP, o Banco Central de Reserva del Perú. En estas pruebas se obtuvo un porcentaje precisión mayor al 97% para identificar billetes falsos. / The present thesis project proposes to design a portable system to detect 50, 100 and 200 soles counterfeit bills with automatic diagnosis based on digital image processing and implemented on a reduced plate computer. Nowadays, the current counterfeiting techniques for bills being used in Peru are capable of eluding the traditional detection systems. The system being proposed is based on a more efficient detection because the acquisition and image segmentation is being focused on the chalcographic patterns of high relief. To optimize this process, a camera, a lens and a portable enclosure are being used. Then, the system applies the embossing filter, the sobel filter, the erosion filter and the expansion filter successively, to emphasize the distinctive characteristics of the legitimate bills. Finally, Support Vector Machines are used to classify real and counterfeit bills, based on the training process performed for each denomination. The result delivered will allow the program to discern the legitimacy of the bill and show it on a display to ease the understandment by any user. Likewise, the computer is connected to a database in order to transmit the statistics of counterfeit bills detected. To validate the solution, samples of 278 bills, counterfeit and legal, of 50, 100 and 200 soles were processed. These were provided by the BCRP, the official organism of Peru in charge of coins and bills. In this tests, the results show a presicion of over 97% of counterfeited bills correctly identified. / Tesis
22

Radiography in Palaeopathology: Where Next?

Buckberry, Jo, O'Connor, Sonia A. January 2007 (has links)
Yes / Radiography has frequently been used during palaeopathological research, and plays an important role in the differential diagnosis of many diseases, including Paget¿s disease and carcinomas. Traditionally, radiographs were taken in hospitals with clinical equipment. However industrial radiography techniques have gradually become more commonly used, as their superior image quality and improved potential for diagnoses become recognised. The introduction of radiographic scanners has facilitated the digitisation of these images for dissemination and publication. However this is not all that radiographic digitisation can offer the researcher. Digital image processing (DIP) allows the researcher to focus on an area of interest and to adjust the brightness and contrast of the captured image. This allows the investigation of areas of high radio-opacity and radio-lucency, providing detailed images of the internal structures of bone and pathological lesions undetectable by the naked eye. In addition 3D effects, edge enhancement and sharpening algorithms, available through commonly used image processing software, can be very effective in enhancing the visibility of specific features. This paper will reveal how radiographic digitisation and manipulation can enhance radiographic images of palaeopathological lesions and potentially further our understanding of the bony manifestations of disease.
23

Computationally Efficient Video Restoration for Nyquist Sampled Imaging Sensors Combining an Affine-Motion Based Temporal Kalman Filter and Adaptive Wiener Filter

Rucci, Michael 05 June 2014 (has links)
No description available.
24

Analýza výsledků modelování částicových jevů v počítačových hrách / Analýza výsledků modelování částicových jevů v počítačových hrách

Novotný, Jiří January 2014 (has links)
The main subject of this thesis is to design a method that is able to compare the outputs of a manually set up particle system with a video template of a simulated particle phenomenon. For the sake of simplicity, this work is focused exclusively to smoke effects and its comparisons. Specifically, descriptors depicting the color scheme of the examined input videos are proposed as well as the shape descriptors and time variability descriptors, which are based on the image segmentation method called Alpha Matting. This method is able to distinguish foreground objects from the background, while the foreground objects are described together with their transparency. Video template recordings captured specially for the purpose of this work are included. At the end, the resulting method is supported by an example of the gradually improving smoke effect simulation. Powered by TCPDF (www.tcpdf.org)
25

Abordagens para a segmentação de coronárias em ecocardiografia. / Approaches for coronary segmentation in echocardiography.

Souza, André Fernando Lourenço de 03 August 2010 (has links)
A Ecocardiografia continua sendo a técnica de captura de imagens mais promissora, não-invasiva, sem radiação ionizante e de baixo custo para avaliação de condições cardíacas. Porém, é afetada consideravelmente por ruídos do tipo speckle, que são difíceis de serem filtrados. Por isso fez-se necessário fazer a escolha certa entre filtragem e segmentador para a obtenção de resultados melhores na segmentação de estruturas. O objetivo dessa pesquisa foi estudar essa combinação entre filtro e segmentador. Para isso, foi desenvolvido um sistema segmentador, a fim de sistematizar essa avaliação. Foram implementados dois filtros para atenuar o efeito do ruído speckle - Linear Scaling Mean Variance (LSMV) e o filtro de Chitwong - testados em imagens simuladas. Foram simuladas 60 imagens com 300 por 300 pixels, 3 modelos, 4 espessuras e 5 níveis de contrastes diferentes, todas com ruído speckle. Além disso, foram feitos testes com a combinação de filtros. Logo após, foi implementado um algoritmo de conectividade Fuzzy para fazer a segmentação e um sistema avaliador, seguindo os critérios descritos por Loizou, que faz a contagem de verdadeiro-positivos (VP) e falso-positivos (FP). Foi verificado que o filtro LSMV é a melhor opção para segmentação por conectividade Fuzzy. Foram obtidas taxas de VP e FP na ordem de 95% e 5%, respectivamente, e acurácia em torno de 95%. Para imagens ruidosas com alto contraste, aplicando a segmentação sem filtragem, a acurácia obtida foi na ordem de 60%. / The echocardiography is the imaging technique that remains most promising, noninvasive, no ionizing radiation and inexpensive to assess heart conditions. On the other hand, is considerably affected by noises, such as speckle, that are very difficult to be filtered. That is why it is necessary to make the right choice of filter and segmentation method to obtain the best results on image segmentation. The goal was evaluate this filter and segmentation method combination. For that, it was developed a segmentation system, to help the assessment. Two filters were implemented to mitigate the effect of speckle noise Linear Scaling Mean Variance (LSMV) and the filter presented by Chitwong - to be tested in simulated images. We simulated 60 images, with size 300 by 300 pixels, 3 models, 4 thicknesses and 5 different levels of contrast, all with speckle noise. In addition, tests were made with a combination of filters. Furthermore, it was implemented a Fuzzy Connectedness algorithm and an evaluation system, following the criteria described by Loizou, which makes the true positives (TP) and false positives (FP) counting. It was found that the LSMV filter is the best option for Fuzzy Connectedness. We obtained rates of TP and FP of 95% and 5% using LSMV, and accuracy of 95%. Using high contrast noisy images, without filtering, we obtained the accuracy in order of 60%.
26

Método para segmentação de pele humana em imagens faciais baseado em informações de cor e textura / A method for human skin segmentation in facial images based on color and texture features

Casati, João Paulo Brognoni 10 December 2013 (has links)
A segmentação de pele em imagens é um importante processo para uma vasta gama de aplicações, como detecção e rastreamento de faces, reconhecimento de gestos, computação forense, entre outros. Um dos maiores problemas encontrados neste tipo de aplicação é a presença de objetos que possuem cor de pele nas imagens, mas não fazem parte de segmentos reais de pele, sendo muitas vezes erroneamente classificados como pele. A fim de reduzir a frequência destes falsos positivos, é apresentado neste trabalho um método de segmentação de pele humana em imagens faciais que possui duas diferentes etapas que reduzem a quantidade de falsos positivos do processo sem que se percam quantidades significantes de verdadeiros positivos. Estas duas etapas são chamadas de FPAR (False Positive Area Reduction) e aplicação de textura. A primeira visa remover segmentos não contínuos classificados como pele e a segunda aborda a aplicação de textura nas imagens, removendo áreas em que a textura não se assemelha à textura de pele humana. Para isto, foi desenvolvido o banco de imagens SFA (Skin of FERET and AR), constituído de imagens originais dos bancos de faces FERET e AR, seus respectivos ground truths de segmentação de pele e amostras de pele e não pele extraídas das imagens originais. O método apresentado neste trabalho apresenta resultados promissores atingindo até 46,9% de redução de falsos positivos sem que a acurácia aferida tenha redução significante (apenas 1,8%). Este trabalho tem como contribuições o método desenvolvido e o banco de imagens SFA que fica disponível online para download pela comunidade científica. / Skin segmentation is an important process for many kinds of application like face detection, face tracking, gesture recognition, forensic computing and others. One of the main problems found in this kind of application is the presence of objects which have skin color but are not part of actual skin segments, being wrongly classified as skin. Aiming to reduce the frequency of these false positives, this work presents a method of human skin segmentation in facial images which has two different steps that reduces the false positives without losing significant areas of true positives. These two steps are called FPAR (False Positive Area Reduction) and texture application. The first one removes segments classified as skin which are not continuous and the second one is an analysis of the image texture, removing areas which the texture is not alike human skin texture. To achieve this, the SFA (Skin of FERET and AR) image database was developed, constituted of original images retrieved from AR and FERET face databases, their respective ground truths of skin segmentation and skin and non-skin samples retrieved from the original images. The method presented in this work shows promising results, reaching up to 46.9% of false positive reduction without significant reduction of the accuracy (1.8%). This work has as contributions the developed method and the SFA database, which is available for download for scientific community.
27

Registro de imagens de histologia e ressonância magnética: aplicação em imagens do encéfalo / Histology image registration and magnetic resonance: application in images of the brain.

Alegro, Maryana de Carvalho 24 June 2014 (has links)
Apesar dos avanços recentes na tecnologia dos aparelhos de ressonância magnética (RM) permitirem a aquisição de imagens de alta resolução, ainda não é possível delinear de forma confiável os limites entre regiões de diferentes citoarquiteturas baseando-se somente nesta modalidade. As imagens de histologia são mandatórias quando se necessita saber o limite exato entre diferentes regiões neuroanatômicas. Contudo, o processamento histológico inevitavelmente causa grandes deforma¸coes no tecido, o que torna a compara- ção direta entre as duas modalidades inviável. Os estudos de neuroimagem/neuroanatomia que necessitam de comparação com a histologia devem necessariamente incluir uma etapa de alinhamento entre as duas modalidades; tarefa que muitas vezes acaba sendo realizada manualmente. Entretanto, o registro manual ´e demorado e pouco acurado, se tornando inviável quando os exames de histologia geram centenas de imagens. Este trabalho propõe um método para registro de imagens de histologia e RM, composto por um conjunto de recomenda¸coes para o preparo das imagens cujo objetivo ´e otimizá-las para o registro; e por uma pipeline computacional capaz de registrar as imagens consideradas. O trabalho aqui descrito foi desenvolvido primeiramente com o intuito de registrar imagens de espécimens de hipocampo provenientes do projeto CINAPCE e, posteriormente, para registro de imagens de encéfalo inteiro provenientes do Banco de Cérebros da Faculdade de Medicina da Universidade de São Paulo. A pipeline computacional foi testada com sucesso em imagens reais de dois encéfalos inteiros. A avaliação quantitativa dos registros realizados foi feita comparando segmenta¸coes manuais do hipocampo direito, núcleo caudado esquerdo e ventrículos laterais superiores, realizadas no volume de RM e da histologia registrada. A quantificação do resultado foi feita através do cálculo das métricas coeficiente de Dice (CSD) e distancia espectral ponderada (DEP) sobre as segmentações. A pipeline obteve um CSD médio de aproximadamente 0,77 e um DEP médio de aproximadamente 0,003. Os resultados mostraram que o método foi capaz de registrar as imagens de histologia nas respectivas imagens de RM exigindo interação mínima com o usuário. / Although latest advances in MRI technology have allowed the acquisition of higher resolution images, reliable delineation of cytoarchitectural boundaries is not yet possible based solely on that modality. Histological images are regularly required to locate the exact limits between neuroanatomical structures. Histological processing is nevertheless prone to cause a high amount of tissue distortion, which prevents direct comparison between the two modalities. Neuroimage/neuroanatomy studies that require direct comparison between histology am MRI must include a registration step. Such task is usually manually performed, but that becames infeasible for large histology volumes. Moreover, manual registration is time consuming and inaccurate. This thesis proposes a set of tissue processing recommendations aiming at optimizing the registration proccess, together with a computational pipeline for registering histology to MRI. The herein described work was initially designed to proccess hippocampi specimens from the CINAPCE project and posteriorly improved to process full brain images from the Brain Bank of the Brazilian Aging Brain Study Group. The pipeline was tested on two full brain histology volumes from the Brain Bank of the Brazilian Aging Brain Study Group. Results were assessed by comparison of manual segmentations of the left caudate nucleus, right hippocampus and superior lateral ventricles, performend on both MRIs and registered histology volumes. Quatitative evaluation was performed by computing the Dice coeficient (DC) and normalized weighted spectral distance (WESD) on the segmentations. The pipeline precessing yielded mean DC of 0.77 and mean WESD of 0.0033. The described method was able to sucessfuly register histology to their corresponding MRI volumes with minimal user interaction.
28

Metodologia experimental para obtenção dos parâmetros hidrodinâmicos do VSNT JAHU II, baseado em processamento digital de imagens. / Experimental methodology for the obtaining of the hydrodynamic parameters of VSNT JAHU II, based in digital image processing.

Prado, Alex de Almeida 12 February 2009 (has links)
Atualmente está aumentando a necessidade de utilização de veículos submersíveis não tripulados nos meios aquáticos, tanto para observação científica, como também para monitoramento de obras de engenharia. As posições destes veículos são controladas, em geral, manualmente o que torna essas operações tarefas longas e cansativas aos seus pilotos. Uma alternativa que simplifica estas operações é a utilização, quando necessário, de um sistema automático de posição para aliviar o piloto de funções básicas. Para o desenvolvimento de um sistema de posicionamento automático eficiente é necessário um modelo matemático para a dinâmica do veículo, que envolve o conhecimento dos parâmetros hidrodinâmicos que caracterizam o comportamento do veículo, principalmente em casos onde o veículo possua formas geométricas complexas, sendo assim torna-se compulsório a realização de métodos experimentais para a determinação dos coeficientes hidrodinâmicos do modelo. Na Faculdade de Tecnologia de Jahu vem se desenvolvendo desde 1999 a segunda versão de um veículo submersível não tripulado para utilização em ambiente fluvial denominado VSNT JAÚ II. Este trabalho propõe a utilização de métodos experimentais para a obtenção de alguns dos coeficientes hidrodinâmicos do veículo, no qual são considerados massa adicional e amortecimento viscoso que serão estimados através de ensaios de decaimento livre, utilizando um modelo em escala reduzida e técnicas de processamento digital de imagem. Para estimativa dos coeficientes de massa adicional e amortecimento viscoso o método proposto é baseado método dos mínimos quadrados e separa os movimentos do veículo em dois planos, vertical e horizontal, considerando termos de acoplamento nos movimentos nesses planos. / Unmanned underwater vehicles they have been used continually by the planet in spite of the difficulties of your operation, both for scientific observation, but also for monitoring of engineering works. The positions of these vehicles are controlled, in general, which makes manually they work long and tiring to their pilots. An alternative that simplifies this operation is the use of an automatic system of position to relieve the pilot of basic functions. For the development of an efficient of automatic positioning system it is necessary a mathematical model of the vehicle, it is necessary the knowledge of the hydrodynamic parameters that characterize the behavior of the vehicle. Those parameters are difficult to obtain through theoretical procedures, in cases where the vehicle possesses complex forms, and then experimental methods are used. In Faculdade de Tecnologia de Jahu it comes the developing since 1999 the second version of an unmanned underwater vehicle for use in fluvial environments denominated VSNT JAÚ II. This work proposes the use of an experimental method for the obtaining of some of the hydrodynamic coefficients of the Vehicle, based on rehearsals of free decay, using a model in reduced scale and techniques of digital image processing. The proposed procedure separates the movements of the vehicle in two plans, vertical and horizontal, considering joining terms in the movements in those plans.
29

O uso de processamento digital de imagens do sensor Advanced Spaceborne Thermal Emission and Reflection Radiometer (ASTER) na identificação de horizontes coesos em solos dos tabuleiros costeiros da Bahia / The use of digital image processing of the Advanced Spaceborne Thermal Emission and Reflection Radiometer (ASTER) sensor in the identification of cohesive horizons in soils of the Coastal Tableland of Bahia

Santos, Rosângela Leal 21 December 2005 (has links)
Os Tabuleiros Costeiros são unidades geomorfologicamente definidas, caracterizando-se como formações sedimentares de topos aplainadas de grande extensão territorial, amplamente povoada, com intensa exploração econômica agropecuária, mas com a presença constante de restrições físicas ao uso agrícola, associadas à presença de solos com horizontes coesos em subsuperfície. A presença deste horizonte coeso reduz a profundidade efetiva dos solos, prejudicando a dinâmica da água no perfil e, principalmente, o aprofundamento do sistema radicular, reduzindo as taxas de infiltração de água, criando lençóis freáticos suspensos e que se desenvolvem particularmente sob os Latossolos Amarelos (Latossolos Amarelos) e os Argissolos Amarelos (Podzólicos Amarelos). Assim, a presença destes horizontes em áreas úmidas, pode ser associada a um maior teor de umidade nos solos, que pode ser captada pelo sensor. Devido a sua natureza pedológica e sua localização em sub superfície e sua grande extensão, estes solos demandam grandes recursos para sua efetiva localização e mapeamento. A aplicação de técnicas de processamento digital de imagens nas imagens do sensor ASTER, um sensor experimental e pouco explorado, possibilita a redução de custos, empregados nos levantamentos exploratórios para localização destes horizontes coesos. O principal objetivo deste trabalho foi submeter imagens obtidas através do sensoriamento remoto óptico orbital, do sensor ASTER, a diferentes técnicas de processamento digital de imagens, para assim identificar, reconhecer e caracterizar a presença dos horizontes coesos nos solos dos Tabuleiros Costeiros da Bahia, utilizando como critério identificador, o teor de umidade dos solos. O trabalho foi desenvolvido numa área de aproximadamente 2.475km2, onde está inserida uma área de referência de 29km2, situada no município de Esplanada, onde predominam solos da mesma Classe (Podzólicos Amarelos e Acinzentados) mas diferenciados em unidades que possuem diversos graus de coesão, com textura que varia de arenosa a argilosa. Foi utilizada uma única cena ASTER, sob a qual foi extraída oitenta amostras para determinar a relação entre o teor de umidade dos solos e as diferentes técnicas de processamento digital de imagens. Foram realizadas vinte e seis técnicas de realce (análise componentes principais, Transformação Tasseled Cap, NDVI, NDMI, SAVI e vinte e uma razões entre bandas do sensor ASTER) , além da aplicação de uma classificação supervisionada (método da máxima verossimilhança), com limiar de aceitação de 95%. Os resultados demonstraram que a sétima componente principal é o melhor produto para mapear a presença dos horizontes coesos, por melhor identificar a umidade do solo; o NDMI, o SAVI e a Umidade obtida através da Transformação Tasseled Cap têm um comportamento similar entre si, mas com resultados menos evidentes e entre as razões entre as faixas espectrais testadas, os melhores resultados foram as razões entre as faixas 1 e 8 e entre as faixas 3 e 8. / The Coastal Tableland are units geomorfologicaly defined, characterized by sedimentary formations of smoothed tops of great territorial extension, widely populated, with intense agricultural economic exploration, but with the constant presence of physical restrictions to agricultural use, that are associated to cohesion horizons in subsurface. The presence of this cohesion horizon reduces the soils depth, harming the dynamics of the water in the profile and, mainly, the radicular system of depth, reducing the water infiltration rates and creating suspended sheets particularly under Yellow Latossol and Yellow Podzolic. Thus, the presence of these horizons in humid areas can be associated with higher moisture levels in the soils that can be caught by the sensor. Due to its pedologic nature, sub surface and great extension location, these soil demand great resources for its effective localization and mapping. The application of techniques of image digital processing in the images of the ASTER sensor, an experimental and few explored sensor, turns possible the reduction of costs, used in the exploratory searches for the localization of these cohesion horizons. The main objective of this work was to submit images obtained through the orbital optical remote sensed, of the ASTER sensor, the different image digital processing techniques, in order to identify, to recognize and to characterize the cohesion horizons soil of Coastal Tableland of Bahia, using as identification criteria, the soil moisture contents . The work was developed in an area of 2.475km2 approximately, where an area of reference of 29km2 is inserted, situated in Esplanada city of, where soil of the same class prevail (Yellow and Grey Podzólicos) but differentiated in predominate units that possess diverse cohesion degrees , with texture that varies of sandy the loamy. An only ASTER scene was used, under which it was extracted eighty samples to determine the relationship between the the soil moisture contents and the different images digital images processing techniques. Twenty-six techniques of distinction had been carried through (principal components analysis, Tasseled Cap Transformation, NDVI, NDMI, SAVI and twenty bands ratio on the ASTER sensor bands), beyond the application of a supervised classification (Maximum Likelihood method), with threshold of 95% acceptance. The results had demonstrated that the seventh principal component is the best product to map the cohesion horizons presence and to identify the soil moisture contents; the NDMI, the SAVI and the Wetness obtained through the Tasseled Cap Transformation have a similar behavior, but with less evidences relating the results and, the ratio bands tested, the best results had been those found between bands 1 to 8 and bands 3 to 8.
30

Um método para projetar sistemas embarcados baseado na metodologia de engenharia dirigida por modelos aplicado a sistemas de processamento de imagens

Doering, Dionísio January 2015 (has links)
Sistemas embarcados estão presentes em inúmeras atividades realizadas diariamente, por exemplo, eles são parte integrante dos meios de transporte, encontram-se em sistemas de entretenimento como os tablets e telefones celulares e ainda podem estar dentro das pessoas, como nos usuários de marca-passo. Os sistemas embarcados são desenvolvidos em níveis de complexidade bem distintos, variando de sistemas bem simples até sistemas altamente elaborados e complexos. Essa complexidade pode ser atribuída a diversos fatores, incluindo a necessidade de poder executar múltiplas tarefas em unidades de processamento heterogêneas (baseadas em CPU, GPU, DSP e FPGAs) e atendendo aos requisitos exigidos pelos usuários. Em função do aumento da complexidade e da necessidade de manter o tempo e custo do desenvolvimento de novos sistemas embarcados baixo, uma solução que vem sendo discutida é o uso de metodologias de projetos baseadas em modelos. Estas metodologias usam o modelo como fonte principal de informação. As informações contidas nos modelos variam de acordo com o estágio de desenvolvimento do sistema: nos modelos iniciais são descritivas, simples, incompletas mas permitem realizar simulações que podem ser usadas para guiar o desenvolvimento do próprio sistema. Com o amadurecimento do projeto, mais informações são agregadas aos modelos, tornando-os mais próximos do sistema a ser implementado. Este processo reduz o nível de abstração dos modelos até o ponto que é possível gerar, entre outros artefatos, o código fonte. Neste contexto, sistemas de processamento de imagens embarcados são exemplos de sistemas complexos que fazem processamento de dados de forma intensiva. Estes sistemas são tradicionalmente desenvolvidos em um nível de abstração baixo que tipicamente incluem diagramas blocos e diagrama de estados. Para que seja possível administrar o crescente aumento da complexidade, em um baixo tempo de desenvolvimento, destes sistemas é necessário que sejam criados métodos que permitam desenvolvê-los em um nível mais alto de abstração. Além disso é necessário que existam ferramentas que auxiliem no seu desenvolvimento permitindo, entre outras coisas, aumentar o reúso dos blocos parametrizáveis do sistema e a exploração de espaço de projetos em fases iniciais do projeto para guiar o seu próprio desenvolvimento. Neste trabalho é feita uma proposta de um novo método de desenvolvimento de sistemas embarcados de processamento de imagens baseado na metodologia de engenharia dirigida por modelos. São parte integrantes do método proposto: combinar a modelagem de requisitos funcionais (usando modelagem orientada a objetos) e requisitos não-funcionais (usando modelagem orientada a aspectos); a exploração de espaço de projeto baseada em modelos para resolver o problema de alocação das tarefas nas diferentes unidades de processamento; validação funcional dos modelos; e a geração de código em linguagens de programação. O método proposto chama-se HIPAO, do inglês “Hardware Image Processing system based on model driven engineering and Aspect-Oriented modeling”. O ciclo de desenvolvimento de projeto de sistemas de processamento de imagens embarcado inicia com a coleta dos requisitos técnicos em diagramas de requisitos da linguagem SysML A especificação deste requisitos é feita através de um metamodelo para requisitos técnicos de processamento de imagens que foi desenvolvido em conjunto com o método HIPAO. Estes requisitos são transformados automaticamente em modelos independentes de plataforma (PIM) iniciais. Esta transformação é feita a partir da ferramenta HIPAO desenvolvida em linguagem Java como mecanismo de apoio ao método. Os modelos PIM iniciais evoluem de forma iterativa através da adição de informações feita de forma manual e também de forma automática através da costura ou composição de modelos. O método sugere que modelos de plataforma (PM) sejam desenvolvidos de forma semelhante ao proposto para os modelos PIM, porém sua implementação é considerada trabalho futuro e os modelos PM apresentados neste trabalho são fruto de um desenvolvimento manual. De posse dos modelos PIM e PM o método realiza uma etapa de otimização do modelo através da sua transformação (tipo modelo para texto) para um formato compatível com o framework que realiza a exploração de espaço de projetos dirigida por modelos (MD-DSE). Os modelos específicos de plataforma (PSM) são produzidos com o auxílio de informações obtidas a partir de gráficos tipo Fronteira de Pareto que são produzidos pelo framework MD-DSE que realiza a atividade de alocação das tarefas (modelo PIM) na plataforma (modelo PM) com base em algoritmos heurísticos. O ciclo de desenvolvimento do projeto se encerra com a geração de código, de forma semelhante à maioria dos métodos baseados em engenharia dirigida por modelos, a partir de modelos PSM e alguns exemplos são apresentados. Para o uso e validação do método proposto foram realizados dois estudos de caso. O primeiro é um sistema de processamento de imagens para câmeras científicas de alta resolução e alta velocidade. O segundo estudo de caso propõe o desenvolvimento de um sistema de processamento de imagens a ser integrado a um veículo autônomo não-tripulado. / Embedded systems are present in many daily activities, for example, they are found in entertainment systems such as tablets and cell phones and they could even be inside a person’s body, which is the case of a pace-maker. Embedded systems can have very distinct complexity levels, from very simple to very complex and sophisticated ones. This complexity can be attributed to many different sources, which include the need to execute multiple tasks or deploy them in heterogeneous platforms (i.e. CPU, GPU, DSP and FPGAs) while fulfilling the users requirements. In order to cope with the rising system’s complexity and the need to keep the time to market and cost low, some solutions using methodologies based on model driven engineering are being considered. These methodologies use the model as the primary source of information. The information in the model varies based on the system’s development stage: at the beginning the models are descriptive, simple and incomplete, however they enable to simulate the system at a high level which can be used to drive the system’s development. As the project evolves, more information is added to them and the models looks closer to its final system. This process reduces the models abstraction level to the point that is possible to generate many artifacts from them, such as, source code. In this context, embedded image processing systems are examples of complex systems that perform data intensive processing. These systems are traditionally developed in a low level of abstraction, which typically include block diagrams and state charts. In order to handle the rising system’s complexity, while keeping time to market low, it is necessary to develop new methods that enable these systems development at a high abstraction level. Also, it is necessary the development of new tools to support these methods enabling, among other things, increase in the design reuse of its blocks and the design space exploration at an early stage such that it could guide the systems own development. In this work it is proposed a novel design method for embedded image processing systems based on model driven engineering concepts. This method proposes the following: combine functional requirements (using object oriented modeling) and non-functional requirements (using aspect oriented modeling); perform model based design space exploration in order to tackle task allocation in platforms with multiple processing units; functional model validation; and code generation. The proposed method is called HIPAO, which stands for “Hardware Image Processing system based on model driven engineering and Aspect-Oriented modeling”. The development cycle of embedded image processing systems starts starts with the elucidation of technical requirements using SysML requirements diagram. The specification of the image processing technical requirements is done using a metamodel, which has been developed with the HIPAO method. These requirements are transformed automatically into initial platform independent models (PIM). The transformations are performed by the HIPAO tools developed using Java language. The PIM models evolve by adding new information to it, which can be done manually or in some cases automatically by model weaving or composition. The proposed method suggests that the platform models (PM) should be developed in a similar fashion as the PIM models, but this task is considered a future work therefore all PM models presented in this thesis have been developed manually. Once the PIM and PM models are available the method executes an optimization phase that includes the model transformation (model to text) that produces the information needed by the model driven - design space exploration (MD-DSE). The platform specific models (PSM) are produced based on the information presented as Pareto Fronts that are generated the the MD-DSE framework while performing task (PIM model) allocation on the platform (PM model) using heuristic algorithms. The method development cycle ends with code generation from the PSM models using model to text transformations and some examples are presented. Two case-studies were designed to validate the proposed method. The first one consists of an image processing system for high speed, high resolution scientific image sensors. The second case study consists of an image processing system that is deployed in small Unmanned Autonomous Vehicles.

Page generated in 0.1309 seconds