• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 8
  • 7
  • 3
  • 1
  • Tagged with
  • 33
  • 33
  • 12
  • 8
  • 7
  • 6
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Generátor biologických průběhů / Biological Signal Generator

Kadeřábek, Jan January 2010 (has links)
This semestral thesis describes signal EKG, it’s origin, evaluation and device for his generation. After identification with standard course of EKG signal, was such as signal created in program language Matlab. It’s consisting of 10 sinus courses, where each of them has it’s own frequence, start phase and amplitude. Each of this part of EKG signal is beat frequence variant. Rates of it’s durations and sizes were fixed from medicin literature. Such as created program were rewritten to program language C and is basic of main program, which control signal processor. Finally was propoused preparation, which will be generated this signal. Outcome of this thesis is teoretic treatise about signal EKG, created program for generation of this course include part control and machine doing realization of biological courses.
12

Automatizovaný systém pro udržení životních podmínek v akváriích / The system for regulation of the environmental conditions in the aquariums

Janda, Josef January 2012 (has links)
This thesis project describes the design and construction of an automated system for maintaining live conditions in aquarium. The main purpose of the system is to automate certain procedures and to ensure control of important environmental parameters of artificial breeding of aquarium animals and plants. The device regulates lighting, temperature, CO2 concentration and other parameters. The LCD with touch screen is used to system control and to display measured values.
13

Sistema automático para obtenção de parâmetros do tráfego veicular a partir de imagens de vídeo usando OpenCV / Automatic system to obtain traffic parameters from video images based on OpenCV

André Luiz Barbosa Nunes da Cunha 08 November 2013 (has links)
Esta pesquisa apresenta um sistema automático para extrair dados de tráfego veicular a partir do pós-processamento de vídeos. Os parâmetros macroscópicos e microscópicos do tráfego são derivados do diagrama espaço-tempo, que é obtido pelo processamento das imagens de tráfego. A pesquisa fundamentou-se nos conceitos de Visão Computacional, programação em linguagem C++ e a biblioteca OpenCV para o desenvolvimento do sistema. Para a detecção dos veículos, duas etapas foram propostas: modelagem do background e segmentação dos veículos. Uma imagem sem objetos (background) pode ser determinada a partir das imagens do vídeo através de vários modelos estatísticos disponíveis na literatura especializada. A avaliação de seis modelos estatísticos indicou o Scoreboard (combinação de média e moda) como o melhor método de geração do background atualizado, por apresentar eficiente tempo de processamento de 18 ms/frame e 95,7% de taxa de exatidão. A segunda etapa investigou seis métodos de segmentação, desde a subtração de fundo até métodos de segmentação por textura. Dentre os descritores de textura, é apresentado o LFP, que generaliza os demais descritores. Da análise do desempenho desses métodos em vídeos coletados em campo, conclui-se que o tradicional método Background Subtraction foi o mais adequado, por apresentar o melhor tempo de processamento (34,4 ms/frame) e a melhor taxa de acertos totais com 95,1% de média. Definido o método de segmentação, foi desenvolvido um método para se definir as trajetórias dos veículos a partir do diagrama espaço-tempo. Comparando-se os parâmetros de tráfego obtidos pelo sistema proposto com medidas obtidas em campo, a estimativa da velocidade obteve uma taxa de acerto de 92,7%, comparado com medidas de velocidade feitas por um radar; por outro lado, a estimativa da taxa de fluxo de tráfego foi prejudicada por falhas na identificação da trajetória do veículo, apresentando valores ora acima, ora abaixo dos obtidos nas coletas manuais. / This research presents an automatic system to collect vehicular traffic data from video post-processing. The macroscopic and microscopic traffic parameters are derived from a space-time diagram, which is obtained by traffic image processing. The research was based on the concepts of Computer Vision, programming in C++, and OpenCV library to develop the system. Vehicle detection was divided in two steps: background modeling and vehicle segmentation. A background image can be determined from the video sequence through several statistical models available in literature. The evaluation of six statistical models indicated Scoreboard (combining mean and mode) as the best method to obtain an updated background, achieving a processing time of 18 ms/frame and 95.7% accuracy rate. The second step investigated six segmentation methods, from background subtraction to texture segmentation. Among texture descriptors, LFP is presented, which generalizes other descriptors. Video images collected on highways were used to analyze the performance of these methods. The traditional background subtraction method was found to be the best, achieving a processing time of 34.4 ms/frame and 95.1% accuracy rate. Once the segmentation process was chosen, a method to determine vehicle trajectories from the space-time diagram was developed. Comparing the traffic parameters obtained by the proposed system to data collected in the field, the estimates for speed were found to be very good, with 92.7% accuracy, when compared with radar-measured speeds. On the other hand, flow rate estimates were affected by failures to identify vehicle trajectories, which produced values above or below manually collected data.
14

Obtenção dos níveis de significância para os testes de Kruskal-Wallis, Friedman e comparações múltiplas não-paramétricas. / Obtaining significance levels for Kruskal-Wallis, Friedman and nonparametric multiple comparisons tests.

Pontes, Antonio Carlos Fonseca 29 June 2000 (has links)
Uma das principais dificuldades encontradas pelos pesquisadores na utilização da Estatística Experimental Não-Paramétrica é a obtenção de resultados confiáveis. Os testes mais utilizados para os delineamentos com um fator de classificação simples inteiramente casualizados e blocos casualizados são o de Kruskal-Wallis e o de Friedman, respectivamente. As tabelas disponíveis para estes testes são pouco abrangentes, fazendo com que o pesquisador seja obrigado a recorrer a aproximações. Estas aproximações diferem dependendo do autor a ser consultado, podendo levar a resultados contraditórios. Além disso, tais tabelas não consideram empates, mesmo no caso de pequenas amostras. No caso de comparações múltiplas isto é mais evidente ainda, em especial quando ocorrem empates ou ainda, nos delineamentos inteiramente casualizados onde se tem número diferente de repetições entre tratamentos. Nota-se ainda que os softwares mais utilizados em geral recorrem a aproximações para fornecer os níveis de significância, além de não apresentarem resultados para as comparações múltiplas. Assim, o objetivo deste trabalho é apresentar um programa, em linguagem C, que realiza os testes de Kruskal-Wallis, de Friedman e de comparações múltiplas entre todos os tratamentos (bilateral) e entre os tratamentos e o controle (uni e bilateral) considerando todas as configurações sistemáticas de postos ou com 1.000.000 de configurações aleatórias, dependendo do número total de permutações possíveis. Dois níveis de significância são apresentados: o DW ou MaxDif , baseado na comparação com a diferença máxima dentro de cada configuração e o Geral, baseado na comparação com todas as diferenças em cada configuração. Os valores do nível de significância Geral assemelham-se aos fornecidos pela aproximação normal. Os resultados obtidos através da utilização do programa mostram, ainda, que os testes utilizando as permutações aleatórias podem ser bons substitutos nos casos em que o número de permutações sistemáticas é muito grande, já que os níveis de probabilidade são bastante próximos. / One of the most difficulties for the researchers in using Nonparametric Methods is to obtain reliable results. Kruskal-Wallis and Friedman tests are the most used for one-way layout and for randomized blocks, respectively. Tables available for these tests are not too wild, so the research must use approximate values. These approximations are different, depending on the author and the results can be not similar. Furthermore, these tables do not taking account tied observations, even in the case of small sample. For multiple comparisons, this is more evident, specially when tied observations occur or the number of replications is different. Many softwares like SAS, STATISTICA, S-Plus, MINITAB, etc., use approximation in order to get the significance levels and they do not present results for multiple comparisons. Thus, the aim of this work is to present a routine in C language that runs Kruskal-Wallis, Friedman and multiple comparisons among all treatments (bi-tailed) and between treatment and control (uni and bi-tailed), considering all the systematic configurations of the ranks or with more than 1,000,000 random ones, depending on the total of possible permutations. Two levels of significance are presented: DW or MaxDif, based on the comparison of the maximum difference within each configuration and the Geral, based on the comparison of all differences for each configuration. The Geral values of the significance level are very similar for the normal approximation. The obtaining results through this routine show that, the tests using random permutations can be nice substitutes for the case of the number of systematic permutations is too large, once the levels of probability are very near.
15

Sistema automático para obtenção de parâmetros do tráfego veicular a partir de imagens de vídeo usando OpenCV / Automatic system to obtain traffic parameters from video images based on OpenCV

Cunha, André Luiz Barbosa Nunes da 08 November 2013 (has links)
Esta pesquisa apresenta um sistema automático para extrair dados de tráfego veicular a partir do pós-processamento de vídeos. Os parâmetros macroscópicos e microscópicos do tráfego são derivados do diagrama espaço-tempo, que é obtido pelo processamento das imagens de tráfego. A pesquisa fundamentou-se nos conceitos de Visão Computacional, programação em linguagem C++ e a biblioteca OpenCV para o desenvolvimento do sistema. Para a detecção dos veículos, duas etapas foram propostas: modelagem do background e segmentação dos veículos. Uma imagem sem objetos (background) pode ser determinada a partir das imagens do vídeo através de vários modelos estatísticos disponíveis na literatura especializada. A avaliação de seis modelos estatísticos indicou o Scoreboard (combinação de média e moda) como o melhor método de geração do background atualizado, por apresentar eficiente tempo de processamento de 18 ms/frame e 95,7% de taxa de exatidão. A segunda etapa investigou seis métodos de segmentação, desde a subtração de fundo até métodos de segmentação por textura. Dentre os descritores de textura, é apresentado o LFP, que generaliza os demais descritores. Da análise do desempenho desses métodos em vídeos coletados em campo, conclui-se que o tradicional método Background Subtraction foi o mais adequado, por apresentar o melhor tempo de processamento (34,4 ms/frame) e a melhor taxa de acertos totais com 95,1% de média. Definido o método de segmentação, foi desenvolvido um método para se definir as trajetórias dos veículos a partir do diagrama espaço-tempo. Comparando-se os parâmetros de tráfego obtidos pelo sistema proposto com medidas obtidas em campo, a estimativa da velocidade obteve uma taxa de acerto de 92,7%, comparado com medidas de velocidade feitas por um radar; por outro lado, a estimativa da taxa de fluxo de tráfego foi prejudicada por falhas na identificação da trajetória do veículo, apresentando valores ora acima, ora abaixo dos obtidos nas coletas manuais. / This research presents an automatic system to collect vehicular traffic data from video post-processing. The macroscopic and microscopic traffic parameters are derived from a space-time diagram, which is obtained by traffic image processing. The research was based on the concepts of Computer Vision, programming in C++, and OpenCV library to develop the system. Vehicle detection was divided in two steps: background modeling and vehicle segmentation. A background image can be determined from the video sequence through several statistical models available in literature. The evaluation of six statistical models indicated Scoreboard (combining mean and mode) as the best method to obtain an updated background, achieving a processing time of 18 ms/frame and 95.7% accuracy rate. The second step investigated six segmentation methods, from background subtraction to texture segmentation. Among texture descriptors, LFP is presented, which generalizes other descriptors. Video images collected on highways were used to analyze the performance of these methods. The traditional background subtraction method was found to be the best, achieving a processing time of 34.4 ms/frame and 95.1% accuracy rate. Once the segmentation process was chosen, a method to determine vehicle trajectories from the space-time diagram was developed. Comparing the traffic parameters obtained by the proposed system to data collected in the field, the estimates for speed were found to be very good, with 92.7% accuracy, when compared with radar-measured speeds. On the other hand, flow rate estimates were affected by failures to identify vehicle trajectories, which produced values above or below manually collected data.
16

DESIGN AND DEVELOPMENT OF AN EMBEDDED DC MOTOR CONTROLLER USING A PID ALGORITHM / Kontrol av DC-Motor i enbyggda system med hjlp av PID & PWM

Jones, Omar January 2010 (has links)
<p>This project was held at London South Bank University in the UK, with corporation with staff from Linköping University in Sweden as Bachelor thesis.</p><p>This report will guide you through the used techniques in order to achieve a successful cooler/Fan project with a minimum budget and good energy saving methods.</p><p>The steps of setting the used software and components are supported with figures and diagrams. You will find full explanation of the used components and mathematics, in additional to a complete working code.</p>
17

DESIGN AND DEVELOPMENT OF AN EMBEDDED DC MOTOR CONTROLLER USING A PID ALGORITHM / Kontrol av DC-Motor i enbyggda system med hjlp av PID &amp; PWM

Jones, Omar January 2010 (has links)
This project was held at London South Bank University in the UK, with corporation with staff from Linköping University in Sweden as Bachelor thesis. This report will guide you through the used techniques in order to achieve a successful cooler/Fan project with a minimum budget and good energy saving methods. The steps of setting the used software and components are supported with figures and diagrams. You will find full explanation of the used components and mathematics, in additional to a complete working code.
18

Enhanced SAR Image Processing Using A Heterogeneous Multiprocessor

SHI, YU January 2008 (has links)
<p>Synthetic antenna aperture (SAR) is a pulses focusing airborne radar which can achieve high resolution radar image. A number of image process algorithms have been developed for this kind of radar, but the calculation burden is still heavy. So the image processing of SAR is normally performed “off-line”.</p><p>The Fast Factorized Back Projection (FFBP) algorithm is considered as a computationally efficient algorithm for image formation in SAR, and several applications have been implemented which try to make the process “on-line”.</p><p>CELL Broadband Engine is one of the newest multi-core-processor jointly developed by Sony, Toshiba and IBM. CELL is good at parallel computation and floating point numbers, which all fit the demands of SAR image formation.</p><p>This thesis is going to implement FFBP algorithm on CELL Broadband Engine, and compare the results with pre-projects. In this project, we try to make it possible to perform SAR image formation in real-time.</p>
19

Obtenção dos níveis de significância para os testes de Kruskal-Wallis, Friedman e comparações múltiplas não-paramétricas. / Obtaining significance levels for Kruskal-Wallis, Friedman and nonparametric multiple comparisons tests.

Antonio Carlos Fonseca Pontes 29 June 2000 (has links)
Uma das principais dificuldades encontradas pelos pesquisadores na utilização da Estatística Experimental Não-Paramétrica é a obtenção de resultados confiáveis. Os testes mais utilizados para os delineamentos com um fator de classificação simples inteiramente casualizados e blocos casualizados são o de Kruskal-Wallis e o de Friedman, respectivamente. As tabelas disponíveis para estes testes são pouco abrangentes, fazendo com que o pesquisador seja obrigado a recorrer a aproximações. Estas aproximações diferem dependendo do autor a ser consultado, podendo levar a resultados contraditórios. Além disso, tais tabelas não consideram empates, mesmo no caso de pequenas amostras. No caso de comparações múltiplas isto é mais evidente ainda, em especial quando ocorrem empates ou ainda, nos delineamentos inteiramente casualizados onde se tem número diferente de repetições entre tratamentos. Nota-se ainda que os softwares mais utilizados em geral recorrem a aproximações para fornecer os níveis de significância, além de não apresentarem resultados para as comparações múltiplas. Assim, o objetivo deste trabalho é apresentar um programa, em linguagem C, que realiza os testes de Kruskal-Wallis, de Friedman e de comparações múltiplas entre todos os tratamentos (bilateral) e entre os tratamentos e o controle (uni e bilateral) considerando todas as configurações sistemáticas de postos ou com 1.000.000 de configurações aleatórias, dependendo do número total de permutações possíveis. Dois níveis de significância são apresentados: o DW ou MaxDif , baseado na comparação com a diferença máxima dentro de cada configuração e o Geral, baseado na comparação com todas as diferenças em cada configuração. Os valores do nível de significância Geral assemelham-se aos fornecidos pela aproximação normal. Os resultados obtidos através da utilização do programa mostram, ainda, que os testes utilizando as permutações aleatórias podem ser bons substitutos nos casos em que o número de permutações sistemáticas é muito grande, já que os níveis de probabilidade são bastante próximos. / One of the most difficulties for the researchers in using Nonparametric Methods is to obtain reliable results. Kruskal-Wallis and Friedman tests are the most used for one-way layout and for randomized blocks, respectively. Tables available for these tests are not too wild, so the research must use approximate values. These approximations are different, depending on the author and the results can be not similar. Furthermore, these tables do not taking account tied observations, even in the case of small sample. For multiple comparisons, this is more evident, specially when tied observations occur or the number of replications is different. Many softwares like SAS, STATISTICA, S-Plus, MINITAB, etc., use approximation in order to get the significance levels and they do not present results for multiple comparisons. Thus, the aim of this work is to present a routine in C language that runs Kruskal-Wallis, Friedman and multiple comparisons among all treatments (bi-tailed) and between treatment and control (uni and bi-tailed), considering all the systematic configurations of the ranks or with more than 1,000,000 random ones, depending on the total of possible permutations. Two levels of significance are presented: DW or MaxDif, based on the comparison of the maximum difference within each configuration and the Geral, based on the comparison of all differences for each configuration. The Geral values of the significance level are very similar for the normal approximation. The obtaining results through this routine show that, the tests using random permutations can be nice substitutes for the case of the number of systematic permutations is too large, once the levels of probability are very near.
20

Outils d'aide à la recherche de vulnérabilités dans l'implantation d'applications embarquées sur carte à puce

Andouard, Philippe 18 December 2009 (has links)
Les travaux présentés dans cette thèse ont pour objectif de faciliter les évaluations sécuritaires des logiciels embarqués dans les cartes à puce. En premier lieu, nous avons mis au point un environnement logiciel dédié à l'analyse de la résistance d'implémentations d'algorithmes cryptographiques face à des attaques par analyse de la consommation de courant. Cet environnement doit être vu comme un outil pour rechercher des fuites d'information dans une implémentation en vue d'évaluer la faisabilité d'une attaque sur le produit réel. En second lieu, nous nous sommes intéressé à l'analyse de programmes écrits en langage d'assemblage AVR dans le but de vérifier s'ils sont vulnérables aux \textsl{timing attacks}. Nous avons donc développé un outil qui consiste à décrire des chemins du flot de contrôle d'un programme grâce à des expressions régulières qui seront par la suite interprétées par notre outil afin de donner leur temps exact d'exécution (en terme de cycles d'horloge). Enfin, nous avons étudié comment faciliter la compréhension de programmes écrits en langage C dans le but de vérifier si des politiques de sécurité sont correctement implémentées. D'une part, nous fournissons des assistants de navigation qui au travers d'informations concernant les variables et procédures rencontrées, facilitent la compréhension du programme. D'autre part, nous avons au point une manière de vérifier les politiques de sécurité sans modélisation préalable (e.g. avec un automate à états finis) au moyen de requêtes exprimées dans la logique CTL. / The work presented in this thesis aims at easing the evaluation process of smartcards embedded software. On one hand, we set up a software environment dedicated to analyze the implementation resistance of cryptographic to power analysis attacks. This environment must be seen as a tool that facilitates a real attack by giving a way to find information leakages in an implementation. On the other hand, we focused on analyzing program written in AVR assembly language in order to check whether they are vulnerable to timing attacks. To achieve this goal we have developed a tool that makes possible the description of a path in the control flow of the program thanks to regular expressions. Those regular expressions will be interpreted by our tool in order to give the exact execution timing (expressed in clock cycles). Finally, we studied how to ease the global comprehension of a program written in C language in order to check whether security policies are well implemented. First, we provide graphical navigation assisants that helps to understand the progam being analyzed by giving information on variables and procedures. Then, we provide a way to check the security policies through the use of requests expressed with the CTL logic. This approach does not need prior modelisation of the program.

Page generated in 0.0642 seconds