• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 245
  • 58
  • 58
  • 56
  • 21
  • 12
  • 9
  • 9
  • 8
  • 7
  • 6
  • 5
  • 3
  • 3
  • 2
  • Tagged with
  • 553
  • 220
  • 177
  • 172
  • 167
  • 166
  • 147
  • 80
  • 73
  • 70
  • 68
  • 67
  • 64
  • 64
  • 58
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

[en] USING MACHINE LEARNING TO BUILD A TOOL THAT HELPS COMMENTS MODERATION / [pt] UTILIZANDO APRENDIZADO DE MÁQUINA PARA CONSTRUÇÃO DE UMA FERRAMENTA DE APOIO A MODERAÇÃO DE COMENTÁRIOS

SILVANO NOGUEIRA BUBACK 05 March 2012 (has links)
[pt] Uma das mudanças trazidas pela Web 2.0 é a maior participação dos usuários na produção do conteúdo, através de opiniões em redes sociais ou comentários nos próprios sites de produtos e serviços. Estes comentários são muito valiosos para seus sites pois fornecem feedback e incentivam a participação e divulgação do conteúdo. Porém excessos podem ocorrer através de comentários com palavrões indesejados ou spam. Enquanto para alguns sites a própria moderação da comunidade é suficiente, para outros as mensagens indesejadas podem comprometer o serviço. Para auxiliar na moderação dos comentários foi construída uma ferramenta que utiliza técnicas de aprendizado de máquina para auxiliar o moderador. Para testar os resultados, dois corpora de comentários produzidos na Globo.com foram utilizados, o primeiro com 657.405 comentários postados diretamente no site, e outro com 451.209 mensagens capturadas do Twitter. Nossos experimentos mostraram que o melhor resultado é obtido quando se separa o aprendizado dos comentários de acordo com o tema sobre o qual está sendo comentado. / [en] One of the main changes brought by Web 2.0 is the increase of user participation in content generation mainly in social networks and comments in news and service sites. These comments are valuable to the sites because they bring feedback and motivate other people to participate and to spread the content. On the other hand these comments also bring some kind of abuse as bad words and spam. While for some sites their own community moderation is enough, for others this impropriate content may compromise its content. In order to help theses sites, a tool that uses machine learning techniques was built to mediate comments. As a test to compare results, two datasets captured from Globo.com were used: the first one with 657.405 comments posted through its site and the second with 451.209 messages captured from Twitter. Our experiments show that best result is achieved when comment learning is done according to the subject that is being commented.
102

Aplicações de métodos quimiométricos e de técnicas analíticas em amostras alimentícias e farmacêuticas / Application of chemometrical methods and analytical techniques in food and pharmaceutical samples

Jéssica da Silva Alves de Pinho 27 February 2012 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Esse trabalho compreende dois diferentes estudos de caso: o primeiro foi a respeito de um medicamento para o qual foi desenvolvida uma metodologia para determinar norfloxacino (NOR) por espectrofluorimetria molecular e validação por HPLC. Primeiramente foi desenvolvida uma metodologia por espectrofluorimetria onde foram feitos alguns testes preliminares a fim de estabelecer qual valor de pH iria fornecer a maior intensidade de emissão. Após fixar o pH foi feita a determinação de NOR em padrões aquosos e soluções do medicamento usando calibração univariada. A faixa de concentração trabalhada foi de 0500 μg.L-1. O limite de detecção para o medicamento foi de 6,9 μg.L-1 enquanto que o de quantificação foi de 24,6 μg.L-1. Além dessas, outras figuras de mérito também foram estimadas para desenvolvimento da metodologia e obtiveram resultados muito satisfatórios, como por exemplo, os testes de recuperação no qual a recuperação do analito foi de 99.5 a 103.8%. Para identificação e quantificação do NOR da urina foi necessário diluir a amostra de urina (estudada em dois diferentes níveis de diluição: 500 e 1000 x) e também uso do método da adição de padrão (na mesma faixa de concentração usada para medicamento). Após a aquisição do espectro, todos foram usados para construção do tensor que seria usado no PARAFAC. Foi possível estimar as figuras de mérito como limite de detecção de 11.4 μg.L-1 and 8.4 μg.L-1 (diluição de 500 e 1000 x respectivamente) e limite de quantificação de 34 μg.L-1 e 25.6 μg.L-1 (diluição de 500 x e 1000 x respectivamente). O segundo estudo de caso foi na área alimentícia no qual se usou espectroscopia NIR e FT MIR acopladas a quimiometria para discriminar óleo de soja transgênica e não transgênica. Os espectros dos óleos não mostraram diferença significativa em termos visuais, sendo necessário usar ferramentas quimiométricas capazes de fazer essa distinção. Tanto para espectroscopia NIR quanto FT MIR foi feito o PCA a fim de identificar amostras discrepantes e que influenciariam o modelo de forma negativa. Após efetuar o PCA, foram usadas três diferentes técnicas para discriminar os óleos: SIMCA, SVM-DA e PLS-DA, sendo que para cada técnica foram usados também diferentes pré processamento. No NIR, apenas para um pré processamento se obteve resultados satisfatórios nas três técnicas, enquanto que para FT-MIR ao se usar PLS-DA se obteve 100% de acerto na classificação para todos os pré processamentos / This paper comprises two different researches: the firts one was related to a medicament for which was developed a methodology to quantify Norfloxacin (NOR) by molecular spectrofluorimetry and validation by HPLC. First of all, was developed a methodology for spectrofluorimetry where were done some preliminary tests to establish which value of pH would provide the highest emission intensity. After fix pH, it was performed NOR determination in aqueous standard and medicament using univariate calibration. The concentration range was 0-500 μg.L-1. The limit of detection for medicament was 6,9 μg.L-1 while the limit of detection was 24,6 μg.L-1. Beyond that, other figures of merit were also estimated for developing methodology and offered results quite satisfactory, such as recovering tests in which analyte recovery was 99.5 - 103.8%. For identify and quantify NOR in urine was necessary to dilute the samples (studied in two different levels: 500 and 1000 X) and also standar method addition (in same concentration range used for medicament). After spectra acquisition, all of them were used to built the tensor that would be used in PARAFAC. It was possible to estimate figures of merit such as limit of detection: 11.4 μg.L-1 and 8.4 μg.L-1 (dilution of 500 and 1000 X respectively) and limit of quantification: 34 μg.L-1 and 25.6 μg.L-1 (dilution of 500 and 1000 X, respectively). The second studied case was in food area in which was used NIR and FT-MIR spectroscopy coupled with chemometric to discriminate transgenic and no transgenic soybean oil. Oils spectra did not show significative difference in visual terms, being necessary using chemometric tools capable of perform this distinction. For NIR and FT-MIR spectroscopy it was performed PCA that aimed identify anomalous samples that would be a negative influence. After perform PCA were used three different techniques to discriminate oils samples: SIMCA, SVM-DA and PLS-DA, being used for each technique different preprocessing. In NIR, only for one preprocessing it was obtained good results for three techniques while in FT-MIR when PLS-DA was used it was achieved 100% in classification for all preprocessing
103

Aplicações de métodos quimiométricos e de técnicas analíticas em amostras alimentícias e farmacêuticas / Application of chemometrical methods and analytical techniques in food and pharmaceutical samples

Jéssica da Silva Alves de Pinho 27 February 2012 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Esse trabalho compreende dois diferentes estudos de caso: o primeiro foi a respeito de um medicamento para o qual foi desenvolvida uma metodologia para determinar norfloxacino (NOR) por espectrofluorimetria molecular e validação por HPLC. Primeiramente foi desenvolvida uma metodologia por espectrofluorimetria onde foram feitos alguns testes preliminares a fim de estabelecer qual valor de pH iria fornecer a maior intensidade de emissão. Após fixar o pH foi feita a determinação de NOR em padrões aquosos e soluções do medicamento usando calibração univariada. A faixa de concentração trabalhada foi de 0500 μg.L-1. O limite de detecção para o medicamento foi de 6,9 μg.L-1 enquanto que o de quantificação foi de 24,6 μg.L-1. Além dessas, outras figuras de mérito também foram estimadas para desenvolvimento da metodologia e obtiveram resultados muito satisfatórios, como por exemplo, os testes de recuperação no qual a recuperação do analito foi de 99.5 a 103.8%. Para identificação e quantificação do NOR da urina foi necessário diluir a amostra de urina (estudada em dois diferentes níveis de diluição: 500 e 1000 x) e também uso do método da adição de padrão (na mesma faixa de concentração usada para medicamento). Após a aquisição do espectro, todos foram usados para construção do tensor que seria usado no PARAFAC. Foi possível estimar as figuras de mérito como limite de detecção de 11.4 μg.L-1 and 8.4 μg.L-1 (diluição de 500 e 1000 x respectivamente) e limite de quantificação de 34 μg.L-1 e 25.6 μg.L-1 (diluição de 500 x e 1000 x respectivamente). O segundo estudo de caso foi na área alimentícia no qual se usou espectroscopia NIR e FT MIR acopladas a quimiometria para discriminar óleo de soja transgênica e não transgênica. Os espectros dos óleos não mostraram diferença significativa em termos visuais, sendo necessário usar ferramentas quimiométricas capazes de fazer essa distinção. Tanto para espectroscopia NIR quanto FT MIR foi feito o PCA a fim de identificar amostras discrepantes e que influenciariam o modelo de forma negativa. Após efetuar o PCA, foram usadas três diferentes técnicas para discriminar os óleos: SIMCA, SVM-DA e PLS-DA, sendo que para cada técnica foram usados também diferentes pré processamento. No NIR, apenas para um pré processamento se obteve resultados satisfatórios nas três técnicas, enquanto que para FT-MIR ao se usar PLS-DA se obteve 100% de acerto na classificação para todos os pré processamentos / This paper comprises two different researches: the firts one was related to a medicament for which was developed a methodology to quantify Norfloxacin (NOR) by molecular spectrofluorimetry and validation by HPLC. First of all, was developed a methodology for spectrofluorimetry where were done some preliminary tests to establish which value of pH would provide the highest emission intensity. After fix pH, it was performed NOR determination in aqueous standard and medicament using univariate calibration. The concentration range was 0-500 μg.L-1. The limit of detection for medicament was 6,9 μg.L-1 while the limit of detection was 24,6 μg.L-1. Beyond that, other figures of merit were also estimated for developing methodology and offered results quite satisfactory, such as recovering tests in which analyte recovery was 99.5 - 103.8%. For identify and quantify NOR in urine was necessary to dilute the samples (studied in two different levels: 500 and 1000 X) and also standar method addition (in same concentration range used for medicament). After spectra acquisition, all of them were used to built the tensor that would be used in PARAFAC. It was possible to estimate figures of merit such as limit of detection: 11.4 μg.L-1 and 8.4 μg.L-1 (dilution of 500 and 1000 X respectively) and limit of quantification: 34 μg.L-1 and 25.6 μg.L-1 (dilution of 500 and 1000 X, respectively). The second studied case was in food area in which was used NIR and FT-MIR spectroscopy coupled with chemometric to discriminate transgenic and no transgenic soybean oil. Oils spectra did not show significative difference in visual terms, being necessary using chemometric tools capable of perform this distinction. For NIR and FT-MIR spectroscopy it was performed PCA that aimed identify anomalous samples that would be a negative influence. After perform PCA were used three different techniques to discriminate oils samples: SIMCA, SVM-DA and PLS-DA, being used for each technique different preprocessing. In NIR, only for one preprocessing it was obtained good results for three techniques while in FT-MIR when PLS-DA was used it was achieved 100% in classification for all preprocessing
104

Imagem de fluorescência aplicada em doenças de citros / Fluorescence image applied on citrus diseases

Caio Bruno Wetterich 31 May 2016 (has links)
Nos últimos anos, tem havido um crescente interesse na detecção precoce das doenças que afetam as culturas agrícolas a fim de evitar grandes perdas econômicas devido à contaminação de novas plantas. As principais doenças cítricas, cancro cítrico e greening, são uma séria ameaça à produção de citros em todo o mundo, incluindo regiões do Brasil e dos Estados Unidos. A disseminação rápida das doenças leva à redução do número de pomares cultivados, resultando em danos econômicos aos produtores e às indústrias relacionadas. O desenvolvimento de métodos para o diagnóstico precoce pode resultar em uma importante ferramenta para o controle e gestão dos citros. Algumas deficiências nutricionais como a de ferro e zinco apresentam sintomas visuais semelhantes com o greening, enquanto que o cancro cítrico pode ser confundido com a verrugose ou leprose dos citros, podendo levar ao diagnóstico incorreto. Atualmente, somente testes bioquímicos são capazes de detectar especificamente o cancro cítrico e o greening, e consequentemente diferenciá-los das demais doenças e deficiências de nutrientes. No presente trabalho, a técnica de espectroscopia por imagens de fluorescência em conjunto com os métodos de aprendizado e classificação, SVM (do inglês, Support Vector Machine) e ANN (do inglês, Artificial Neural Network), foram utilizadas a fim de identificar e discriminar as principais doenças que afetam a citricultura nos estados de São Paulo/Brasil e da Flórida/EUA. As amostras em estudo são cancro cítrico, verrugose, greening e deficiência de zinco. O objetivo principal é discriminar as doenças com sintomas visuais semelhantes, no caso, cancro cítrico de verrugose e greening de deficiência de zinco para as amostras do Brasil, e greening de deficiência de zinco para as amostras dos Estados Unidos. Os resultados mostram que é possível utilizar a técnica de espectroscopia por imagens de fluorescência em conjunto com os métodos de classificação na discriminação das doenças que apresentam sintomas visuais semelhantes. Ambos os classificadores apresentaram uma elevada precisão na classificação tanto das amostras do Brasil como dos Estados Unidos, destacando assim eficácia da técnica sob condições diferentes. / In recent years, there has been an increasing interest in early detection of diseases that affect agricultural crops to avoid great economic losses due to contamination of new plants. The main citrus diseases, citrus canker and HLB, are a serious threat to citrus production worldwide, including regions in Brazil and the United States. The rapid spread of the diseases leads to the reduction of cultivated orchards resulting in economic losses to producers and industries. The development of methods for early diagnosis can result in an important tool for the control and management of citrus. Some nutritional deficiencies such as iron and zinc have similar visual symptoms to HLB, while the citrus canker can be confused with citrus scab and citrus leprosies, which may lead to incorrect diagnosis. Currently, only biochemical tests are able to detect, specifically, citrus canker and HLB, and thus distinguish them from other diseases and nutrient deficiencies. In this work, the fluorescence imaging spectroscopy technique with the learning and classification methods, SVM (Support Vector Machine) and ANN (Artificial Neural Network), were used to identify and discriminate the main diseases that affect citrus production in the states of São Paulo/Brazil and Florida/USA. The samples studied are citrus canker, citrus scab, HLB and zinc deficiency. The objective is to discriminate the diseases with similar visual symptoms, such as citrus canker from citrus scab and HLB from zinc deficiency for samples from Brazil and HLB from zinc deficiency for samples from the United States. The results show that it is possible to use the fluorescence imaging spectroscopy technique together with the classification methods for the discrimination of the diseases that have similar visual symptoms. Both classifiers showed high accuracy in the classification of the samples from Brazil and the United States, highlighting the efficiency of the technique under different conditions.
105

Estudos sobre a modelagem e simulação de um reator snox®

CAMELO, Marteson Cristiano dos Santos 06 June 2016 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2017-05-24T12:54:55Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Tese mar 1.pdf: 2548372 bytes, checksum: e5acdc58a26dcd7f9102954cb7d402dc (MD5) / Made available in DSpace on 2017-05-24T12:54:55Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Tese mar 1.pdf: 2548372 bytes, checksum: e5acdc58a26dcd7f9102954cb7d402dc (MD5) Previous issue date: 2016-06-06 / Um dos principais problemas ambientais nos países industrializados está relacionado a liberação no meio ambiente de gases formadores de chuva ácida. A quantidade desses gases lançada para atmosfera é controlada pela legislação ambiental que vem se tornando cada vez mais restritiva. Vários são os processos aplicados a indústria capazes de remover esses contaminantes de correntes advindas de processos industriais. Dentre esses, destaca-se o processo SNOX® da Haldor Topsoe®, o qual é capaz de remover NOX e SOX de efluentes gasosos industriais, visando enquadrar a concentração desses gases dentro dos parâmetros exigidos pela legislação ambiental. A remoção desses gases é realizada por um reator constituído por dois leitos catalíticos, distintos, em série. O primeiro leito catalítico é constituído por um catalisador de estrutura monolítica, nesse ocorre a reação de redução do NOX. Enquanto que, o segundo leito é constituído por um catalisador em formato de anéis de Rashig, e nesse ocorre a oxidação do SO2. Neste trabalho foi modelado e simulado o comportamento dinâmico de um reator de abatimento de emissões atmosféricas nas condições operacionais similares a um reator de uma unidade SNOX®. Cada um dos leitos catalíticos que compõem o reator foi modelado e validado separadamente. No primeiro leito além da reação de redução do NO também considerou-se a reação de oxidação do SO2, esse modelo matemático foi simulado e avaliado nas condições operacionais apresentadas em Tronconni et al. (1998). No segundo leito catalítico do reator considerou-se apenas que a reação de oxidação do SO2 acontecia no leito, o modelo matemático do leito de oxidação foi simulado e avaliado nas condições operacionais apresentadas em Almqvist et al. (2008). Ambos os modelos apresentaram bom ajuste aos dados experimentais com erros entre 2 e 11%. Com isso, os dois modelos foram acoplados num código computacional e simulados nas condições operacionais do reator SNOX® mostrado em Schoubye e Jensen (2007). O primeiro leito catalítico teve um incremento na temperatura ao longo do reator de 9°C e a conversão de NO foi de 92%, a região de entrada do primeiro leito foi a região com maior quantidade de sítios catalíticos ocupados pela amônia. Já no segundo leito catalítico a conversão do SO2 foi de 96%. Como parte do estudo de modelagem e simulação do reator, técnicas de análise de sensibilidade global foram aplicadas, determinando-se o grau de dependência de parâmetros específicos sobre: as concentrações de NO, NH3 e SO3, no primeiro leito do reator, e as concentrações de SO2 e SO3 no segundo leito. Determinou-se que dentre os parâmetros avaliados o que teve maior influência sobre as concentrações de saída de ambos os leitos foi o comprimento do leito. A partir do modelo matemático desenvolvido neste trabalho também foram gerados dados para inferir as concentrações de NO e SO3 na saída do reator, que foi realizada através de redes neurais e máquinas de vetor de suporte. Verificou-se que a performance da estimação realizada pelas redes neurais se assemelha a das máquinas de vetor de suporte. / One of the main environmental problems in industrialized countries is related to release into the forming gas environment of acid rain. The amount of greenhouse gases released into the atmosphere is controlled by the environmental legislation, that is becoming increasingly restrictive. Several processes are applied to industry to remove these contaminants from currents resulting from industrial processes. Among these, there is the SNOX® Haldor Topsoe process, which is capable of removing NOx and SOx from industrial emissions, aiming to frame the concentration of these gases within the parameters required by environmental legislation. The removal of these gases is conducted by the process reactor consisting of two catalytic beds distinct in series. The first catalyst bed has a monolithic catalyst structure, in it occurs the reduction reaction of NOx. The second bed has a catalyst with shape of cylindrical rings, in this bed occurs the oxidation of SO2. In this work was modeled and simulated the dynamic behavior of atmospheric emissions abatement reactor in similar operating conditions to a reactor of a SNOX® unit. Each of the catalyst beds, that it make up the reactor, was modeled and validated separately. In the first bed was considered the reactions of reduction of NO and oxidation of SO2, this mathematical model was simulated and evaluated in the operating conditions presented in Tronconni et al. (1998). In the second catalytic bed was considered that only the reaction of oxidation SO2 occurred in the bed, the mathematical model of the oxidation bed was simulated and evaluated in operating conditions presented in Almqvist et al. (2008). Both models showed good fit to the experimental data with error between 2-11%. Thus, the two models had been written in computer code and simulated in reactor operating conditions SNOX® shown on Schoubye and Jensen (2007). The first catalyst bed had an increase in temperature along it of 9 ° C and the conversion of NO was 92%. In the first bed, the inlet region was the region with larger amount of catalytic sites occupied by ammonia. On the second catalytic bed, the SO2 conversion was 96,6%. As part of the modeling and simulation study for reactor the global sensitivity analysis techniques were applied aiming to determine the influence of some parameters over the concentrations of NO, NH3 and SO3 in the bed of catalytic reduction of NO and the concentration SO2 and SO3 in SO2 oxidation bed. From this study it was determined that among the evaluated parameters which it had the greatest influence on the output levels of the first reactor bed was the length of this bed. From the mathematical model developed in this paper we were also generated data to infer the concentrations of NO and SO3 in the reactor outlet, which was performed by neural networks and support vector machines. It was found that the performance of infer carried out by the neural network resembles to the performance of support vector machines.
106

Uma metodologia de projetos para circuitos com reconfiguração dinâmica de hardware aplicada a support vector machines. / A design methodology for circuits with dynamic reconfiguration of hardware applied to support vector machines.

José Artur Quilici Gonzalez 07 November 2006 (has links)
Sistemas baseados em processadores de uso geral caracterizam-se pela flexibilidade a mudanças de projeto, porém com desempenho computacional abaixo daqueles baseados em circuitos dedicados otimizados. A implementação de algoritmos em dispositivos reconfiguráveis, conhecidos como Field Programmable Gate Arrays - FPGAs, oferece uma solução de compromisso entre a flexibilidade dos processadores e o desempenho dos circuitos dedicados, pois as FPGAs permitem que seus recursos de hardware sejam configurados por software, com uma granularidade menor que a do processador de uso geral e flexibilidade maior que a dos circuitos dedicados. As versões atuais de FPGAs apresentam um tempo de reconfiguração suficientemente pequeno para viabilizar sua reconfiguração dinâmica, i.e., mesmo com o dispositivo executando um algoritmo, a forma como seus recursos são dispostos pode ser alterada, oferecendo a possibilidade de particionar temporalmente um algoritmo. Novas linhas de FPGAs já são fabricadas com opção de reconfiguração dinâmica parcial, i.e., é possível reconfigurar áreas selecionadas de uma FPGA enquanto o restante continua em operação. No entanto, para que esta nova tecnologia se torne largamente difundida é necessário o desenvolvimento de uma metodologia própria, que ofereça soluções eficazes aos novos desdobramentos do projeto digital. Em particular, uma das principais dificuldades apresentadas por esta abordagem refere-se à maneira de particionar o algoritmo, de forma a minimizar o tempo necessário para completar sua tarefa. Este manuscrito oferece uma metodologia de projeto para dispositivos dinamicamente reconfiguráveis, com ênfase no problema do particionamento temporal de circuitos, tendo como aplicação alvo uma família de algoritmos, utilizados principalmente em Bioinformática, representada pelo classificador binário conhecido como Support Vector Machine. Algumas técnicas de particionamento para FPGA Dinamicamente Reconfigurável, especificamente aplicáveis ao particionamento de FSM, foram desenvolvidas para garantir que um projeto dominado por fluxo de controle seja mapeado numa única FPGA, sem alterar sua funcionalidade. / Systems based on general-purpose processors are characterized by a flexibility to design changes, although with a computational performance below those based on optimized dedicated circuits. The implementation of algorithms in reconfigurable devices, known as Field Programmable Gate Arrays, FPGAs, offers a solution with a trade-off between the processor\'s flexibility and the dedicated circuit\'s performance. With FPGAs it is possible to have their hardware resources configured by software, with a smaller granularity than that of the general-purpose processor and greater flexibility than that of dedicated circuits. Current versions of FPGAs present a reconfiguration time sufficiently small as to make feasible dynamic reconfiguration, i.e., even with the device executing an algorithm, the way its resources are displayed can be modified, offering the possibility of temporal partitioning of an algorithm. New lines of FPGAs are already being manufactured with the option of partial dynamic reconfiguration, i.e. it is possible to reconfigure selected areas of an FPGA anytime, while the remainder area continue in operation. However, in order for this new technology to become widely adopted the development of a proper methodology is necessary, which offers efficient solutions to the new stages of the digital project. In particular, one of the main difficulties presented by this approach is related to the way of partitioning the algorithm, in order to minimize the time necessary to complete its task. This manuscript offers a project methodology for dynamically reconfigurable devices, with an emphasis on the problem of the temporal partitioning of circuits, having as a target application a family of algorithms, used mainly in Bioinformatics, represented by the binary classifier known as Support Machine Vector. Some techniques of functional partitioning for Dynamically Reconfigurable FPGA, specifically applicable to partitioning of FSMs, were developed to guarantee that a control flow dominated design be mapped in only one FPGA, without modifying its functionality.
107

Segmentace ultrazvukovych snimku za ucelem detekce arterialni steny a mereni vrstev intima-media / The Segmentation of Ultrasound Images for Artery Wall Detection and Intima-Media Thickness Measurement

Beneš, Radek January 2013 (has links)
The thesis focuses on the measurement of intima media thickness, which seems to be a significant marker of the risk of cardiovascular events. Intima media thickness is measured in ultrasound image displaying the common carotid artery in its longitudinal section. In the longitudinal section the intima and media layers are visible. Thesis is discussing both technical and medical background and summarizes state of the art in this field. The main part of the thesis describes the novel automatic system for measurement of intima media thickness. Proposed system includes also robust method for artery localization and therefore is able to process raw B-mode data from ultrasound station without any initialization or manual preprocessing.
108

Hodnocení viability kardiomyocytů / Evaluation of viability of cardiomyocytes

Kremličková, Lenka January 2017 (has links)
The aim of this diploma thesis is to get acquainted with the properties of image data and the principle of their capture. Literary research on methods of image segmentation in the area of cardiac tissue imaging and, last but not least, efforts to find methods for classification of dead cardiomyocytes and analysis of their viability. Dead cardiomyocytes were analyzed for their shape and similarity to the template created as a mean of dead cells. Another approach was the application of the method based on local binary characters and the computation of symptoms from a simple and associated histogram.
109

Robustní optimalizace v klasifikačních a regresních úlohách / Robust optimization in classification and regression problems

Semela, Ondřej January 2016 (has links)
In this thesis, we present selected methods of regression and classification analysis in terms of robust optimization which aim to compensate for data imprecisions and measurement errors. In the first part, ordinary least squares method and its generalizations derived within the context of robust optimization - ridge regression and Lasso method are introduced. The connection between robust least squares and stated generalizations is also shown. Theoretical results are accompanied with simulation study investigating from a different perspective the robustness of stated methods. In the second part, we define a modern classification method - Support Vector Machines (SVM). Using the obtained knowledge, we formulate a robust SVM method, which can be applied in robust classification. The final part is devoted to the biometric identification of a style of typing and an individual based on keystroke dynamics using the formulated theory. Powered by TCPDF (www.tcpdf.org)
110

Extraction of Key-Frames from an Unstable Video Feed

Vempati, Nikhilesh 13 July 2017 (has links)
The APOLI project deals with Automated Power Line Inspection using Highly-automated Unmanned Aerial Systems. Beside the Real-time damage assessment by on-board high-resolution image data exploitation a postprocessing of the video data is necessary. This Master Thesis deals with the implementation of an Isolator Detector Framework and a Work ow in the Automotive Data and Time-triggered Framework(ADTF) that loads a video direct from a camera or from a storage and extracts the Key Frames which contain objects of interest. This is done by the implementation of an object detection system using C++ and the creation of ADTF Filters that perform the task of detection of the objects of interest and extract the Key Frames using a supervised learning platform. The use case is the extraction of frames from video samples that contain Images of Isolators from Power Transmission Lines.

Page generated in 0.444 seconds