• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 99
  • 6
  • 2
  • Tagged with
  • 108
  • 108
  • 46
  • 41
  • 40
  • 35
  • 31
  • 30
  • 30
  • 29
  • 25
  • 25
  • 24
  • 24
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Avaliação de métodos de data mining e regressão logística aplicados na análise de traumatismo cranioencefálico grave

Garcia, Merisandra Côrtes de Mattos January 2015 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica, Florianópolis, 2015 / Made available in DSpace on 2015-12-22T03:04:44Z (GMT). No. of bitstreams: 1 336613.pdf: 2800332 bytes, checksum: f19c44227d5f66a9bff46e9ee8ea64b8 (MD5) Previous issue date: 2015 / O traumatismo cranioencefálico é um problema de saúde pública constituindo-se em uma das principais causas de morbidade e mortalidade no Brasil e no mundo. A análise das relações entre as suas consequências tem despertado interesse em pesquisas na área, a fim de se identificar os indicadores que auxiliam no seu prognóstico, buscandose evitar o óbito. Estes modelos são tradicionalmente gerados por meio da regressão logística que tem se constituído em uma técnica padrão para análise dos dados em saúde. No entanto, os modelos prognósticos em traumatismo cranioencefálico, como o grave que é o foco desta pesquisa, não conseguem acurácia elevada para a predição do óbito por meio da regressão logística. Sabendo-se disso, avanços em termos da acuracidade da predição podem auxiliar no prognóstico e conduta das pessoas acometidas por traumatismo cranioencefálico do tipo grave. A descoberta de conhecimento em bases de dados por meio da etapa de data mining e da integração de técnicas de diferentes áreas como inteligência computacional, reconhecimento de padrões, aprendizado de máquina, estatística e banco de dados, constitui-se em uma alternativa para identificar as relações nestes conjuntos de dados. Considerando-se isto, esta pesquisa consiste na avaliação comparativa de diferentes métodos de data mining, a fim de se analisar os modelos gerados e compará-los com o de regressão logística, em uma mesma população de estudo. Nesta pesquisa, se objetiva identificar padrões válidos, avaliando se os métodos de data mining empregados se mostram como uma alternativa à regressão logística, baseando-se em critérios de avaliação como acurácia e robustez, os quais se constituem em medidas de qualidade dos padrões descobertos. Os métodos de data mining empregados referem-se a indução de árvores de decisão por meio dos algoritmos C4.5 e Classification And Regression Trees; o aprendizado baseado em instâncias pelo algoritmo k-vizinhos mais próximos; as redes neurais artificiais por Funções de Base Radial; os classificadores bayesianos pelos algoritmos Naive Bayes e Redes de Crença Bayesiana e o metaclassificador pelo algoritmo Adaptive Boosting. No desenvolvimento foram gerados modelos de prognóstico do óbito em traumatismo cranioencefálico grave por meio dos algoritmos supracitados, como também pela regressão logística binária. Os modelos gerados na etapa de data mining foram comparados aplicando-se as medidas de avaliação de desempenho (verdadeiros positivos, verdadeiros negativos, acurácia, sensibilidade e especificidade) e de confiabilidade (coeficiente de concordância kappa e área sob a ReceiverOperating Characteristic Curve). Na comparação entre os modelos de data mining elencados com maior poder de discriminação em relação a regressão logística, utilizaram-se as medidas de confiabilidade citadas anteriormente, considerando-se Intervalos de Confiança de 95%. Dentre as análises realizadas, nos modelos gerados para predição do óbito em traumatismo cranioencefálico grave, os classificadores bayesianos destacaram-se apresentando medidas de desempenho significativamente mais representativas. O modelo gerado pelo algoritmo Naive Bayes destacou-se em relação aos demais métodos de data mining empregados, bem como quando comparado com o modelo de regressão logística binária, classificando corretamente o óbito em 58,2% (IC95%: 55,6- 61,8), a acurácia geral do modelo foi de 80,2% (IC95%: 76,9-85,7), sensibilidade de 72,7% (IC95%: 69,8-75,4), especificidade de 84,2% (IC95%: 81,6-87,5), área sob a Receiver-Operating Characteristic Curve de 0,851 (IC95%: 0,832-0,870) e coeficiente de concordância Kappa 0,530 (IC95%: 0,519-0,541). Comparando-se os resultados, o algoritmo Naive Bayes mostrou-se, no conjunto de dados estudado, significativamente mais representativo que o modelo de regressão logística binária e os outros modelos de data mining. <br> / Abstract : Traumatic brain injury is a public health problem thus becoming a major cause of morbidity and mortality in Brazil and worldwide. The analysis of relations between its consequences has stimulated researches in the area, in order to identify indicators that help its prognosis, seeking avoid death. These models are traditionally generated by logistic regression that has been constituted as a standard technique for analysis of health data. However, the prognostic models in traumatic brain injury, such as severe which is the focus of this research, can not have a high accuracy for prediction of death by logistic regression. Knowing this, advances in terms of prediction accuracy may aid in prognosis and management of people affected by severe brain injury. The knowledge discovery in databases by data mining step and integration of techniques from different areas such as computational intelligence, pattern recognition, machine learning, statistical and database, constitutes an alternative to identify relationships in the data sets. Considering this, this research consists on the comparative evaluation of different data mining methods in order to analyze the generated models and compare them with logistic regression, in the same study population. In this research, the objective is to identify valid standards, assessing whether the data mining methods used are shown as an alternative to logistic regression, based on evaluation criteria such as accuracy and robustness, which constitute quality measures of the discovered patterns. The data mining methods employed refer to decision tree induction through C4.5 algorithms and Classification And Regression Trees; learning based on instances by knearest neighbors algorithm; artificial neural networks Radial Basis Function; Bayesian classifiers by algorithms Naive Bayes and Bayesian Belief Networks and the metaclassificador by Adaptive Boosting algorithm. In the development were generated death of prognostic models in severe traumatic brain injury through the aforesaid algorithms, but also by binary logistic regression. The models in data mining stage were compared applying the performance evaluation measures (true positives, true negatives, accuracy, sensitivity and specificity) and reliability (kappa coefficient and area under the Receiver Operating Characteristic Curve). Comparing the data mining models listed with major discrimination in relation to logistic regression, we used the reliability of measurements mentioned above, considering 95% confidence intervals. Among the analyzes, the generated models for prediction of death in severe traumatic brain injury, the Bayesian classifiers stood out, presenting performance measures significantly more representative. The model generated by Naive Bayes algorithm stood out in relation to other data mining methods employed, as well as when compared to the binary logistic regression model, correctly classifying the death in 58,2% (CI95%: 55,6-61,8), the overall accuracy of the model was 80,2% (CI95%: 76,9-85,7), sensitivity of 72,7% (CI95%: 69,8-75,4), specificity of 84,2% (CI95%: 81,6-87,5), area under the Receiver Operating Characteristic Curve of 0,851 (CI95%: 0,832-0,870) and Kappa coeficient of agreement 0,530 (CI95%: 0,519-0,541). Comparing the results, the Naive Bayes algorithm proved, in the data set studied, significantly more representative than the model of binary logistic regression and other data mining models.
22

Meta-heurísticas baseadas em população para o treinamento de redes neurais de base radial no contexto de inteligência computacional

Mota, Juliano Fabiano da 22 March 2013 (has links)
Resumo: Um dos problemas da modelagem de uma RBFNN - Radial Basis Neural Network, Rede Neural de Base Radial, consiste em determinar os pesos da camada de saída, geralmente representados por uma matriz retangular. Uma abordagem que tem ganho alguma notoriedade recentemente na resolução desse problema é a criação de modelos híbridos baseados na combinação de Meta-heurísticas, que são modelos gerais para solução de problemas de otimização, como alternativa ao método tradicional de realizar a pseudo-inversão da matriz com os valores de ativação da camada intermedíaria. Nesta pesquisa, duas destas Meta-heurísticas, Algoritmos Genéticos e Nuvem de Partículas (Particle Swarm Optmization) são implementadas a fim de comparar seus desempenhos com o método tradicional e também é proposta a mudança da representação dos indivíduos de uma população, em Algoritmos Genéticos, com a consequente adaptação operadores para algoritmos genéticos contínuos em que os indivíduos são matrizes, como é o caso do problema de calcular a matriz de pesos de uma RBFNN. Além disso, essas técnicas também são comparadas com a FDLF - Função Discriminante Linear de Fisher na classificação de padrões. Para fins de validação da hipótese levantada, foi realizado um experimento com seis bancos de dados e os resultados mostraram que as abordagens mais eficientes foram o treinamento tradicional das RBFNN e a FDLF, já a modificação proposta se mostrou tão consistente quanto o Algoritmo Genético tradicional no que diz respeito à eficiência ao encontrar soluções.
23

Uma abordagem de gerenciamento de redes baseado no monitoramento de fluxos de tráfego netflow com suporte de técnicas de business intelligence / An approach to network management based on monitoring of traffic flows netflow with technical support for business intelligence.

Couto, André Valente do 23 May 2012 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2012. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2012-10-25T13:02:38Z No. of bitstreams: 1 2012_AndreValentedoCouto.pdf: 3845521 bytes, checksum: 02bb0a4a7e95e0d8664749e251a031f0 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2012-10-29T11:45:24Z (GMT) No. of bitstreams: 1 2012_AndreValentedoCouto.pdf: 3845521 bytes, checksum: 02bb0a4a7e95e0d8664749e251a031f0 (MD5) / Made available in DSpace on 2012-10-29T11:45:24Z (GMT). No. of bitstreams: 1 2012_AndreValentedoCouto.pdf: 3845521 bytes, checksum: 02bb0a4a7e95e0d8664749e251a031f0 (MD5) / As redes de computadores atualmente possuem papel convergente de tecnologias que necessitam de prévio acordo de serviço com os clientes para garantia de sua disponibilidade e desempenho. O gerenciamento dos recursos computacionais passa a ter um papel vital neste processo, pois habilita ao administrador a capacidade de antever de forma proativa a manutenção dos níveis de acordo definidos. Este trabalho apresenta um estudo sobre as abordagens de monitoramento passivo de redes de computadores e as tecnologias aplicadas aos sistemas de suporte à decisão, culminando com o desenvolvimento de uma proposta de gerenciamento de tráfego em um backbone de rede local através do monitoramento dos fluxos netflow integrado em uma solução livre de business intelligence pela implementação de um Datamart para o fornecimento de consultas OLAP. _______________________________________________________________________________________ ABSTRACT / Computer networks today have role converging technologies that require prior service agreement with customers to ensure their availability and performance. The management of computational resources is replaced by a vital role in this process because it enables an administrator the ability to proactively anticipate the maintenance of defined levels of agreement. This paper presents a study of approaches to passive monitoring of computer networks and the technologies applied to decision support systems, culminating in the development of a proposed traffic management into a backbone LAN by monitoring flows netflow integrated in a free solution for business intelligence for implementing a datamart for the supply of OLAP queries.
24

Planejamento de redes ópticas usando inteligência computacional e ciência das redes

ARAÚJO, Danilo Ricardo Barbosa de. 21 July 2015 (has links)
Submitted by Haroudo Xavier Filho (haroudo.xavierfo@ufpe.br) on 2016-02-25T17:38:28Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) ppgee_ufpe_tese_danilo_araujo_d56.pdf: 4766595 bytes, checksum: d35136114bc3c8b6116c06920b45e876 (MD5) / Made available in DSpace on 2016-02-25T17:38:28Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) ppgee_ufpe_tese_danilo_araujo_d56.pdf: 4766595 bytes, checksum: d35136114bc3c8b6116c06920b45e876 (MD5) Previous issue date: 2015-07-21 / CNPq / A infraestrutura de transporte para Internet e outros serviços de telecomunicações que exigem elevada taxa de transmissão é constituída basicamente por redes de comunicações ópticas. Em redes com estabelecimento dinâmico de requisições, algumas das requisições podem não ser atendidas devido à indisponibilidade de um caminho óptico, decorrente da ausência de um canal ou de restrições de Qualidade de Transmissão (QoT). A probabilidade de bloqueio de requisições (PB) pode ser usada para medir o desempenho deste tipo de rede. PB pode ser estimada por expressões analíticas ou por simuladores de eventos discretos. Expressões analíticas possuem baixo custo computacional, mas são aplicadas apenas em cenários muito simples. Simuladores facilitam a estimativa de PB em cenários mais complexos, mas apresentam elevado custo computacional, pois exigem um grande número de requisições para uma estimativa precisa. Algoritmos evolucionários foram usados em trabalhos anteriores sobre planejamento de redes, mas eles apresentam elevado custo computacional, pois ativam o estimador de PB diversas durante o processo. Nesta Tese é proposta uma nova abordagem para planejamento de redes baseada em conceitos de Ciência das Redes e de Inteligência Computacional. São propostas novas métricas, um estimador de PB baseado em redes neurais e um novo algoritmo de planejamento que usa o conceito de modelos substitutos. De acordo com os resultados obtidos, o novo método de estimativa de PB possui um tempo até 72 vezes menor do que o obtido por um simulador e o erro de estimativa é da ordem de 104, para uma rede óptica de 18 nós. Diversos cenários de projeto de redes foram analisados e o novo algoritmo de planejamento oferece uma redução do tempo de execução de até 88% sobre as propostas anteriores, baseadas em algoritmos evolucionários e simuladores de rede. / The transport infrastructure for the Internet and other telecommunications services that require high transmission rate is comprised basically of optical communication networks. If networks with dynamic tra c are used, some requests could not be established due to the absence of an optical channel or due to restrictions in the Quality of Transmission (QoT). The blocking probability (BP) can be used to measure the performance of this kind of networks. BP can be estimated by analytical expressions or by discrete event simulators. Analytical expressions provide low computational cost, but they can be used only in very simple scenarios. Simulators facilitate the estimation of BP in more complex scenarios, but they present a high computational cost due to the large number of calls which is necessary to provide an accurate estimation. Evolutionary algorithms were used in previous works about design of optical networks, but they present high computational cost, since they activate the BP estimator several times to plan a single network. This Thesis proposes a new approach to design optical networks based on Network Science and Computational Intelligence. We propose new metrics, a new method to estimate BP based on neural networks and a new planning approach based on surrogate models. From the results, the proposed BP estimator presents a speedup of 72 over a network simulator and presents estimation errors in the order of 104, for an optical network with 18 nodes. Di erent scenarios for optical network design were evaluated and the new proposal o ers a reduction in processing time up to 88% when it is compared with previous approaches, that are based on evolutionary algorithms and network simulators.
25

Rede neural e lógica fuzzy aplicadas no melhoramento do feijoeiro / Neural networks and fuzzy logic applied in common bean breeding

Carneiro, Vinícius Quintão 17 July 2015 (has links)
Submitted by Reginaldo Soares de Freitas (reginaldo.freitas@ufv.br) on 2015-11-23T15:44:45Z No. of bitstreams: 1 texto completo.pdf: 1359771 bytes, checksum: 4d24880cb314df4c1c17b85c733ebcf7 (MD5) / Made available in DSpace on 2015-11-23T15:44:45Z (GMT). No. of bitstreams: 1 texto completo.pdf: 1359771 bytes, checksum: 4d24880cb314df4c1c17b85c733ebcf7 (MD5) Previous issue date: 2015-07-17 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Os programas de melhoramento vegetal atualmente utilizam-se de análises estatísticas para auxiliar na identificação de genótipos superiores em diversas etapas do desenvolvimento de um cultivar. Diferentemente dessas análises que são baseadas no paradigma estocástico, a abordagem da inteligência computacional tem sido pouco explorada na área do melhoramento genético. Assim, esse trabalho foi realizado com o objetivo de apresentar técnicas de inteligência computacional como ferramentas auxiliares no melhoramento do feijoeiro. Para demonstrar a aplicabilidade dessa abordagem, foram desenvolvidos dois estudos utilizando dados de avaliação de linhagens de feijão oriundas do Programa Feijão da Universidade Federal de Viçosa. Em um primeiro trabalho o objetivo foi avaliar o potencial das redes neurais artificiais como ferramenta auxiliar no melhoramento da arquitetura de plantas do feijoeiro. Com o intuito de classificar linhagens quanto ao porte, as redes neurais artificiais foram treinadas com dados de repetição de 19 linhagens de feijoeiro avaliadas nas safras de inverno de 2007 e de 2009, quanto a arquitetura de plantas, diâmetro do hipocótilo e altura de plantas. As redes neurais artificias apresentaram elevada capacidade de classificação correta das linhagens avaliadas, de forma que quando utilizado diâmetro do hipocótilo em conjunto com altura média de plantas, as redes neurais artificiais apresentaram melhores resultados do que utilizando somente o diâmetro do hipocótilo. Também observou-se que submeter dados de médias de novas linhagens às redes neurais treinadas com dados de repetição, provê melhores resultados de classificação das linhagens. Em um segundo trabalho o objetivo foi aplicar a Lógica Fuzzy, por meio de controladores, como ferramenta auxiliar na avaliação do comportamento de linhagens de feijão em diferentes ambientes. Para avaliar a aplicabilidade desses controladores foram utilizados dados de produtividade de grãos de 23 linhagens e duas testemunhas de feijão do grupo comercial vermelho, avaliados em nove ambientes da Zona da Mata de Minas Gerais. A partir dos parâmetros da análise de Eberhart e Russell foram desenvolvidos controladores fuzzy com sistemas de inferência Mamdani e Sugeno. Além destes, foi desenvolvido um controlador híbrido do tipo Sugeno baseado nos métodos de Eberhart e Russell e de Lin e Binns modificado. Foram realizadas análises de adaptabilidade e estabilidade pelos métodos de Eberhart e Russell e de Linn e Binns modificado e os respectivos parâmetros e medidas obtidos por meio dessas análises para cada linhagem foram submetidos aos respectivos controladores. Verificou-se que os controladores fuzzy podem ser aplicados para determinar o comportamento das linhagens, sendo o controlar híbrido o mais informativo a respeito da resposta das linhagens frente às variações ambientais. Dentre os sistemas de inferência utilizados, ambos sistemas apresentaram resultados consistentes. Uma vez que os controladores foram desenvolvidos de forma generalizada eles podem ser aplicados na determinação do comportamento de genótipos e na recomendação de cultivares de diferentes culturas agronômicas. Ao observar os resultados obtidos em ambos os trabalhos verificou-se que as técnicas de inteligência computacional apresentam grande potencial para serem empregadas nas diferentes etapas de um programa de melhoramento. / Bean breeding programs have currently used statistical analysis in order to help identifying superior genotypes in various stages of a cultivar development. Unlike these analyses that are based on stochastic paradigm, the approach of computational intelligence has been little exploited in breeding. Thus, this study was carried out in order to present computational intelligence techniques as an important tool in bean breeding programs. To demonstrate the applicability of this approach, two studies were carried out using bean lines evaluation data derived from the Bean Breeding Program of the Federal University of Viçosa. In the first study, the objective was to evaluate the potential of artificial neural networks as an auxiliary tool in improving the bean plant architecture. In order to classify lines according to the habit, artificial neural networks were trained with 19 bean lines data from replication collected during the 2007 and 2009 winter crops, regarding plant architecture, hypocotyl diameter and plant height. The artificial neural networks presented high correct classification capability of the evaluated lines. Thus, when the hypocotyl diameter was used together with the mean height of plants, artificial neural networks had better results than when it was used the hypocotyl diameter individually. Also, it was observed that submitting mean data of new lines to neural networks trained with data from replication provides better results for the classification of lines. In the second work, the objective was to apply the fuzzy logic by means of controllers as an auxiliary tool in the evaluation of bean lines behavior in different environments. Grain yield data of 23 lines and two controls of red bean plants (Phaseolus vulgaris L.) were used in order to evaluated the applicability of these controllers. Plants were evaluated in nine environments of Zona da Mata region, Minas Gerais. From the parameters of Eberhart and Russell analysis, the fuzzy controllers were developed with Mamdani and Sugeno inference systems. In addition, Sugeno and Mamdani hybrid controllers were developed based on the methods of Eberhart and Russell and modified Lin and Binns. Adaptability and stability analyses were carried out by the methods of Eberhart and Russell and by the modified method of Lin and Binns, and the respective parameters and measurements obtained by these analyses for each line were submitted to the respective controllers. It was found that fuzzy controllers can be applied to determine the behavior of the lines, and the hybrid controller presented more information regarding the response of lines against the environmental variation. Both inference systems presented consistent results. Since the controllers were developed in a generalized way, they may be widely applied in determining the behavior of genotypes and in recommending cultivars of different crops . By observing the results obtained in both studies, it was found that computational intelligence techniques have great potential to be used in the different stages of a breeding program. / Não foi encontrado o CPF do autor.
26

Reconhecimento de movimentos humanos utilizando um acelerômetro e inteligência computacional. / Human movements recognition using an accelerometer and computational intelligence.

Silva, Fernando Ginez da 19 November 2013 (has links)
Observa-se nos tempos atuais um crescente interesse e demanda por novas tecnologias de sensoriamento e interação. A monitoração, com o objetivo de reconhecimento de movimentos humanos, permite oferecer serviços personalizados em diferentes áreas, dentre elas a área de cuidados médicos. Essa monitoração pode ser realizada por meio de diferentes técnicas como o uso de câmeras de vídeo, instrumentação do ambiente onde o indivíduo habita, ou pelo uso de dispositivos pessoais acoplados ao corpo. Os dispositivos acoplados ao corpo apresentam vantagens como baixo custo, uso confortável, além de muitas vezes serem despercebidos pelo usuário, diminuindo a sensação de invasão de privacidade durante a monitoração. Além disso, o dispositivo sensor pode ser facilmente acoplado ao corpo pelo próprio usuário, tornando o seu uso efetivo. Deste modo, este trabalho apresenta o desenvolvimento de um sistema que emprega técnicas de inteligência computacional e um acelerômetro facilmente acoplado ao punho do usuário para efetuar, de maneira confortável e não invasiva, o reconhecimento de movimentos básicos da rotina de uma pessoa. Aplicando máquinas de vetores de suporte para classificar os sinais e a razão discriminante de Fisher para efetuar a seleção das características mais significativas, o sistema apresentou uma taxa de sucesso em torno de 93% no reconhecimento de movimentos básicos efetuados por indivíduos monitorados. O sistema apresenta potencialidade para ser integrado a um hardware embarcado de baixo custo, responsável pelo gerenciamento da aquisição dos dados e pelo encaminhamento das informações a um sistema de monitoramento ou armazenamento. As informações providas por este sistema podem ser destinadas à promoção da saúde e bem estar do indivíduo, bem como utilizadas em diagnósticos ou monitoramento remoto de pacientes em um ambiente de vida assistida. / Nowadays it is observed a growing interest and demand for new sensing technologies and interaction. Monitoring with the objective of recognizing human movements, allows us to offer personalized services in different areas, among them healthcare. This monitoring can be performed through the use of different techniques such as the use of video cameras, living environment instrumentation, or the use of personal devices attached to the body, also known as wearable devices. These wearable devices have some advantages such as low cost, comfortable to use, and are often unnoticed by the user, reducing the feeling of privacy invasion during the monitoring. In addition, the sensing device can be easily attached to the body by the user itself, making its use effective. Thus, this work presents the development of a system that uses computational intelligence techniques and an accelerometer which is easily attached to the users wrist to perform, in a comfortable and non-invasive manner, the recognition of basic movements of a persons routine. By applying support vector machines to classify the signals and Fishers discriminant ratio to select the most significant features, the system has shown a success rate of 93% in the recognition of basic movements performed by monitored individuals. The system has the potential to be integrated into a low-cost embedded hardware, which is responsible for managing the data acquisition and routing the movement data to a remote monitoring system or storage. The information provided by the system can be designed to promote the health and wellness of the individual, as well used in diagnostics or remote patient monitoring in an ambient assisted living (AAL).
27

Detecção de dano em estruturas via inteligência computacional e análise dinâmica / Structural damage detection by means of computational intelligence techniques and dynamic analysis

Villalba Morales, Jesús Daniel 29 November 2012 (has links)
Nesta tese doutoral estudam-se formas de resolver o problema de detecção de dano em estruturas a partir da aplicação de técnicas de inteligência computacional e da resposta dinâmica da estrutura. Duas opções para a formulação do problema são consideradas. Primeiro, um problema de otimização é estabelecido a partir da minimização da diferença entre os parâmetros dinâmicos experimentais da estrutura na condição com dano e aqueles calculados utilizando um modelo de elementos finitos que representa tal condição. Diferentes técnicas metaheurísticas (algoritmos genéticos, particle swarm optimization, evolução diferencial), algumas em versões com adaptação de parâmetros, são empregadas. Estuda-se, ainda, a formulação do problema de otimização como um com múltiplos objetivos. Uma nova forma de avaliar o desempenho de uma metodologia de detecção de dano é proposta, que está baseada na capacidade da metodologia para obter um nível determinado de exatidão no cálculo da extensão do dano e na presença de falso-negativos e falso-positivos nos resultados. Segundo, aplicam-se redes neurais para determinar o mapeamento entre os parâmetros dinâmicos experimentais da condição atual da estrutura e a extensão ou posição do dano nesta. Estruturas do tipo viga e treliça foram submetidas a diferentes cenários de dano com o intuito de determinar o desempenho das metodologias propostas. Resultados mostram a habilidade de técnicas de inteligência computacional para detecção de cenários de dano com uns poucos elementos danificados; porém não é possível garantir que as metodologias terão sucesso para o 100% dos casos. Recomenda-se a utilização de técnicas de busca local para melhorar a solução encontrada pelos algoritmos globais. Finalmente, observou-se que se requer da determinação da quantidade mínima de informação a ser utilizada, uma função objetivo adequada e uma alta qualidade nas medições para garantir uma detecção de dano confiável. / This research aims at studying how to solve the damage detection problem by using computational intelligence techniques and the dynamic response of the structure. Two different ways for formulating the solution to the problem are implemented. In first place, an optimization problem is formulated as the minimization of the difference between the experimental dynamic parameters for the current structure and those from a finite element model that represent the damaged condition. Several metaheuristics (genetic algorithms, particle swarm optimization and differential evolution) are used to solve the optimization problem, where most of them present adaptive configurations. The implication of a multi-objective approach is also studied. A new scheme to determine the algorithm´s performance is proposed, which computes three error indicators concerning differences between the real and computed damage extents and the presence of false-positives and false-negatives. In second place, artificial neural networks are used to determine the mapping between the experimental dynamic parameters and either the damage extension (quantification) or the damage position (localization). Different damage scenarios were simulated in beam and truss structures to verify the performance of the proposed methodologies. Results show the ability of computational intelligence techniques to detect damage scenarios with a few damaged elements; however, it is not possible to guarantee a 100% of success. It is suggested to use local search techniques to improve the solution found by the different proposed algorithms. Three main conclusions are the followings: i) it is necessary to determine the minimum quantity of modal data that permits guarantying a reliable damage detection, ii) objective functions plays a very important role to the success of the algorithms and iii) noise prejudice the damage identification process.
28

Agrupamento de fornos de redução de alumínio utilizando os algoritmos Affinity Propagation, Mapa auto–organizável de Kohonen (som), Fuzzy C–Means e K–Means

LIMA, Flávia Ayana Nascimento de 11 October 2017 (has links)
Submitted by Marina Farias (mgmf@ufpa.br) on 2018-02-21T13:19:33Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_AgrupamentoFornosReducao.pdf: 6297988 bytes, checksum: 9e3c95180dbdfbdbc60f142c239aeb87 (MD5) / Approved for entry into archive by Marina Farias (mgmf@ufpa.br) on 2018-02-21T13:23:06Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_AgrupamentoFornosReducao.pdf: 6297988 bytes, checksum: 9e3c95180dbdfbdbc60f142c239aeb87 (MD5) / Made available in DSpace on 2018-02-21T13:23:06Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_AgrupamentoFornosReducao.pdf: 6297988 bytes, checksum: 9e3c95180dbdfbdbc60f142c239aeb87 (MD5) Previous issue date: 2017-10-11 / O constante avanço da tecnologia requer medidas que beneficiem as indústrias em busca do lucro e da competitividade. Em relação à indústria de minerais, o processo de fundição de alumínio geralmente possui grande número de células, também chamado de forno ou cuba de redução, produzindo alumínio em um procedimento contínuo e complexo. Um monitoramento analítico é essencial para aumentar a vantagem competitiva dessa indústria, por exemplo, durante a operação, algumas células compartilham comportamentos semelhantes às outras, formando grupos ou clusters de células. Esses clusters dependem de padrões de dados geralmente implícitos ou invisíveis para a operação, mas que podem ser encontrados por meio da análise de dados. Neste trabalho, são apresentadas quatro técnicas de agrupamento, o Affinity Propagation, o mapa auto–organizável de Kohonen (SOM), o algoritmo difuso Fuzzy C–Means (FCM) e o K–Means. Essas técnicas são utilizadas para encontrar e agrupar as células que apresentam comportamentos semelhantes, de acordo com sete variáveis tais como as que consiste no processo de redução do alumínio. Este trabalho visa trazer o benefício do agrupamento, principalmente pela simplificação da análise da linha de produção do alumínio, uma vez que um grande número de células pode se resumir em um único grupo, o que pode fornecer informações mais compactas para o controle e a modelagem dos dados. Este benefício de identificar os dados que possuem características semelhantes e agrupá–los faz com que a análise dos grupos se torne mais simples para quem irá manusear esses dados futuramente. Nesse trabalho de dissertação também será feito a identificação da quantidade ideal de grupo em cada técnica utilizada. / The continuous development of technology accounts for measures that provide industries benefits to grant them profitability and competitive advantage. In the mineralogy field, aluminum smelting usually requires substantial number of cells, also known as reduction pots, to produce aluminum in a continuous and complex process. Analytical monitoring is essential for those industries’ competitive advantage, given that during operation some cells show behavior similar to others, thereby forming clusters of cells. These clusters depend on data patterns usually implicit or invisible for the operation, but can be found by data analysis techniques. In this work four clustering techniques are presented to that end: the Affinity Propagation; the Kohonen Self Organizing Map; the Fuzzy C–Means; and the K–Means Algorithm. These techniques are used to find and group cells that share similar behavior, by analysing seven variables which are closely related to the aluminum reduction process. This work aims at addressing the benefits of clustering, especially by simplifying the aluminum potline analysis, once a large group of cells might be summarized in one sole group, what can provide more compact yet rich information for data driven modeling and control. Moreover, the identification of similar data patterns in clusters makes the task of those who is going to be in charge of analyzing these dats. This work also identifies the ideal cluster size for each technique applied.
29

Desenvolvimento de métodos de processamento e inteligência computacional no ECG ambulatorial

EVANGELISTA NETO, João 26 April 2012 (has links)
Submitted by Edisangela Bastos (edisangela@ufpa.br) on 2013-05-03T22:24:49Z No. of bitstreams: 1 Tese_DesenvolvimentoMetodosProcessamento.pdf: 2202478 bytes, checksum: 0463028d6becc06c5cb7982e8176b7ae (MD5) / Approved for entry into archive by Ana Rosa Silva(arosa@ufpa.br) on 2013-05-06T13:26:24Z (GMT) No. of bitstreams: 1 Tese_DesenvolvimentoMetodosProcessamento.pdf: 2202478 bytes, checksum: 0463028d6becc06c5cb7982e8176b7ae (MD5) / Made available in DSpace on 2013-05-06T13:26:24Z (GMT). No. of bitstreams: 1 Tese_DesenvolvimentoMetodosProcessamento.pdf: 2202478 bytes, checksum: 0463028d6becc06c5cb7982e8176b7ae (MD5) Previous issue date: 2012 / A monitorização ambulatorial do eletrocardiograma (ECG) permite seguir as atividades cotidianas do paciente durante períodos de 24 horas (ou ainda maiores) possibilitando o estudo de casos que pudessem ter episódios arrítmicos fatais. Entretanto, o maior desafio tecnológico que este tipo de monitorização enfrenta é a perda de informação pela presença de ruídos e artefatos quando o paciente se move. A análise do intervalo QT de despolarização e repolarização ventricular do eletrocardiograma superficial é uma técnica não invasiva com um grande valor para a diagnose e prognósticos de cardiopatias e neuropatias, assim como para a predição da morte cardíaca súbita. A análise do desvio padrão do intervalo QT proporciona informação sobre a dispersão (temporal ou espacial) da repolarização ventricular, entretanto a influencia do ruído provoca erros na detecção do final da onda T que são apreciáveis devido ao fato dos valores pequenos do desvio padrão do QT tanto para sujeitos patológicos e quanto para os sãos. O objetivo geral desta tese é melhorar os métodos de processamento do sinal de ECG ambulatorial usando inteligência computacional, especificamente os métodos relacionados com a detecção do final da onda T, e os de reconhecimento morfológico de batimentos que invalidam a análise da variabilidade do intervalo QT. É proposto e validado (em termos de exatidão e precisão) um novo método e algoritmo para estimar o final da onda T baseado no calculo de áreas de trapézios, empregando sinais da base de dados QT da Physionet. O desempenho do método proposto foi testado e comparado com um dos métodos mais usados para detectar o final da onda T: o método baseado no limiar na primeira derivada. O método de inteligência computacional sugerido combina a extração de características usando o método de análise de componentes principais não lineares e a rede neural de tipo perceptron multicamada. O método de áreas de trapézios teve um bom desempenho em condições ruidosas e não depende de nenhum limiar empírico, sendo adequado para situações com níveis de elevados de ruído de banda larga. O método de reconhecimento morfológico de batimentos foi avaliado com sinais ambulatoriais com e sem artefatos pertencentes a bases de dados de prestigio internacional, e mostrou um bom desempenho. / Ambulatory monitoring of the electrocardiogram (ECG) allows to follow the patient's daily activities during periods of 24 hours (or more) making possible the study of cases with potentially fatal arrhythmic episodes. However, the major technological challenge that this type of monitoring faces is the loss of information due to the presence movement-related noise and artefacts. The analysis of the QT interval of the surface electrocardiogram or ventricular depolarization and repolarization interval is a non-invasive technique with a high value for the diagnosis and prognostics of cardiopathies and neuropathies, as well as for the prediction of sudden cardiac death. The analysis of the QT-interval standard deviation provides information about the dispersion (time or spatial) of ventricular repolarization. Hovever the presence of noise leads to errors in the detection of the T-wave end, which are non negligible due to small values of QT standard deviation in both pathological and healthy subjects. The main aim of this PhD thesis is to improve ambulatory ECG processing methods using computational intelligence, and specifically those involved in the detection of the T wave end and morphologic recognition of heartbeats, which could invalidate the QT interval variability analysis. A new approach and algorithm was proposed to identify the T-wave end, based on the computation of Trapezium’s areas. The method was validated (in terms of accuracy and repeatability), using signals from the Physionet QT Database. The performance of the proposed method in noisy conditions has been tested and compared with one of the most used approaches for estimating the T-wave end point, based on the threshold on the first derivative. The suggested computational intelligence method combines the features extraction using non-linear principal components analysis method and the multilayer perceptron neural network. The trapezium-based approach showed a good performance in noisy conditions and does not rely on any empirical threshold. It is adequate for use in scenarios where the levels of broadband noise are significant. The beats morphologic recognition methods were evaluated using ambulatory signals with and without artefacts from international prestigious databases, showing a good performance.
30

Modelo de avaliação de risco para predição de preços de carne bovina utilizando inteligência computacional / Model of evaluation of risk for prediction of prices in the beef chain by using computational intelligence

Lemes, Luciene Rose 08 August 2014 (has links)
A relação entre o preço futuro e o preço a vista é um fator que requer muita atenção e planejamento das atividades de comercialização agropecuária. As previsões de preços permitem fornecer a redução das incertezas dentro do mercado de carne bovina auxiliando na determinação da quantidade a ser produzida bem como no estabelecimento de políticas governamentais apropriadas e sustentáveis. Este trabalho tem como objetivo definir um modelo matemático capaz de predizer os preços de carne bovina usando inteligência computacional a partir da análise do ARIMA, Análise de Risco e Redes Neurais Artificiais, identificando aspectos quantitativos relacionados à lógica da decisão na formação do preço de venda, utilizando-se de séries temporais, a fim de explorar as correlações que impactam com maior frequência no preço de venda de carne bovina, por entender que este conhecimento pode aperfeiçoar os instrumentos de avaliação no processo de tomada decisão. A pesquisa caracteriza-se como descritiva, explicativa e quantitativa pois busca-se identificar fatores determinantes para a ocorrência dos fenômenos observados nas séries temporais de preço do boi gordo, traduzindo-se em números as informações classificadas e analisadas com o uso de técnicas estatísticas. Neste estudo foi utilizado a metodologia de séries temporais, aplicada à série histórica de preços do Boi Gordo no período de 23 de julho de 1997 a 18 de fevereiro de 2013, obtida junto ao Centro de Estudos Avançados em Economia Aplicada (CEPEA) da ESALQ/USP/Piracicaba. Estes dados representam o indicador de preço do Boi Gordo ESALQ/BM&F/BOVESPA utilizado como referencial para as negociações de compra e venda de contratos futuros. Os resultados demonstram a eficiência dos modelos propostos para a simulação e instrumentalização, ou seja, permitem avaliar o comportamento linear e não linear do modelo como ferramenta para a geração de informações e redução dos riscos que contribuirá para reduzir a subjetividade no processo de tomada de decisão. / The relationship between the future price and the cash down price of beef is a factor that requires much attention and planning in agricultural market activities. Price previews help to reduce uncertainties in the beef market and to assist in the determination of the quantity of beef to be produced as well as in the establishment of proper and sustainable governmental policies. This work aims to establish a mathematical model capable of predicting the price of beef using computational intelligence from the ARIMA analysis, Risk Analysis and Artificial Neural Network,by identifying the quantitative aspects related to the logic of decision in the formation of selling prices. This is done by using temporal series in order to explore the correlations that impact with greater frequency on the selling price of beef meat. Knowledge thus produced could improve the assessment instruments in the process of decision making. This research is characterized as descriptive, explanatory and quantitative because it intends to identify the determining factors for the occurrence of the observed phenomena in the time series of livestock prices where the classified and analyzed data result in numbers by the use of statistical techniques. The time series methodology was used. The historical series of livestock prices in the period from July 23rd 1997 to February 18th 2013 was obtained in the Center for Advanced Studies in Applied Economics (CEPEA) from ESALQ/USP/Piracicaba. This represents the livestock price indicator ESALQ/BM&F/BOVESPA that is used as a reference for the negotiations of purchase and sale in future contracts. The results show the effectiveness of the proposed models for simulation and orchestration, that is, they allow assessment of linear and non-linear behavior of the model as a tool for the generation of data and risk reductions that will contribute to less subjectivity in the decision-making process.

Page generated in 0.4596 seconds