61 |
Determinação de dose de radiação, em tempo real, através de inteligência artificial e realidade virtualFREITAS, Victor Gonçalves Gloria 06 1900 (has links)
Submitted by Almir Azevedo (barbio1313@gmail.com) on 2014-09-25T12:25:45Z
No. of bitstreams: 1
dissertacao_mestrado_ien_2009_06.pdf: 1576215 bytes, checksum: 0dd6d68f39c7ff7bb55ea11e9ea11f2b (MD5) / Made available in DSpace on 2014-09-25T12:25:45Z (GMT). No. of bitstreams: 1
dissertacao_mestrado_ien_2009_06.pdf: 1576215 bytes, checksum: 0dd6d68f39c7ff7bb55ea11e9ea11f2b (MD5)
Previous issue date: 2009 / Nos últimos anos foram desenvolvidos trabalhos nos quais criou-se um
modelo virtual do reator de pesquisa Argonauta, localizado no instituto de
Engenharia Nuclear (Brasil), chamado Argonauta Virtual (AV). O AV é um
modelo tridimensional onde personagens virtuais (avatares) podem transitar e
interagir. Nele é possível fazer simulações de fontes nucleares e doses de
radiação. No trabalho mais recente, um sistema de monitoramento em tempo
real foi desenvolvido a fim de disponibilizar (através de Ethernet TCP/IP)
informações dos detectores de área situados no salão do reator.
Estendendo o uso do AV, esse trabalho tem por objetivo desenvolver um
sistema capaz de determinar a dose de radiação no interior do salão do reator
para uma dada posição, sob determinada condição operacional. Para tal, um
módulo baseado em redes neurais artificiais (RNA) foi desenvolvido e treinado a
partir de um conjunto de medidas realizadas no interior do salão do reator.
Usando como entrada: i) posição do avatar, ii) Potência do reator e iii) dados de
detectores fixados na instalação física, a RNA é capaz de predizer a dose de
radiação recebida. A função interpoladora, gerada a partir da RNA, foi inserida
nesse ambiente virtual, possibilitando assim a visualização do perfil das
radiações e com isso o treinamento de pessoas e funcionários sem expô-los
aos seus efeitos. Os resultados obtidos demonstraram o perfil contínuo da
radiação e sua inserção em ambiente virtual fazendo com que a medição da
dose absorvida pelo personagem se tornasse mais precisa em relação à sua
posição. / In the last years, a virtual environment of Argonauta research reactor,
sited in the Instituto de Engenharia Nuclear (Brazil), has been developed. Such
environment, called here Argonauta Virtual (AV), is a 3D model of the reactor
hall, in which virtual people (avatar) can navigate. In AV, simulations of nuclear
sources and doses are possible. In a recent work, a real time monitoring system
(RTMS) was developed to provide (by means of Ethernet TCP/IP) the
information of area detectors situated in the reactor hall.
Extending the scope of AV, this work is intended to provide a continuous
determination of gamma radiation dose in the reactor hall, based in several
monitored parameters. To accomplish that a module based in artificial neural
network (ANN) was developed. The ANN module is able to predict gamma
radiation doses using as inputs: i) the avatar position (from virtual environment),
ii) the reactor power (from RTMS) and iii) information of fixed area detectors
(from RTMS).
The ANN training data has been obtained by measurements of gamma
radiation doses in a mesh of points, with previously defined positions, for
different power levels.
Through the use of ANN it is possible to estimate, in real time, the dose
received by a person at any position in Argonauta reactor hall. Such approach
allows tasks simulations and training of people inside the AV system, without
exposing them to radiation effects.
|
62 |
Um sistema de identificação de transientes com inclusão de ruídos e indicação de eventos desconhecidosMól, Antônio Carlos de Abreu, Instituto de Engenharia Nuclear 12 1900 (has links)
Submitted by Marcele Costal de Castro (costalcastro@gmail.com) on 2017-09-19T16:45:56Z
No. of bitstreams: 1
ANTÔNIO CARLOS DE ABREU MOL D.pdf: 3379015 bytes, checksum: 0422ecac1a2ccc8500d7f8854e764270 (MD5) / Made available in DSpace on 2017-09-19T16:45:56Z (GMT). No. of bitstreams: 1
ANTÔNIO CARLOS DE ABREU MOL D.pdf: 3379015 bytes, checksum: 0422ecac1a2ccc8500d7f8854e764270 (MD5)
Previous issue date: 2002-12 / Esta tese apresenta uma metodologia, baseada em Redes Neurais Artificiais (RNA), para a identificação de transientes a qual permite tanto uma identificação dinâmica quanto a resposta “Não Sei” para eventos desconhecidos. O método usa duas RNA’s. A primeira rede é responsável pela identificação dinâmica, utilizando como entradas um pequeno conjunto (através de uma janela temporal móvel) dos valores recentes das variáveis de estado. A outra rede é utilizada para validar a identificação feita pela primeira através da identificação de cada variável, emitindo assim a resposta “Não Sei” para eventos desconhecidos. No processo de validação foi utilizado um conjunto de 15 acidentes postulados para uma usina nuclear PWR, gerados por simulação computacional e com ruído superposto ao dados. Os resultados obtidos mostraram a capacidade do método em analisar sistemas dinâmicos e emitir resposta “Não Sei” para eventos desconhecidos.
|
63 |
Modelo de utilização do paradigma de BlackboardNakamiti, Gilberto Shigueo 28 October 1991 (has links)
Orientador: Beatriz Mascia Daltrini / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-14T01:13:57Z (GMT). No. of bitstreams: 1
Nakamiti_GilbertoShigueo_M.pdf: 6387517 bytes, checksum: 4536f5aa0e5b778e614506ad04477c7e (MD5)
Previous issue date: 1991 / Resumo: Os sistemas Blackboard representam um tipo de arquitetura para resolução de problemas em Inteligência Artificial Distribuída relativamente recente, e caracterizam-se por seu comportamento dinâmico, cooperativo e oportunístico. Este trabalho apresenta o paradigma Blackboard e resultados obtidos nos principais centros de pesquisa do mundo. Este trabalho propoe também o sistema ASTUTO ¿ Arquitetura para a Resolução de Problemas aTravés do Uso de Técnicas de Inteligência Artificial e Oportunismo. ASTUTO é um sistema que segue a filosofia Blackboard, e que propicia o uso desse paradigma para a resolução de problemas em diferentes domínios de aplicação. A abordagem utilizada privilegia a visão que as fontes de conhecimento têm do blackboard e o comportamento do sistema dirigido por eventos, aproximando-se daquilo que entendemos por essência do paradigma. O Modelo Entidade-Relacionamento é utilizado pela primeira vez para o modelamento e implementação da estrutura do blackboard. São propostas e implementadas fontes de conhecimento genéricas para sua manipulação, bem como o mecanismo de controle, heurísticas e o processo de reconfiguração do sistema / Abstract: Blackboard Systems are a relatively recent problem-solving framework in Distributed Artificial Intelligence. They are well-known for their cooperative, opportunistic, dynamic behavior. This work presents the Blackboard paradigm and a survey of world research results. This work also proposes ASTUTO - Archi tecture for Problem Solving Through the Use of Artificial Intelligence Techniques and Opportunism. ASTUTO follows the Blackboard paradigm, and permits its use for problem-solving in different application domains. Its approach favors the knowledge sources' view of the blackboard, and an event-driven behavior, getting close to what we understand as the paradigm essence. The Enti ty-Relationship Model is for the first time used to model and implement the blackboard structure. Generic knowledge sources are proposed and implemented for the blackboard handling, as well as the control mechanism, heuristics and the system reconfiguration process / Mestrado / Mestre em Engenharia Elétrica
|
64 |
Combinação de kernels para predição de interações em redes biológicasNASCIMENTO, André Câmara Alves do 09 November 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-04-22T19:31:30Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
TESE André Câmara Alves do Nascimentos.pdf: 4823168 bytes, checksum: 2c30ae331ec29f390824052ea069109b (MD5) / Made available in DSpace on 2016-04-22T19:31:30Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
TESE André Câmara Alves do Nascimentos.pdf: 4823168 bytes, checksum: 2c30ae331ec29f390824052ea069109b (MD5)
Previous issue date: 2015-11-09 / CAPES / Redes droga-proteína têm recebido bastante atenção nos últimos anos, dada sua relevância
para a inovação farmacêutica e produção de novos fármacos. Muitas abordagens in silico distintas
para predição de interações droga-proteína têm sido propostas, muitas das quais baseadas em
uma classe particular de métodos de aprendizagem de máquina chamada de métodos de kernel.
Estes algoritmos de classificação de padrões são capazes de incorporar conhecimento prévio na
forma de funções de similaridade, i.e., um kernel, e têm tido sucesso em diversos problemas
de aprendizagem supervisionada. A seleção da função de kernel adequada e seus respectivos
parâmetros pode ter grande influência no desempenho do classificador construído. Recentemente,
a aprendizagem de múltiplos kernels (Multiple Kernel Learning - MKL) tem sido introduzida para
solucionar este problema, permitindo a utilização de múltiplos kernels, ao invés de considerar
apenas um kernel para uma dada tarefa. A principal motivação para tal abordagem é similar a
considerada na combinação de múltiplos classificadores: ao invés de restringir-se a um único
kernel, é preferível utilizar um conjunto de kernels distintos, e deixar que um algoritmo selecione
os melhores, ou sua respectiva combinação. Abordagens MKL também podem ser vistas
como uma estratégia de integração de dados. Apesar dos avanços técnicos nos últimos anos,
as abordagens propostas anteriormente não são capazes de lidar com os grandes espaços de
interação entre drogas e proteínas e integrar múltiplas fontes de informação simultaneamente.
Neste trabalho, é proposto um método de aprendizagem de múltiplos kernels para a combinação
não esparsa de kernels na predição de interações em redes droga-proteína. O método proposto
permite a integração de múltiplas fontes heterogêneas de informação para a identificação de novas
interações, e também pode ser aplicado em redes de tamanhos arbitrários. Além disso, o método
proposto pode também selecionar automaticamente os kernels mais relevantes, retornando pesos
que indiquem a sua importância na predição de interações droga-proteína na rede em questão.
A análise empírica em quatro bases de dados, utilizando vinte kernels distintos indicou que
o método proposto obteve desempenho comparável ou superior a todos os métodos avaliados.
Ademais, os pesos associados aos kernels analisados refletiram a qualidade preditiva obtida por
cada kernel em experimentos exaustivos para cada par de kernels, um indicativo do sucesso
do método em identificar automaticamente fontes de informação biológica relevantes. Nossas
análises demonstraram que a estratégia de integração de dados é capaz de melhorar a qualidade
das interações preditas, e pode acelerar a identificação de novas interações, bem como identificar
informações relevantes para a tarefa. / Drug-target networks are receiving a lot of attention in late years, given its relevance
for pharmaceutical innovation and drug lead discovery. Many different in silico approaches for
the identification of new drug-target interactions have been proposed, many of them based on a
particular class of machine learning algorithms called kernel methods. These pattern classification
algorithms are able to incorporate previous knowledge in the form of similarity functions, i.e.,
a kernel, and it has been successful in a wide range of supervised learning problems. The
selection of the right kernel function and its respective parameters can have a large influence
on the performance of the classifier. Recently, Multiple Kernel Learning algorithms have been
introduced to address this problem, enabling one to use multiple kernels instead of a single one
for a given task. The main motivation for such approach is similar to the one considered in
ensemble methods: instead of being restricted to only one kernel, it is preferrable to use a set
of distinct kernels, and let the algorithm choose the best ones, or its combination. The MKL
approach can also be seen as a data integration strategy. Despite technical advances in the latest
years, previous approaches are not able to cope with large drug-target interaction spaces and
integrate multiple sources of biological information simultaneously. In this work, we propose a
new multiple kernel learning algorithm for the non-sparse combination of kernels in bipartite link
prediction on drug-target networks. This method allows the integration of multiple heterogeneous
information sources for the identification of new interactions, and can also work with networks
of arbitrary size. Moreover, our method can also automatically select the more relevant kernels,
returning weights indicating their importance in the drug-target prediction at hand. Empirical
analysis on four data sets, using twenty distinct kernels indicates that our method has higher or
comparable predictive performance than all evaluated methods. Moreover, the predicted weights
reflect the predictive quality of each kernel on exhaustive pairwise experiments, which indicates
the success of the method to automatically indicate relevant biological information sources. Our
analysis show that the proposed data integration strategy is able to improve the quality of the
predicted interactions, and can speed up the identification of new drug-target interactions as well
as identify relevant information for the task
|
65 |
Mapas auto-organizáveis de topologia variante no tempo para SLAM visual em espaço de aparênciasGOMES, Daniel de Filgueiras 12 March 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-04-25T17:59:51Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
TESE Daniel de Filgueiras Gomes.pdf: 7945511 bytes, checksum: 9201fb6e2822d5ece5bb9d95097e983a (MD5) / Made available in DSpace on 2016-04-25T17:59:51Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
TESE Daniel de Filgueiras Gomes.pdf: 7945511 bytes, checksum: 9201fb6e2822d5ece5bb9d95097e983a (MD5)
Previous issue date: 2015-03-12 / CAPES / Implementar agentes robóticos autônomos capazes de navegar entre duas posições ou explorar
ambientes desconhecidos são problemas antigos e importantes em áreas como robótica
e inteligência computacional. Um pré-requisito para subsidiar as atividades de navegação e
exploração autônomas é dotar o agente robótico da capacidade de construir mapas do ambiente
ao seu redor e de conseguir identificar a sua posição no mapa construído. Este é o problema de
mapeamento e localização simultâneos de um ambiente desconhecido (Simultaneous localization
and mapping ou SLAM) e pode ser modelado matematicamente como um problema de filtragem.
Nos últimos 10 anos foram obtidos grandes avanços nesta área com o desenvolvimento de várias
abordagens para a resolução deste problema. As abordagens mais populares utilizam filtros
estatísticos, semelhantes ao de Kalman, e visam a construção de mapas com escala métrica,
semelhantes aos utilizados em cartografia. Em relação ao aparato sensorial, os sensores mais
comuns são do tipo range finder, ou seja, sensores que permitem, de modo direto ou indireto,
captar as relações de distância métrica de um determinado ambiente. Exemplos de sensores
desta natureza são: Lidares, Sonares, Radares. Este tipo de abordagem resulta, no geral, em
um aparato sensorial caro e pesado, que necessita de um alto poder de processamento de dados,
alto consumo de energia e de uma modelagem matemática complexa e específica para cada tipo
de agente móvel. É uma abordagem, do ponto de vista sensorial, não natural, pois a maioria
dos seres vivos não necessita de conhecimento métrico preciso do ambiente que está ao seu
redor para se localizar no ambiente e explorar ambientes desconhecidos. Assim, esta tese propõe
uma abordagem mais natural ao problema de SLAM, utilizando recursos disponíveis a maioria
dos animais, como visão e memorização de relações de vizinhança. Este trabalho realiza uma
revisão bibliográfica dos artigos e projetos científicos dos últimos 20 anos relacionados com
a área de navegação inteligente e robótica e propõe uma nova abordagem para o problema de
SLAM Visual em Espaço de Aparências utilizando apenas visão monocular como estímulo de
entrada e mapas auto-organizáveis dinâmicos especializados. / Implement autonomous robotic agents able to navigate between two positions or explore
unknown environments are old and important problems in areas such as robotics and artificial
intelligence. A prerequisite to support the navigation and autonomous exploration activities
is to provide the robotic agent ability to build maps of the around environment and be able to
identify its position in the map. This is the simultaneous localization and mapping problem
(SLAM) and can be mathematically modeled as a filtering problem. In the last 10 years were
obtained great advances in this area with the development of various approaches to solving this
problem. The most popular approaches use statistical filters, similar to the Kalman, and aim
to build maps with metric scale, similar to those used in cartography. Regarding the sensory
apparatus, the most common sensors type are range finders, it are, directly or indirectly, capture
metric distance and the relationships of a given environment. Examples of sensors of this type
are: Lidar, Sonar, Radar. This approach results, in general, in an expensive and heavy sensory
apparatus, a high-powered data processing, high energy consumption and a complex and specific
mathematical modeling for each type of mobile agent. It also does not appear to be a natural
approach, since most living beings does not require metric knowledge need the ambiance this
around to locate the environment and explore unknown environments. Thus, this thesis aims to
provide a more natural approach to the SLAM problem using available resources most animals,
such as vision and neighborly relations memorization. This thesis conducts a literature review of
articles and scientific projects of the last 20 years related to the field of robotics and intelligent
navigation and proposes a new approach for Visual SLAM problem using only monocular vision
as input stimuli and self-organizing maps dynamic specialize in memorizing states trajectories.
|
66 |
Contribuição a redução de ordem e controle de sistemas discretos multivariaveisMunaro, Celso Jose 27 July 1990 (has links)
Orientador : Celso Pascoli Bottura / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-13T21:50:39Z (GMT). No. of bitstreams: 1
Munaro_CelsoJose_M.pdf: 8111619 bytes, checksum: baafcdb15d647fc25a1308368c6bea61 (MD5)
Previous issue date: 1990 / Resumo: Neste trabalho são pesquisados métodos de agregação modal e separação temporal para derivar modelos de ordem reduzida. Também são pesquisadas técnicas de controle discreto por realimentação de controle discreto por realimentação de estados e de saídas. Propõe-se e utiliza-se a decomposição de Schur para obter algorítimos de redução de ordem e de controle numericamente mais estáveis e eficientes. Exploram-se a obtenção de modelos de ordem reduzida por agregação bem como de controles por realimentação de estados para modelos de via Express. São aplicados os métodos de redução de ordem por separação temporal e de controle por realimentação de saídas a um modelo de sistema de potência / Abstract: In this work methods of aggregation and time-separation to derive reduced oder models are researched. Technics of discrete control by state and output feedback are researched too. The Schur decomposition is proposed and used to obtain numerically more stable and efficient algorithms for oder reduction and control. The obtainment of reduced oder models os different oders by aggegation and state feedback controls for freeway models are exploited. To a power system model oder reduction by time-separation and control by output feedback are made / Mestrado / Mestre em Engenharia Elétrica
|
67 |
Controle adaptativo para processos multivariaveis : aspectos teoricos e simulaçãoCoelho, Antonio Augusto Rodrigues 08 February 1991 (has links)
Orientador : Wagner Caradori do Amaral / Tese (doutorado) - Universidade Estadualde Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-13T23:22:06Z (GMT). No. of bitstreams: 1
Coelho_AntonioAugustoRodrigues_D.pdf: 11452522 bytes, checksum: 9ee5cbdc2f6829c1bb408586e26edf9e (MD5)
Previous issue date: 1991 / Resumo: Neste trabalho os algoritmos de controle adaptativo para sistemas com múltiplas entradas e múltiplas saídas são analisados e discutidos. Inicialmente os preditores da saída do processo para um horizonte de previsão igualou maior que o atraso de transporte, utilizados por estes algoritmos de controle, são desenvolvidos. Demonstra-se que, para as mesmas entradas e perturbações, estes preditores apresentam o mesmo erro de previsão. A seguir, desenvolve-se o controlador auto-ajustável de variância mínima generalizada. Demonstra-se que este controlador, com o procedimento de ajuste "on-line" da matriz de ponderação do sinal de referência, elimina o erro em regime entre a saída e a referência para uma variação degrau. No caso particular onde o processo apresenta o mesmo número de entradas e saidas, matriz de ponderação do controle constante e matriz de ponderação da referência igual a matriz de ponderação da saída, o desempenho do algoritmo de controle proposto é equivalente ao algoritmo desenvolvido por Favier(1982). Posteriorment,e, desenvolve-se o controlador preditivo generalizado. Mostra-se como os parâmet,ros de sintonia deste controlador influenciam os polos do processo em malha fechada. O trabalho inclui resultados práticos da aplicação dos controladores adaptativos em uma coluna de dest,ilação binária de alta pureza. Dos resultados da aplicação verifica-se que o control e preditivo generalizado apresenta o melhor comportamento entre os algoritmos de controle avaliados, isto é, menor sobre elevação e menor tempo de estabilização / Abstract: Adaptive control algorithms for multi-input multi-output are presented. Initially. output predictors for a prediction horizon igual to or greater than the time delay of the process to be controlled by those control algorithms are reviewed. It is shown that for the same inputs and disturbances, the predictions obtained have the same prediction error. A self-tuning controller based on the generalized minimum variance strategy is developed. To obtain zero steady-state error between the output and the reference signal. for a step change, an on-line method for adjusting the reterence weighting matrix is proposed. In the case of systems with the same number out inputs and outputs, constant control weighting matrix and reference weighting matrix igual to the output weighting matrix the performance of the control algoritm proposed is similar to the Favier . s aIgor ithm. The generalized predictive controller is then developed. It is also shown how the tuning parameters affect the closed-loop poles. Application of those adaptive control algorithms in a high-purity binary distillation column is included. Simulation results show that the generalized predicive controller presents a better performance when compared to others control algori thms, with less overshoot and less settling time / Doutorado / Automação / Doutor em Engenharia Elétrica
|
68 |
Modelo adaptativo para reconhecimento de fala com reconstrução de características ausentesVIANA, Hesdras Oliveira 08 May 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-09-20T21:43:52Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Hesdras Oliveira Viana.pdf: 1744733 bytes, checksum: f9ca799bcf9840f9a599aab80efb34ca (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-09-21T17:21:24Z (GMT) No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Hesdras Oliveira Viana.pdf: 1744733 bytes, checksum: f9ca799bcf9840f9a599aab80efb34ca (MD5) / Made available in DSpace on 2018-09-21T17:21:24Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Hesdras Oliveira Viana.pdf: 1744733 bytes, checksum: f9ca799bcf9840f9a599aab80efb34ca (MD5)
Previous issue date: 2017-05-08 / A presença de diferentes tipos e intensidades de ruídos nos sinais da fala, têm sido um desafio para definir um modelo para o reconhecimento automático da fala. Neste sentido, estuda-se a “reconstrução de características ausentes”, que é um método de compensação, cujo objetivo é melhorar a robustez dos algoritmos de reconhecimento da fala em relação aos ruídos. Um modelo convencional para reconstrução de características ausentes utiliza características acústicas e métodos estatísticos para melhorar o reconhecimento da fala. No entanto, para este modelo, a taxa de acerto diminui quando o ruído presente no sinal é diferente do que foi utilizado no treinamento. Neste trabalho, um modelo adaptativo para reconhecimento da fala com reconstrução de características ausentes foi proposto. Para isso, foi utilizada uma nova abordagem para identificar as características articulatórias, através do pitch e do Mapa Auto-Organizável, e uma rede neural com topologia variante no tempo (LARFSOM) para reconstruir as características ausentes. O objetivo desse modelo é reconhecer a fala em sistemas online (tempo real) e offline que possam se modificar automaticamente sempre que for necessário. Assim, espera-se que o modelo seja independente de locutor. Para avaliar o modelo proposto, utilizamos as bases TIMIT e Aurora 2. Como resultados, foram obtidas uma taxa de erro médio de reconhecimento da fala de 6,96% para a base TIMIT e 4,46% para a base Aurora 2. Os experimentos realizados mostram que, mesmo sem utilizar um conhecimento prévio do sinal (oráculo), o modelo apresentou estabilidade (em relação a taxa de erro médio) quando existe presença ou ausência de ruído no sinal, bem como, na existência de locutores com diferentes gêneros e sotaques pronunciando frases com diferentes tamanhos. / The presence of different background noise in speech signal, has been a challenging to define a model for automatic speech recognition system. Missing-feature reconstruction is a compensation method to improve the noise robustness. A conventional models for missing-feature reconstruction is based on acoustic feature and statistical method to improve speech recognition. Nevertheless, these models degrade performance when different background noise is present in the signal. In this work, we propose a new adaptive speech model for speech recognition with missing-feature reconstruction, using unsupervised learning, for online (real-time) and offline systems, that automatically modifies as appropriate. For this, a new approach using Self-Organizing Map (SOM), to identify and extract articulatory features, and neural network with time-varying structure (LARFSOM), were used. In this work, an adaptive model for speech recognition with missing-feature reconstruction was proposed. For this, a new approach to identify the articulatory features, through the pitch and the Self-Organizing Map (SOM), and a neural network with time-varying structure (LARFSOM) for missing-feature reconstruction, were used. The purpose of this model is speech recognition in online (real-time) and offline systems, that automatically modifies as appropriate. Thus, it is expected that the model is robust for speaker variation. For evaluation purposes, Aurora 2 and TIMIT databases were used. As a result, we obtain a Word Error Rate average of 4.46% on Aurora 2 and 6.96% on TIMIT. Experimental results indicate that, even without prior knowledge (oracle) of the signal, the model is robust to noise, speaker variation, type of speech, and speech size.
|
69 |
Controle de trajetorias continuas por seccionamento em sub-trajetorias usando inteligencia artificial num robo multi-tarefasMadrid, Marconi Kolm, 1962- 28 April 1994 (has links)
Orientador: Alvaro Geraldo Badan Palhares / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-19T08:09:45Z (GMT). No. of bitstreams: 1
Madrid_MarconiKolm_D.pdf: 18861386 bytes, checksum: d4434157e0bde8939db9aae9036e3a2a (MD5)
Previous issue date: 1994 / Resumo: Este trabalho de tese propõe uma técnica para a realização do planejamento e o controle de trajetórias espaciais de robôs através de uma abordagem que utiliza conhecimentos da inteligência artificial, como alternativa para realizar este tipo de tarefa, em tempo-real, mesmo que se utilizem sistemas eletrônicos de controle que não tenham grande capacidade computacional. Esta é uma técnica numérica que não exije o conhecimento da modelagem cinemática inversa do robô, daí a sua enorme vantagem computacional perante as técnicas clássicas de abordagem do problema, e até onde nossas
pesquisas ch~garam, ela demostrou-se muito eficiente para o rastreamento veloz e preciso, tanto de trajetórias simples como de trajetórias definidas por equações de grande complexidade matemática. Além de intrinsicamente dar grande capacidade de recuperação do rastreamento frente à eventuais perturbações que o robô possa sofrer em sua estrutura física durante os movimentos. O estudo de tal assunto situa-se na área da Programação Heurística da Inteligência Artificial, e mais especificamente, ela utiliza algoritmos de busca que visam encontrar pelo menos uma solução de configuração estrutural do robô para rastrear trajetórias completas definidas dentro do seu volume de trabalho. Criamos uma filosofia para o gerenciamento da operação de robôs através de um modelo de interface homem-máquina traduzi da para um pacote de software apto para ser processado por um hardware eletrônico de dois níveis hierárquicos, que permite a realização do planejamento, da simulação, da execução, e da análise do desempenho dos robôs na execução de tarefas. Situamos o problema do planejamento e controle de trajetórias através de comentários sobre os assuntos envolvidos por esta área da robótica, baseados em pesquisas bibliográficas atualizadas, e através de nossa perspectiva para propor soluções.
Apresentamos resultados de simulações que demonstram as potencialidades da técnica proposta, através da utilização do pacote de software criado, com comentários conclusivos baseados na utilização das características de um robô cuja construção evoluiu juntamente com este trabalho. E apresentamos novas perspectivas futuras de trabalho nesta linha
de pesquisa / Abstract: Not informed. / Doutorado / Doutor em Engenharia Elétrica
|
70 |
Uma abordagem multidimensional para OLAM como ferramenta de avaliação de desempenho de modelos de classificação bináriaSANTOS FILHO, Mailson Melo dos 09 September 2015 (has links)
Submitted by Fernanda Rodrigues de Lima (fernanda.rlima@ufpe.br) on 2018-10-08T20:40:03Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
DISSERTAÇÃO Mailson Melo dos Santos Filho.pdf: 1618446 bytes, checksum: 2d7170f25c5f5001042914b1ce30dde9 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-11-22T17:16:18Z (GMT) No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
DISSERTAÇÃO Mailson Melo dos Santos Filho.pdf: 1618446 bytes, checksum: 2d7170f25c5f5001042914b1ce30dde9 (MD5) / Made available in DSpace on 2018-11-22T17:16:18Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
DISSERTAÇÃO Mailson Melo dos Santos Filho.pdf: 1618446 bytes, checksum: 2d7170f25c5f5001042914b1ce30dde9 (MD5)
Previous issue date: 2015-09-09 / CNPq / Os sistemas de suporte à decisão são utilizados para auxiliar os gestores na tomada de decisão, inclusive, de alto nível. Eles implementam todas as etapas do processo de extração de conhecimento em banco de dados (KDD - Knowledge-Discovery in Databases) e o ambiente de consultas a dados e conhecimento, incluindo simulação de cenários sobre os indicadores do negócio (KPIs - Key Performance Indicators). As ferramentas OLAP (Online Analytical Processing) oferecem um ambiente para consultas que permite a análise de um grande volume de dados, por meio de cruzamento entre dados, apresentação de perspectiva de processamento multinível (hierarquias) para os dados e funções de perfuração e fatiamento dos conjuntos entre outras. Estas ferramentas têm interface amigável com o decisor humano apresentando gráficos, modelos e sumarizações, mas são limitadas a operações diretas e à validação de conhecimento humano sobre os dados do negócio. No processo de KDD, a mineração de dados usa inteligência artificial e estatística para extração de conhecimento dos dados e para apoiar a decisão humana em atividades de inferência e previsão. OLAM (Online Analytical Mining) é um conceito equivalente ao OLAP para navegação sobre o conhecimento extraído e sobre o efeito da sua aplicação na tomada de decisões sobre o desempenho do negócio tanto nos indicadores técnicos de inteligência artificial quanto nos KPIs. No entanto, não foi encontrado ferramental genérico que permita realizar de forma sistemática o OLAM. A proposta desse trabalho é mostrar que algumas operações fundamentais de OLAM podem ser implementadas por meio de ferramentas OLAP, mediante amostragem de dados com independência estatística submetidos à mineração e a certas transformações de dados. O trabalho é validado por meio de um problema de decisão binária, no qual a resposta do algoritmo de mineração de dados (escore de propensão) sobre a massa de dados estatisticamente independente passa a ser uma medida no data warehouse. O trabalho demonstra que essa abordagem permite a geração de cubos associado à classe-alvo e aos KPIs para avaliação de desempenho, tornando a ferramenta OLAP capaz de realizar OLAM. Ao final, o trabalho analisa as principais limitações das ferramentas OLAP que as impede de implementar OLAM com mais flexibilidade e as implicações conceituais e operacionais para serem superadas. / Decision support systems are used to assist managers inclusive in making high-level decisions. They implement all stages of knowledge extraction process in database (KDD - Knowledge Discovery in Databases) and the environment queries to data and knowledge, including simulation scenarios on the business indicators (KPIs - Key Performance Indicators). The OLAP (Online Analytical Processing) provides an environment for queries that allows analysis of large volumes of data through data merging, multilevel processing perspective presentation (hierarchies) for data and drilling functions and slicing of among other sets of functions. These tools have user-friendly interface with the human decision maker presenting graphics, models and summarization, but are limited to direct operations and human knowledge validation on business data. In the process of KDD, data mining uses artificial intelligence and statistical techniques for knowledge extraction in inference and forecasting activities for supporting human decision. OLAM (Online Analytical Mining) is a concept equivalent to OLAP to navigation on the extracted knowledge and the effect of applying them in making decisions about business performance both in technical indicators artificial intelligence as the KPIs. However, it was not found generic tools that allows perform systematically the OLAM. The purpose of this paper is to show that some fundamental operations of OLAM can be implemented by means of OLAP tools, sampled data with statistical independence subject to certain mining and data transformations. The job is validated by means of a binary decision problem, in which the response data mining algorithm (propensity score) statistically independent data about the mass becomes a measure in the data warehouse. The work demonstrates that this approach allows the generation of cubes associated with class-blalvo and KPIs for performance evaluation, making OLAP tool capable of performing OLAM. Finally, the paper analyzes the main limitations of OLAP tools that prevents them from implementing OLAM with more flexibility and the conceptual and operational implications for trying to overcome.
|
Page generated in 0.406 seconds