311 |
Desenvolvimento de um protótipo de aplicações interativas para TV Digital no Middleware Ginga com objetos NCL /Antunes, Marco Aurelio Migliorini. January 2015 (has links)
Orientador: João Pedro Albino / Banca: Humberto Ferasoli Filho / Banca: Myrian Lucia Ruiz / Resumo: A TV Digital Interativa (TVDi) apresenta a interatividade como um instrumento facilitador no processo de interação onde, através dela, será possível uma comunicação direta com o telespectador. Assim, o presente trabalho procura mostrar os fundamentos e características essenciais da TVDi como instrumento de interatividade local, analisar a sua implementação no Brasil e estudar as formas de interatividade. Para isso, pretende-se demonstrar o desenvolvimento de um protótipo de aplicação para a TVDi no middleware Ginga com interatividade local e objetos NCL, que visa inserir interatividade num comercial televisivo, com o objetivo de oferecer uma ferramenta de apoio e informação complementar ao telespectador. Acredita-se que interatividade com a TVDi pode trazer diversas inovações à área publicitária nos próximos anos, melhorando o contato entre empresas e clientes, podendo até tornar-se uma tendência na visualização e experimentação de produtos. O desenvolvimento deste protótipo, visa estudar a elaboração de modelos de interatividade local de fácil utilização e compreensão de dados, provendo novas possibilidades para produtos televisivos. Para tal, foram necessárias algumas alterações durante a criação do projeto para que a utilização fosse facilitada ao usuário, bem como a disposição das informações na tela oferecessem o menor prejuízo ao comercial original, já que objetiva agregar informações ao telespectador / Abstract: The Digital Interactive TV (DTV) presents interactivity as a facilitator in the process of interaction where, through it, direct communication with their viewer is possible. Thus, this paper seeks to show the essential foundations and features of the iDTV as local interactivity instrument, analyze its implementation in Brazil and study the forms of interactivity. For this, we intend to demonstrate the development of a prototype application for iDTV middleware Ginga in place with interactivity and NCL objects, which seeks to insert interactivity in a television commercial, with the goal of providing a support tool and additional information to the viewer. It is believed that interaction with iDTV can bring many innovations to the advertising area in the coming years, improving the contact between companies and customers, and may even become a trend in viewing and testing of products. The development of this prototype aims to study the development of the local interactive models easy to use and understand data, providing new possibilities for TV products. To this end, it took some changes while creating the project so that use was facilitated by user as well as the provision of information on the screen to ofter the least harm to the original commercial, as it aims to add information to the viewer / Mestre
|
312 |
Noise detection in classification problems / Detecção de ruídos em problemas de classificaçãoLuís Paulo Faina Garcia 22 June 2016 (has links)
In many areas of knowledge, considerable amounts of time have been spent to comprehend and to treat noisy data, one of the most common problems regarding information collection, transmission and storage. These noisy data, when used for training Machine Learning techniques, lead to increased complexity in the induced classification models, higher processing time and reduced predictive power. Treating them in a preprocessing step may improve the data quality and the comprehension of the problem. This Thesis aims to investigate the use of data complexity measures capable to characterize the presence of noise in datasets, to develop new efficient noise ltering techniques in such subsamples of problems of noise identification compared to the state of art and to recommend the most properly suited techniques or ensembles for a specific dataset by meta-learning. Both artificial and real problem datasets were used in the experimental part of this work. They were obtained from public data repositories and a cooperation project. The evaluation was made through the analysis of the effect of artificially generated noise and also by the feedback of a domain expert. The reported experimental results show that the investigated proposals are promising. / Em diversas áreas do conhecimento, um tempo considerável tem sido gasto na compreensão e tratamento de dados ruidosos. Trata-se de uma ocorrência comum quando nos referimos a coleta, a transmissão e ao armazenamento de informações. Esses dados ruidosos, quando utilizados na indução de classificadores por técnicas de Aprendizado de Maquina, aumentam a complexidade da hipótese obtida, bem como o aumento do seu tempo de indução, além de prejudicar sua acurácia preditiva. Trata-los na etapa de pré-processamento pode significar uma melhora da qualidade dos dados e um aumento na compreensão do problema estudado. Esta Tese investiga medidas de complexidade capazes de caracterizar a presença de ruídos em um conjunto de dados, desenvolve novos filtros que sejam mais eficientes em determinados nichos do problema de detecção e remoção de ruídos que as técnicas consideradas estado da arte e recomenda as mais apropriadas técnicas ou comitês de técnicas para um determinado conjunto de dados por meio de meta-aprendizado. As bases de dados utilizadas nos experimentos realizados neste trabalho são tanto artificiais quanto reais, coletadas de repositórios públicos e fornecidas por projetos de cooperação. A avaliação consiste tanto da adição de ruídos artificiais quanto da validação de um especialista. Experimentos realizados mostraram o potencial das propostas investigadas.
|
313 |
A wikification prediction model based on the combination of latent, dyadic and monadic features / Um modelo de previsão para Wikification baseado na combinação de atributos latentes, diádicos e monádicosRaoni Simões Ferreira 25 April 2016 (has links)
Most of the reference information, nowadays, is found in repositories of documents semantically linked, created in a collaborative fashion and freely available in the web. Among the many problems faced by content providers in these repositories, one of the most important is Wikification, that is, the placement of links in the articles. These links have to support user navigation and should provide a deeper semantic interpretation of the content. Wikification is a hard task since the continuous growth of such repositories makes it increasingly demanding for editors. As consequence, they have their focus shifted from content creation, which should be their main objective. This has motivated the design of automatic Wikification tools which, traditionally, address two distinct problems: (a) how to identify which words (or phrases) in an article should be selected as anchors and (b) how to determine to which article the link, associated with the anchor, should point. Most of the methods in literature that address these problems are based on machine learning approaches which attempt to capture, through statistical features, characteristics of the concepts and its associations. Although these strategies handle the repository as a graph of concepts, normally they take limited advantage of the topological structure of this graph, as they describe it by means of human-engineered link statistical features. Despite the effectiveness of these machine learning methods, better models should take full advantage of the information topology if they describe it by means of data-oriented approaches such as matrix factorization. This indeed has been successfully done in other domains, such as movie recommendation. In this work, we fill this gap, proposing a wikification prediction model that combines the strengths of traditional predictors based on statistical features with a latent component which models the concept graph topology by means of matrix factorization. By comparing our model with a state-of-the-art wikification method, using a sample of Wikipedia articles, we obtained a gain up to 13% in F1 metric. We also provide a comprehensive analysis of the model performance showing the importance of the latent predictor component and the attributes derived from the associations between the concepts. The study still includes the analysis of the impact of ambiguous concepts, which allows us to conclude the model is resilient to ambiguity, even though does not include any explicitly disambiguation phase. We finally study the impact of selecting training samples from specific content quality classes, an information that is available in some respositories, such as Wikipedia. We empirically shown that the quality of the training samples impact on precision and overlinking, when comparing training performed using random quality samples versus high quality samples. / Atualmente, informações de referência são disponibilizadas através de repositórios de documentos semanticamente ligados, criados de forma colaborativa e com acesso livre na Web. Entre os muitos problemas enfrentados pelos provedores de conteúdo desses repositórios, destaca-se a Wikification, isto é, a inclusão de links nos artigos desses repositórios. Esses links possibilitam a navegação pelos artigos e permitem ao usuário um aprofundamento semântico do conteúdo. A Wikification é uma tarefa complexa, uma vez que o crescimento contínuo de tais repositórios resulta em um esforço cada vez maior dos editores. Como consequência, eles têm seu foco desviado da criação de conteúdo, que deveria ser o seu principal objetivo. Isso tem motivado o desenvolvimento de ferramentas de Wikification automática que, tradicionalmente, abordam dois problemas distintos: (a) como identificar que palavras (ou frases) em um artigo deveriam ser selecionados como texto de âncora e (b) como determinar para que artigos o link, associado ao texto de âncora, deveria apontar. A maioria dos métodos na literatura que abordam esses problemas usam aprendizado de máquina. Eles tentam capturar, através de atributos estatísticos, características dos conceitos e seus links. Embora essas estratégias tratam o repositório como um grafo de conceitos, normalmente elas pouco exploram a estrutura topológica do grafo, uma vez que se limitam a descrevê-lo por meio de atributos estatísticos dos links, projetados por especialistas humanos. Embora tais métodos sejam eficazes, novos modelos poderiam tirar mais proveito da topologia se a descrevessem por meio de abordagens orientados a dados, tais como a fatoração matricial. De fato, essa abordagem tem sido aplicada com sucesso em outros domínios como recomendação de filmes. Neste trabalho, propomos um modelo de previsão para Wikification que combina a força dos previsores tradicionais baseados em atributos estatísticos, projetados por seres humanos, com um componente de previsão latente, que modela a topologia do grafo de conceitos usando fatoração matricial. Ao comparar nosso modelo com o estado-da-arte em Wikification, usando uma amostra de artigos Wikipédia, observamos um ganho de até 13% em F1. Além disso, fornecemos uma análise detalhada do desempenho do modelo enfatizando a importância do componente de previsão latente e dos atributos derivados dos links entre os conceitos. Também analisamos o impacto de conceitos ambíguos, o que permite concluir que nosso modelo se porta bem mesmo diante de ambiguidade, apesar de não tratar explicitamente este problema. Ainda realizamos um estudo sobre o impacto da seleção das amostras de treino conforme a qualidade dos seus conteúdos, uma informação disponível em alguns repositórios, tais como a Wikipédia. Nós observamos que o treino com documentos de alta qualidade melhora a precisão do método, minimizando o uso de links desnecessários.
|
314 |
Proteção adaptativa anti-ilhamento de geradores síncronos distribuídos / Adaptive anti-islanding protection of distributed synchronous generatorsSérgio Oliveira Pitombo 02 July 2010 (has links)
A expansão de geração distribuída nos sistemas de distribuição e de subtransmissão de energia elétrica em todo o mundo tem sua origem na reestruturação do setor elétrico, na necessidade de aproveitamento de diferentes fontes primárias de energia, nos avanços tecnológicos, nos incentivos governamentais e na maior conscientização sobre conservação ambiental. Com tal expansão, surge a necessidade de avaliar os impactos dessa forma de geração na operação das redes elétricas, principalmente das redes de distribuição, as quais foram inicialmente projetadas para operar considerando apenas a subestação de distribuição como fonte de energia. Entre esses impactos, um importante item a co0nsiderar é a detecção de ilhamento. Tal ocorrência é altamente indesejada pelas concessionárias distribuidoras de energia elétrica as quais estabelecem que os proprietários de geradores distribuídos devem instalar um sistema de proteção capaz de detectar ilhamentos. Dentre os métodos empregados para detecção de ilhamento os mais comuns para este propósito são os relés baseados em medidas de freqüência (relé de sub/sobrefreqüência, relé de taxa de variação de freqüência). Tais dispositivos são fortemente dependentes do desbalanço de potência ativa na rede ilhada e podem falhar caso esses desbalanços sejam pequenos. Ressalta-se que o comportamento variável da carga em sistemas de distribuição e a possibilidade de formação de diversas ilhas podem originar diferentes níveis de desbalanço de potência ativa e reativa. Conseqüentemente, pode haver vários cenários de operação em que os relés previamente citados falharão em detectar ilhamento. Neste contexto, esta dissertação de Mestrado propõe metodologias de proteção adaptativa anti-ilhamento aplicadas a relés baseados em medidas de freqüência, que visem a proteção do sistema elétrico e do gerador distribuído na maioria das condições de desbalanço de potência ativa e reativa que possam ocorrer na rede elétrica. Os geradores distribuídos a serem analisados são do tipo síncrono devido a sua grande utilização em pequenas centrais hidroelétricas e térmicas. São propostas duas metodologias: uma baseada em simulações dinâmicas e outra baseada em fórmulas analíticas. Os resultados obtidos foram satisfatórios para vários cenários de operação de um gerador distribuído conectado em uma rede de distribuição. Além disso, as vantagens e limitações de cada método são apresentadas e discutidas. / Distributed generation expansion worldwide has been caused by the de-regulamentation of the electricity sector, by the necessity to explore different energy resources, by technological advances, by government incentives and by environmental concerns associated with energy production. Such expansion brings the necessity to assess he impacts caused by distributed generators on the distribution systems, which were designed to operate considering the utility substation as the only power source. Among these impacts, on that deserves major attention is islanding detection. Utilities recommend that distributed generators\' owners provide efficient anti-islanding protection installed at the point of common coupling between the generator and the grid. Common anti-islanding protection schemes are composed by frequency-based relays (standard frequency relay and/or rate of change of frequency relay). These devices are strongly dependent on the active power imbalance in the islanded system and they can fail to detect an islanding condition if such power imbalance is small. Therefore, it is worth pointing that the variable power consumption of the distribution system\'s loads and the possibility of creating several energized islands can originate different power imbalance levels. Consequently, there may be various operating scenarios in which the frequency-based relays will fail to detect islanding. In this context, this work proposes adaptive methods to adjust frequency-based relays in order to provide effective anti-islanding protection considering different power imbalance levels. Synchronous generators are studied, since their wide application in distributed generation plants, such as small hydro and thermal power plants. Two methods are proposed: one is a simulation-based method and the other is based on analytical formulas. Both methods presented good results considering all the operating scenarios tested with a distributed generator connected to a distribution system. Furthermore, their advantages and limitations are presented and discussed.
|
315 |
Métodos para seleção de palavras-chave em sistemas de publicidade contextualBerlt, Klessius Renato 19 December 2012 (has links)
Submitted by Geyciane Santos (geyciane_thamires@hotmail.com) on 2015-06-22T14:20:17Z
No. of bitstreams: 1
Tese - Klessius Renato Berlt.pdf: 972646 bytes, checksum: c127b522da4fc3719f61df80976a23ad (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2015-06-24T13:07:06Z (GMT) No. of bitstreams: 1
Tese - Klessius Renato Berlt.pdf: 972646 bytes, checksum: c127b522da4fc3719f61df80976a23ad (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2015-06-24T13:07:02Z (GMT) No. of bitstreams: 1
Tese - Klessius Renato Berlt.pdf: 972646 bytes, checksum: c127b522da4fc3719f61df80976a23ad (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2015-06-24T14:44:22Z (GMT) No. of bitstreams: 1
Tese - Klessius Renato Berlt.pdf: 972646 bytes, checksum: c127b522da4fc3719f61df80976a23ad (MD5) / Made available in DSpace on 2015-06-24T14:44:22Z (GMT). No. of bitstreams: 1
Tese - Klessius Renato Berlt.pdf: 972646 bytes, checksum: c127b522da4fc3719f61df80976a23ad (MD5)
Previous issue date: 2012-12-19 / CNPQ - Conselho Nacional de Desenvolvimento Científico e Tecnológico / In this work we address the problem of selecting keywords for contextual advertising
systems in two di erent scenarios: web pages and short texts. We deal with the problem of selecting keywords from web pages using machine learning. While traditional machine learning approaches usually have the goal of selecting keywords considered as good by humans. The new machine learning strategy proposed drives the selection by the expected impact of the keyword in the nal quality of the ad placement system, which we name here as ad collection aware keyword selection (also referred in this work as ACAKS). This new approach relies on the judgement of the users about the ads each keyword can retrieve. Although this strategy requires a higher e ort to build the training set than previous approaches, we believe the gain obtained in recall is worth enough to make the ad collection aware approach a better choice. In experiments we performed with an ad collection and considering features proposed in a previous work, we found that the new ad collection aware approach led to a gain of 62% in recall over the baseline without dropping the precision values. Besides the new alternative to select keywords, we also study the use of features extracted from the ad collection in the task of selecting keywords.
We also present three new methods to extract keywords from web pages which require
no learning process and use Wikipedia as an external source of information to support the
keyword selection. The information used from Wikipedia includes the titles of articles,
co-occurrence of keywords and categories associated with each Wikipedia de nition.
Experimental results show that our methods are quite competitive solutions for the
task of selecting good keywords to represent target web pages, albeit being simple, e ective and time e cient. Besides selecting keywords from web pages we also study methods for selecting keywords from short texts. Short texts have became a very popular way users adopt for publishing content on the web. Every day, millions of users post their thoughts, needs and feelings on the Web through systems, such as social networks like Facebook and Twitter, or spaces for comments on news web sites. Much of these systems' revenue is from contextual advertising systems, thus selecting keywords in this new scenario raise as a new challenge. We propose and study a novel family of methods which uses the connectivity information present on Wikipedia to discover the most related concepts on each short textual unit. We also used the proposed methods as a new set of features on a Machine Learning Framework to boost the quality of the results obtained. We show that this approach presents a good performance and outperforms the best baselines by more than 35%. Finally, we apply the ACAKS approach on short texts and it yielded good results, outperforming a traditional machine learning approach by more than 80% in precision and 80% in recall. / Neste trabalho, nós estudamos o problema de seleção de palavras-chave para sistemas de publicidade contextualizada em dois diferentes cenários: páginas web e textos curtos. Nós lidamos com o problema de seleção de palavras-chave em páginas web utilizando aprendizado de máquina. Abordagens tradicionais baseadas em aprendizado de máquina geralmente possuem como objetivo selecionar palavras-chave consideradas como relevantes por um conjunto de usuários. Entretanto, a nova estratégia proposta nesse trabalho objetiva selecionar palavras-chave que gerem o melhor resultado na qualidade final do
sistema de seleção de publicidade. A esta estratégia, nós demos o nome de ad collection aware keyword selection (também chamada de ACAKS). Esta nova abordagem baseia-se no julgamento dos usuário em relação às propagandas com as quais cada palavra-chave _e relacionada pelo sistema de seleção de publicidade. Apesar desta estratégia demandar um alto esforço para rotular o conjunto de treino em relação _as abordagens tradicionais, nós acreditamos que o ganho obtido em revocação é suficiente para fazer com que o ACAKS seja uma melhor alternativa.
Nos experimentos que nós realizamos com uma coleção de anúncios e considerando as características propostas em um trabalho anterior, nós descobrimos que a nova abordagem proposta levou a um ganho de 62% em revocação em relação ao baseline utilizado sem perder precisão. Além desta nova alternativa para selecionar palavras-chave, nós estudamos ainda a utilização do conjunto de características estraída da coleção de anúncios para selecionar palavras-chave. Nós também apresentamos três novos métodos para extrair palavras chave de páginas web que não necessitam de treino e usam a Wikipédia como fonte externa de informação. A informação usada da Wikipédia inclui os títulos dos artigos, co ocorrência de palavras chave e categorias associadas com cada artigo da Wikipédia.
Resultados experimentais mostram que nossos métodos são soluções competitivas para selecionar boas palavras-chave que representem bem o conteúdo de páginas web, enquanto se mantém simples eficientes.
Além da seleção de palavras-chave de paginas web nós também estudamos métodos para selecionar palavras-chave em textos curtos. Textos curtos tem se tornado uma maneira muito popular que os usuários encontraram para publicar conteúdo na web.
Todos os dias, milhões de usuários postam seus pensamentos, necessidades e sentimentos na web através de sistemas de redes sociais, como Facebook e Twitter, ou espaços para comentários em sites de notícias. Grande parte da renda destes sistemas _e proveniente de publicidade contextualizada, desta forma selecionar palavras-chave neste novo cenário surge como um novo desafio. Nós propomos e estudamos uma nova família de métodos que utiliza a informação de conectividade presente na Wikipédia para descobrir os conceitos mais relacionados em cada texto curto. Utilizamos também os métodos propostos como um novo conjunto de características em um Framework de aprendizado de máquina para melhorar a qualidade dos resultados obtidos. Nós mostramos que esta abordagem apresenta um bom desempenho e supera o melhor baseline em cerca de 35%. Finalmente, nós aplicamos a abordagem ACAKS em textos curtos e ele gerou bons resultados, superando uma abordagem tradicional baseada em aprendizado de máquina em cerca de 80% tanto em termos de precisão quanto revocação.
|
316 |
Anotações de Joaquim Reis: registro fotográfico ou realidade construída? / Joaquim Reis, photografic register or constructed realityCaio Christian Reisewitz 24 April 2009 (has links)
Análise da obra de Joaquim Reis a partir de registros fotograficos e fotomomtagens / Analisis of the work from Joaquim Reis, photographer and artist
|
317 |
Des astres com: a máquina de escrever, a guilhotina, os fósforos / -Carina Maria Weidle 18 June 2014 (has links)
Des Astres é um conjunto de investigações artísticas ancorado nas imagens de três adventos tecnológicos: a máquina de escrever, a guilhotina e os fósforos. Os trabalhos procuram abranger, de forma rizomática, aspectos da imprecisão do processo, arruinamento e dúvidas sobre a consistência da matéria. Des Astres é organizado sob a forma de um iceberg, uma ruína flutuante onde encontram-se nostalgicamente estes antigos objetos e que organiza e desencadeia elaborações surrealistas de justaposição de realidades distantes. / Des Astres is a set of artistic investigations anchored in images of three technological advents: the typewriter, the guillotine and the safety matches. The art works seek to address, in a rhizomatic way, the aspects of the imprecision of the process, ruination and doubts about the consistency of matter. Des Astres is organized under the form of an iceberg, as a floating ruin where nostalgically these ancient objects are , and triggers elaborations of surrealist juxtaposition of distant realities.
|
318 |
Mapeamento e avaliação do consumo de energia na fase de uso de uma máquina-ferramenta visando a sustentabilidade / Mapping and evaluation of energy consumption during the useable phase of a machine tool aiming at sustainabilityMary Laura Delgado Montes 25 September 2012 (has links)
Como seguir com o crescimento da indústria, da economia e do consumo de energia de forma sustentável? No setor manufatureiro as máquinas-ferramentas são peças-chave nos processos de fabricação. Como saber se uma bomba, um motor ou outro elemento acessório é adequado para uma máquina-ferramenta específica? Normalmente, fabricantes se baseiam em sugestões dos fornecedores para selecionar tais elementos, o que resulta em um projeto ajustado pela experiência e por estimativas subjetivas, às vezes superestimando as dimensões do projeto por segurança. O objetivo deste trabalho é monitorar o consumo da energia elétrica durante a fase de uso da máquina-ferramenta, com o fim de explicar a demanda de energia em cada uma de suas tarefas, sugerindo diretrizes para o aperfeiçoamento do projeto desta nos seus componentes críticos. Esta dissertação apresenta uma cuidadosa revisão de livros e pesquisas anteriores, os quais direcionaram a etapa experimental. Assim, elegeu-se trabalhar em um centro de usinagem, o qual foi monitorado por um analisador de qualidade de energia. A metodologia experimental iniciou-se com a avaliação da eficiência energética da máquina-ferramenta em termos de fator de potência, a fim de trabalhar dentro dos parâmetros da legislação brasileira, e finalizou-se com o monitoramento do consumo de energia elétrica. Tal monitoramento foi feito em três cenários de usinagem: em vazio, a seco e com fluido, utilizando um mesmo plano de trabalho em todas as situações. Conclui-se que prognósticos de consumo de energia são possíveis se tempos e constantes do modelo apresentado são conhecidos para uma máquina-ferramenta específica, parâmetros que são influenciados pela experiência do operador. A medição do consumo de energia da máquina em vazio e com remoção permitiram conhecer o consumo de energia pela usinagem propriamente dita. Observou-se também que apenas a máquina-ferramenta consome 59% da energia total quando está usinando; as mudanças de velocidade não afetam o consumo de energia diferentemente da taxa de remoção de material; elementos auxiliares à usinagem não deterioram a eficiência energética da máquina, embora possam representar uma boa taxa percentual de gasto no consumo total; e a troca de ferramentas é mais eficiente na usinagem do que em vazio. / How to follow the growth of industry, economy and energy consumption in a sustainable way? In the manufacturing sector, the machine tools are key-parts in the processes. How can we know if a pump, an electric motor or another accessory element is adequate to a specific machine tool? Usually, the manufacturer relies on suggestions from suppliers to select those elements, resulting in a project adjusted by experience and subjective estimations, sometimes overestimating for security. The objective of the present work is to monitor the consumption of electric power during the useable phase, in order to map the energy demand in each of its tasks, thus suggesting guidelines for the improvement of the project to its critical components. This dissertation presents a thorough review of books and previous research, which has guided the experimental phase. Accordingly, it was chosen to work in a machining center, which was monitored by a power quality analyzer. The experimental methodology began with the evaluation of the energetic efficiency of the machine tool in terms of power factor, in order to work within the parameters of the Brazilian legislation, and ended up with electric energy consumption monitoring. Such monitoring was made in three machining scenarios: cutting air, cutting dry and with coolant, sing the same CNC workplan in all situations. The conclusions include that forecasting of energy consumption is possible if time and constants of the proposed model are known for a specific machine tool, parameters which are influenced by the experience gathered by the operator. The measurement of energy consumption during air cutting and removing material allowed to know the energy consumption of the machining operation itself. It was also observed that: the machine alone consumes 59% of the total energy when in operation; the energy consumption is not affected by speed changes, but by the material removal rate; auxiliary elements to the machining do not negatively affects the energy efficiency of the machine, although may represent considerable expenditure in total consumption; and, the exchange of tools is more efficient when removing material, than when air machining.
|
319 |
Classificador para auxílio ao diagnóstico de TEA baseado em um modelo computacional de atenção visual / Classifier to aid ASD diagnosis based on a computational model of visual attentionJéssica dos Santos de Oliveira 07 December 2017 (has links)
O Transtorno do Espectro do Autismo (TEA) é um transtorno do neurodesenvolvimento que afeta principalmente as habilidades de interação social dos indivíduos. Para auxiliar no diagnóstico, estudos têm utilizado técnicas de rastreamento de olhar, mas, em geral, os sinais são interpretados manualmente ou a automatização considera somente alguns dos indícios que podem definir a presença do TEA em indivíduos. O presente projeto visa a preencher esta lacuna, propondo utilizar os dados do rastreamento do olhar para o desenvolvimento de um modelo de atenção visual para TEA e para Desenvolvimento Típico (DT). A partir desses modelos, é construído um classificador que visará auxiliar no diagnóstico do TEA. Para alcançar o objetivo proposto, foram realizadas as seguintes etapas: revisão bibliográfica, aprovação do comitê de ética, definição do modelo de atenção visual, implementação do modelo, análise e publicação dos resultados. Os métodos foram testados com técnica de validação cruzada e construção de curva ROC. Os resultados mostraram que o modelo de atenção visual desenvolvido é capaz de prever a atenção visual do grupo TEA e do grupo DT, e que o método para classificação desenvolvido consegue classificar um indivíduo com TEA com média de 90\\% de precisão e 83\\% de especificidade, atingindo no melhor resultado 96\\% de precisão e 93\\% de especificidade. Espera-se que o método possa ser utilizado por profissionais da área de saúde e que sirva de base também para outras aplicações / Autism Spectrum Disorder (ASD) is a neurodevelopmental disorder that affects mainly social interaction skills of individuals. In order to aid the diagnosis, studies have used eye-tracking techniques, but, in general, the signals are interpreted manually or the automation considers only some of the evidence that may define the presence of the ASD in individuals considering eye-tracking signals. This project aims at contributing to this challenge, processing data provided from eye-tracking based on a visual attention model for ASD and Typical Development (TD). From this model its build a classifier that will aid ASD diagnosis. To achieve the proposed goal, the following steps were performed: literature review, approval of the ethics committee, definition of a visual attention model, model implementation, analysis and publication of results. The methods were tested with cross-validation technique and ROC curve construction. The results showed that the developed model is able to predict visual attention of the TEA group and the DT group, and that the developed training method can classify an individual with TEA with an average of 90\\% of precision and 83\\% of specificity. In the best result was achive 96\\% of accuracy and 93\\% of specificity. It is expected that the method can be used by health professionals and also serve as a basis for other applications
|
320 |
Simulação de inserção de agulha para treinamento de procedimento de anestesia odontológica. / Needling insertion simulation for dental anesthesia procedure training.Cléber Gimenez Correa 14 April 2015 (has links)
A Realidade Virtual tem apresentado importantes contribuições para a área de saúde, principalmente no domínio de treinamento, o qual visa a aquisição de conhecimento e habilidades na realização de determinados procedimentos. Um procedimento ainda não simulado consiste na aplicação de anestesia local para tratamento odontológico, especificamente para bloqueio do nervo alveolar inferior. A execução de tal procedimento apresenta uma alta taxa de insucesso, elevando os riscos aos pacientes e a insegurança dos aprendizes. Dessa forma, e considerando a complexidade para a criação de uma simulação realista o presente trabalho visou ao desenvolvimento de um protótipo de sistema computacional baseado em Realidade Virtual, para simulação de parte do procedimento de anestesia (tarefa de inserção de agulha), enfatizando a etapa do procedimento de aplicação da anestesia que envolve a correta manipulação e inserção da agulha. Ou em termos de Realidade Virtual, a parte que envolve a interação humano-computador, contemplando aspectos visuais e hápticos. A abordagem háptica e uma parte importante em sistemas computacionais desse tipo e o realismo e considerado um dos principais objetivos no desenvolvimento de sistemas dessa natureza. Adicionalmente, uma analise da interação humano-computador foi realizada, indicando que embora diversas limitações tecnológicas ainda existam, o sistema pode ser considerado uma ferramenta auxiliar de treinamento para a tarefa, complementando os métodos tradicionais. Também, uma métrica objetiva perceptual para avaliação da interação háptica foi formulada, visto que na literatura as formas subjetivas dominam amplamente os testes e uma métrica encontrada na literatura falha diante de determinadas situações, especialmente aquelas relacionadas com a inserção de agulha, etapa do procedimento de anestesia simulada no presente estudo. / Virtual Reality has made important contributions to the health care, especially in the training field, which aims to acquisition of knowledge and skills in performing certain procedures. A procedure still not simulated consists of making local anesthesia for dental treatment, specifically to block inferior alveolar nerve. The execution of this procedure has a high failure rate, increasing the risk to patients and the insecurity of beginners. Thus, and considering the complexity for creating a realistic simulation, this work aims to develop a computer system prototype based on Virtual Reality, for simulation of anesthesia procedure stage (needle insertion task), emphasizing the stage of the anesthesia administration procedure that involves the correct handling and needle insertion. Or in terms of Virtual Reality, the part that involves human-computer interaction, taking into account visual and haptic aspects. The haptic approach is an important part in computer systems of this kind and the realism is considered one of the main objectives in the development of these systems. Additionally, an analysis of human-computer interaction was examined, indicating that although there are still several technological limitations, the system can be regarded as an auxiliary training tool for the task, complementing traditional methods. Also, a perceptual objective metric for evaluation of haptic interaction was formulated, because in the literature the subjective ways dominate the tests and a metric found in the literature fails on certain situations, especially those related to the insertion needle, stage of the anesthesia procedure simulated in this study.
|
Page generated in 0.0589 seconds