• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 343
  • 113
  • 42
  • 8
  • 4
  • 3
  • 3
  • 3
  • 3
  • 1
  • 1
  • Tagged with
  • 511
  • 175
  • 142
  • 67
  • 47
  • 43
  • 38
  • 38
  • 37
  • 36
  • 36
  • 34
  • 34
  • 33
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Estimation and fault diagnosis strategies for networked control systems

Dolz Algaba, Daniel 22 December 2014 (has links)
Communication networks increase flexibility of industrial monitoring, supervisory and control systems. However, they introduce delays or even dropouts on the transmitted information that affect the performance and robustness on the decision and control mechanisms in the system. This thesis contributes theoretically to the state estimation and fault diagnosis problem over networks. First, we study the state estimation problem. Motivated by reducing the implementation computational load of Luenberger-type estimators, we focus on predefined gain approaches for different network transmission conditions. In general, we propose jump estimators whose gains are related to the different network-induced data reception scenarios. We define the estimator complexity in terms of the number of different stored gains. Considering constant successful transmission probabilities, our main contribution here is the design of jump linear estimators to attain favorable trade-offs between estimation performance and estimator complexity. We show that one can reduce the estimator complexity while guaranteeing a similar performance than the optimal Kalman Filter. When dropouts are governed by a non-stationary stochastic process, the successful transmission probability is time-varying and may be unknown. For this case, we propose an estimator whose gains are scheduled in real-time with rational functions of the estimated packet arrival rate. We turn the design procedure into an optimization problem over polynomials that is numerically solved employing sum-of-squares (SOS) decomposition techniques. Second, motivated by reducing the network resource consumption without considerably degrading the estimation performance, we study the jointly design of jump linear estimators and predefined network operation conditions (co-design) to guarantee a favorable trade-off. Focusing on wireless networks with self-powered nodes, where transmitting is the most energy consuming task, we analyze two approaches for the network operation: event-based transmissions and power control. For the event-based approach, we use a Send-on-Delta protocol which reduces the number of transmissions with respect to transmitting at each sampling instant. However, it leads to an unknown successful transmission probability. For this framework, we contribute by characterizing this uncertainty and including it on the stochastic behavior of the estimator by means of a SOS-based design. Power control strategies are developed over a multi-hop wireless network with fading channels. Instead of reducing the number of transmission, power control acts directly on the transmission power. Higher transmission powers imply higher successful transmission probability values. Finally, motivated by the need of assuring a reliable operation of the networked system, we study the fault diagnosis problem. We explore and point out the trade-offs between fast fault detection and fault tracking conditions. We design jump estimatorbased fault diagnosers in which we can specify the minimum detectable faults, false alarm rate and response time to faults. Another contribution is a tightened version of existing false alarm rate bounds. Moreover, we also address the case when the control input is transmitted through a network without delivery acknowledgement. In this case, we improve fault diagnosisaccuracy by scheduling in real time the estimator jumping gains with rational functions that depend on a statistic of the control input error (difference between the control command being applied in the process and the one being used in the estimator). Again, we use a SOS-based solution approach to make the design problem tractable.
42

Lemas e teoremas: um caminho para a consolidação de conceitos geométricos na educação básica / Lemmas and theorems: a way for the consolidation of geometric concepts in basic education

Freitas, Alana Paula Araújo January 2016 (has links)
FREITAS, Alana Paula Araújo. Lemas e teoremas: um caminho para a consolidação de conceitos geométricos na educação básica. 2016. 76 f. Dissertação (Mestrado em Matemática em Rede Nacional) – Centro de Ciências, Universidade Federal do Ceará, Fortaleza, 2016. / Submitted by Rocilda Sales (rocilda@ufc.br) on 2016-09-14T14:07:12Z No. of bitstreams: 1 2016_dis_apafreitas.pdf: 3172757 bytes, checksum: 7e411226a24df13057b34e743e0687fb (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-09-14T14:09:29Z (GMT) No. of bitstreams: 1 2016_dis_apafreitas.pdf: 3172757 bytes, checksum: 7e411226a24df13057b34e743e0687fb (MD5) / Made available in DSpace on 2016-09-14T14:09:29Z (GMT). No. of bitstreams: 1 2016_dis_apafreitas.pdf: 3172757 bytes, checksum: 7e411226a24df13057b34e743e0687fb (MD5) Previous issue date: 2016 / The purpose of this paper is to present a methodology for the Teaching of Mathematics to consolidate basic concepts of geometry significantly. Thus, relating geometric entities present in the statements of theorems with the verification thereof. It is possible to bring back the axiomatic deductive method, in the basic education geometry classes in this research with the help of educational computing and dynamic geometry software GeoGebra. For this, it was first created a roadmap for learning material that guides the verification theorem and leads to reflection of geometric definitions that can be executed with the software. Then it was held the implementation of the roadmap with a group of high school students. And finally, the analysis of the results obtained in the application was made. To learn more about the searched class and enable the comprehension of the method’s effectiveness it was applied at first a questionnaire to probe the initial condition of the students, and at a second time an interview to investigate concepts present in the questionnaire. The data analysis showed an amazing affnity of students with the verification method of theorems aided by new technologies, as well as the conceptual evolution of the involved definitions. It is believed that with the introduction of theorem demonstrations associated with computer technology in the teacher’s methodology can be a path to improvement in Geometry teaching in elementary School. / Este trabalho se propõe a apresentar uma proposta metodológica para o Ensino de Matemática que consolide conceitos básicos de Geometria de forma significativa. Trata-se de relacionar entes geométricos presentes nas afirmações dos teoremas com a verificação dos mesmos. Resgatar o método axiomático dedutivo, nas aulas de geometria da educação básica, torna-se possível, nesta pesquisa, com o auxílio da informática educativa e do software de geometria dinâmica GeoGebra. Para isso, foi criado inicialmente um roteiro de aprendizagem, material que orienta a verificação do teorema e conduz a reflexão de definições, para ser executado junto ao software. Em seguida, foi realizada a aplicação do roteiro com uma turma de estudantes do Ensino Médio. E finalmente, foi feita a análise dos resultados obtidos na aplicação. Para melhor conhecer a turma pesquisada e possibilitar a compreensão da eficácia do método, foi aplicado em um primeiro momento um questionário, para sondar a condição inicial dos estudantes, e em um segundo momento uma entrevista que torna a investigar conceitos presentes no questionário. A análise das entrevistas mostrou uma surpreendente afinidade dos alunos com o método de verificação dos teoremas auxiliado do software, bem como, a evolução conceitual das definições envolvidas. Acredita-se com isso que a introdução das demonstrações de teoremas associado com as tecnologias computacionais na metodologia dos professores é então um caminho para a melhoria no Ensino de Geometria na Educação Básica.
43

Estudo de sensores de baixo custo para estação meteorológica automática / Assessment of low cost sensors for automatic weather stations

Sugawara, Márcio Takeshi 29 August 2003 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2016-06-23T16:09:19Z No. of bitstreams: 1 texto completo.pdf: 679683 bytes, checksum: 962f9a82b11145d9527fd9f21f1b75ee (MD5) / Made available in DSpace on 2016-06-23T16:09:19Z (GMT). No. of bitstreams: 1 texto completo.pdf: 679683 bytes, checksum: 962f9a82b11145d9527fd9f21f1b75ee (MD5) Previous issue date: 2003-08-29 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A utilização de estações meteorológicas automáticas é importante para diversas atividades na agricultura moderna, com destaque para o manejo da irrigação, previsão de safra, previsão de doenças e aplicação de defensivos agrícolas. Apesar dos avanços tecnológicos e de preços, tem-se observado, ainda, dificuldades, por parte dos produtores rurais na instalação de estações meteorológicas automáticas, principalmente em razão dos custos de implantação e de manutenção. Assim, este trabalho objetivou o estudo de sensores com componentes eletrônicos comerciais, visando ao desenvolvimento de uma estação meteorológica automática de baixo custo. Os testes foram realizados no Laboratório de Automação e Irrigação de Precisão do Departamento de Engenharia Agrícola da Universidade Federal de Viçosa. Foram testados sensores para medir a temperatura, a umidade relativa e a irradiação solar. Os sensores foram ligados a circuitos divisores de tensão e conectados a um sistema de aquisição automática de dados, ligado a um microcomputador do tipo PC, por meio da porta serial. No sensor de temperatura foi testado o termistor tipo coeficiente de temperatura negativo (NTC) com resistência de 10kΩ, a 25°C, e constante do material de 4000K (óxido de ferro e titânio). Como sensor de irradiação solar foi testado o transistor 2N3055 (Toshiba e SID). No sensor de umidade relativa foi testado o sensor capacitivo HIH-3610 (Honeywell), enquanto o de temperatura teve desempenho adequado, com ajuste linear com r 2 de 99%, e não foi afetado pelo tipo de abrigo, já o sensor de umidade relativa apresentou erros de 4,9 e 2,31% para os abrigos de polietileno e alumínio, respectivamente. Por sua vez, o sensor de radiação apresentou erros de 0,42 e 1,41Wm -2 , respectivamente para os intervalos de 265 a 1,300Wm -2 e 0 a 265Wm -2 . Os resultados indicaram a viabilidade de uso dos sensores alternativos na estação meteorológica, a fim reduzir custos, ressaltando-se que os sensores-teste e o abrigo de sensores representaram 3,7% do custo do sensor-padrão. / This work was carried out to study commercial sensors assessment for low cost automatic weather stations. Tests were carried out at the Laboratório de Automação e Irrigação de Precisão of the Departamento de Engenharia Agrícola (Department of Agricultural Engineering) at the Universidade Federal de Viçosa. Air temperature, relative humidity, and solar radiation commercial sensors were tested. The sensors were linked to electric tension circuits splitter connected to an automatic data acquisition system, and then connected to a PC by the serial port. For air temperature sensor, a type of negative temperature coefficient (NTC) thermistor was used with an electrical resistance of 10 kΩ at 25°C, and a material constant of 4,000 K (iron and titanium oxide). The sensor for solar radiation was a 2N3055 transistor (Toshiba and SID). For the relative humidity sensor, a capacitive HIH-3610 sensor (Honeywell) was tested. While the air temperature sensor presented satisfactory performance, with determination coefficient (r 2 ) of 0.99, it was not affected by the shelter type. The relative humidity sensor presented errors between 4.90 and 2.31% under polyethylene and aluminum shelters, respectively. On the other hand, the solar radiation sensor presented errors of 0.42 and 1.41 Wm -2 , respectively, within the intervals of 265 to 1.300 Wm -2 and 0 to 265 Wm -2 of solar radiation intensities. Results indicated the feasibility of alternative sensors use in meteorological weather stations for cost reduction. The sensors tested and the sensor shelters together made up 3.7% of the total cost as compared to original automatic weather station standard sensor. / Dissertação antiga
44

Processamento de linguagem natural para indexação automática semântico-ontológica

Câmara Júnior, Auto Tavares da 11 April 2013 (has links)
Tese (doutorado)—Universidade de Brasília, Faculdade de Ciência da Informação, Programa de Pós-Graduação em Ciência da Informação, 2013. / Submitted by Elna Araújo (elna@bce.unb.br) on 2013-07-29T21:19:34Z No. of bitstreams: 1 2013_AutoTavaresDaCamaraJunior.pdf: 1417675 bytes, checksum: 57e0a94a4470cf0e11089ed79a440dfc (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2013-07-30T15:57:34Z (GMT) No. of bitstreams: 1 2013_AutoTavaresDaCamaraJunior.pdf: 1417675 bytes, checksum: 57e0a94a4470cf0e11089ed79a440dfc (MD5) / Made available in DSpace on 2013-07-30T15:57:34Z (GMT). No. of bitstreams: 1 2013_AutoTavaresDaCamaraJunior.pdf: 1417675 bytes, checksum: 57e0a94a4470cf0e11089ed79a440dfc (MD5) / A pesquisa propõe uma arquitetura de indexação automática de documentos utilizando mecanismos de processamento de linguagem natural em nível semântico. Por meio do arranjo de ferramentas e recursos existentes, agregado ao desenvolvimento de software para integração, é construído um sistema de indexação automática que utiliza conhecimento modelado em uma ontologia para análise semântica. A aplicação da arquitetura é exemplificada e posta à prova em um conjunto de laudos periciais de crimes cibernéticos produzidos pela Perícia Criminal da Polícia Federal. Os resultados de pesquisa apontam para a melhoria que o aprofundamento à análise semântica do processamento de linguagem natural oferece para a seleção automática de descritores e, por extensão, para a recuperação da informação. Dentre as contribuições inéditas desta tese incluem-se a arquitetura de sistema de informação para indexação automática proposta, a ontologia construída para a análise semântica e as implementações em linguagem de programação Python. Por fim, o trabalho insere-se em uma área de pesquisa que tem sido cada vez mais investigada, no entanto ainda carece de resultados amadurecidos, qual seja o processamento de linguagem natural em língua portuguesa. __________________________________________________________________________ ABSTRACT / The research proposes an automatic indexing architecture of documents using natural language processing mechanisms on semantic level. By organizing existing tools and resources, added to software development for integration, an automatic indexing system which uses knowledge modeled by ontology to semantic analysis is built. The applicability of the architecture is exemplified and put into proof on forensics reports of cybercrimes produced by Federal Police Forensics Experts. The research results point to the benefits that semantic analysis on natural language processing offers to automatic descriptor selection and information retrieval. As contributions of this thesis there are the proposed automatic indexing information system architecture, the ontology built to semantic analysis and the implementations on Python programming language. Concluding, the work inserts itself in a research area that has been increasingly more investigated, however still demanding mature results, which is natural language processing on portuguese language.
45

Módulo para la Sincronización Automática de Documentos XML

Moya Bascur, Cristhian Andrés January 2007 (has links)
Esta memoria aborda el escenario de trabajo donde las personas necesitan desplazarse entre distintas ubicaciones físicas, a fin de llevar a cabo su tarea. Estos trabajadores utilizan dispositivos móviles, tales como Laptops y PDA's, para llevar a cabo sus actividades y compartir recursos (información). La información que comparte cada individuo corresponde a documentos XML. Cada persona puede modificar a su gusto las copias locales de los documentos compartidos, aún si estos individuos se encuentran temporalmente desconectados del servidor y de sus compañeros. Por esa razón, se pueden generar inconsistencias entre las copias. Para alcanzar nuevamente un estado consistente; los trabajadores tienen que sincronizar sus copias a bajo costo. El principal objetivo de este trabajo de título es generar una aplicación que sea capaz de sincronizar documentos XML en forma automática. El método de sincronización se enfocó al escenario de uso de las aplicaciones colaborativas móviles que ejecutan en PDAs, y utilizan redes inalámbricas como soporte de comunicación. Se analizaron varias aplicaciones ya desarrolladas que reconcilian documentos XML y que ejecutan sobre PDA's. Ninguna de ellas presentaba una real solución a los requerimientos que planteaba el escenario en el que se enmarca este trabajo de título. Por esta razón, se decidió desarrollar una aplicación que automatizara lo más posible el proceso de reconciliación de documentos XML. Dada la flexibilidad en el formato de los documentos XML, se definieron ciertas restricciones sobre los documentos XML a sincronizar por la aplicación. Estas restricciones se vieron reflejadas en la incorporación de atributos a los nodos de los documentos XML a sincronizar. Se diseñó un esquema de sincronización extensible a través de clases C#. Este esquema involucra dos pasos. Primero se genera el árbol de diferencias entre los documentos XML a sincronizar. Luego, se resuelve cada una de las diferencias encontradas. Para resolver las diferencias se desarrollaron clases llamadas Resolutores. Estos resolutores definen políticas de reconciliación que se traducen en operaciones aritméticas, lógicas, de orden, etc. Cuando los resolutores encuentran diferencias entre los documentos XML, aplican las políticas de reconciliación para determinar cuál será el valor final del nodo reconciliado. Las políticas de reconciliación de los resolutores son fácilmente programables y extensibles. Con la creación de políticas de reconciliación de diferencias se logró automatizar el proceso de sincronización. En resumen, se considera que esta memoria alcanzó el objetivo planteado, dado que se logró desarrollar una aplicación capaz de sincronizar diferencias entre documentos XML de manera automática. Esta aplicación ejecuta tanto en PDA's como en PCs.
46

Ampliando olhares sobre a tradução automática online : um estudo exploratório de categorias de erros de máquina de tradução gerados em documentos multimodais

Pires, Thiago Blanch 02 March 2017 (has links)
Tese (doutorado)—Universidade de Brasília, Faculdade de Ciência da Informação, Programa de Pós-Graduação em Ciência da Informação, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2017-06-02T17:24:50Z No. of bitstreams: 1 2017_ThiagoBlanchPires.pdf: 13273791 bytes, checksum: 745737c8c9d7de30e1f46c10eda12193 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-06-23T17:25:27Z (GMT) No. of bitstreams: 1 2017_ThiagoBlanchPires.pdf: 13273791 bytes, checksum: 745737c8c9d7de30e1f46c10eda12193 (MD5) / Made available in DSpace on 2017-06-23T17:25:27Z (GMT). No. of bitstreams: 1 2017_ThiagoBlanchPires.pdf: 13273791 bytes, checksum: 745737c8c9d7de30e1f46c10eda12193 (MD5) Previous issue date: 2017-06-23 / Nas últimas décadas observa-se um crescente uso de sistemas de tradução automática para a tradução rápida e imediata de fragmentos de diversos documentos. Ao mesmo tempo, observase um frequente uso desses sistemas em documentos multimodais, originalmente criados de forma a relacionar semanticamente elementos linguísticos e visuais. Como as máquinas de tradução não são desenvolvidas com o propósito de reconhecer tais relações intersemióticas, mas apenas de reconhecer determinadas unidades linguísticas, pressupõe-se que parte do significado originalmente criado entre o componente linguístico e visual se modifica com a tradução. Um estudo piloto, produzido como parte do estágio metodológico deste trabalho, aponta para desvios léxico-semânticos de legendas que descrevem uma imagem ou parte dela, gerando uma nova configuração semântica, chamada de incompatibilidade intersemiótica. Por meio da interface teórico-metodológica da multimodalidade, mais especificamente do modelo de textura intersemiótica, e da linguística computacional, mais especificamente de tipologia de erro de tradução automática, esta tese tem como objetivo identificar relações semânticas entre texto e imagem em documentos multimodais traduzidos automaticamente para a avaliação de tradução automática. Os procedimentos metodológicos para se alcançar o objetivo de pesquisa são de natureza exploratória e qualitativa. A amostragem é constituída de 30 documentos compostos por artigos de páginas web, manuais, infográficos e artigos acadêmicos em inglês e suas respetivas traduções automáticas realizadas pela ferramenta Google Tradutor para o português. Para a captura das páginas web utilizou-se a ferramenta Fireshot, e para visualização e anotação manual escolheu-se as ferramentas Preview e Skitch. A análise revela um número proporcionalmente maior de incompatibilidades intersemióticas encontradas nas páginas web do que nos outros tipos de documentos. Encontrou-se os mesmo tipos de incompatibilidade intersemiótica que emergem no estudo piloto, quais sejam, de relação intersemiótica temporal e relação intersemiótica de ambiguidade. Porém identificou-se e categorizou-se outros níveis dessas relações, tais como as relações intersemióticas de correspondência e relações intersemióticas de contingência. Os achados também revelam um padrão de incompatibilidades intersemióticas advindas de problemas de palavras desconhecidas e palavras incorretas (VILAR et al., 2006). Ao final, os achados da análise demonstram a importância do modelo de textura intersemiótica proposto por Liu e O’Halloran (2009) para se elaborar uma base metodológica para novas tipologias de erros de tradução automática que identifiquem e categorizem relações de texto-imagem para a avaliação manual de tradução automática. / In the past decades there has been a growth in the use of automatic translation systems for the fast and immediate translation of diverse document fragments. At the same time, there has been a frequent use of such systems in multimodal documents, originally created to relate semantically linguistic and visual elements. As machine translation systems are not developed with the purpose of recognizing such intersemiotic relations - but to only recognize certain linguistic unities – this study assumes that part of the meaning originally created across the linguistic and visual components changes with the translation. A pilot study produced as part of the methodological stage of this work shows that lexico-semantic divergences of automatically translated captions which describes an image or part of it generates new semantic configuration, namely intersemiotic mismatch. By means of the theoretical and methodological interface of multimodality, more specifically the intersemiotic texture model proposed by Liu e O’Halloran (2009), and of computational linguistics, more specifically the typology of machine translation errors (VILAR et al., 2006), this dissertation has the objective of identifying semantic relations between text and image in multimodal documents automatically translated for automatic translation evaluation. The methodological procedures are based on exploratory and qualitative nature. The sampling consists of 30 documents made of webpages, manuals, infographics, and academic papers in English and their respective automatic translation output generated by means of Google Translator into Portuguese. To capture webpages this investigation employs the tool Fireshot, and to visualize and manually annotate the intersemiotic relations, it employed the tools Preview and Skitch. The analysis reveals a proportionally greater number of intersemiotic mismatches found on the webpages than on the other documents. The study found the same types of intersemiotic mismatches that emerged in the pilot study, though in more specific levels. Among the most relevant findings of these new levels of mismatches are the intersemiotic contingency relations and the intersemiotic relations of correspondence. The findings also have shown a profile of intersemiotic mismatches related to unknown words and incorrect words (VILAR et al., 2006). At the end, the findings of the analysis show the importance of the Intersemiotic texture model proposed by Liu and O’Halloran (2009) to elaborate a methodological ground for new typology of machine translation errors that informs the identification and categorization of text-image relations for manually evaluate automatic translation.
47

Classificação automática de páginas Web Multi-label via MDL e Support Vector Machines

Ormonde, Rodrigo de La Rocque January 2009 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2009. / Submitted by Ruthléa Nascimento (ruthleanascimento@bce.unb.br) on 2015-10-05T16:36:58Z No. of bitstreams: 1 2009_RodrigodeLaRocqueOrmonde.pdf: 831778 bytes, checksum: c5976576592c690b8627dba88bbcac9f (MD5) / Approved for entry into archive by Ruthléa Nascimento(ruthleanascimento@bce.unb.br) on 2015-10-05T16:37:14Z (GMT) No. of bitstreams: 1 2009_RodrigodeLaRocqueOrmonde.pdf: 831778 bytes, checksum: c5976576592c690b8627dba88bbcac9f (MD5) / Made available in DSpace on 2015-10-05T16:37:14Z (GMT). No. of bitstreams: 1 2009_RodrigodeLaRocqueOrmonde.pdf: 831778 bytes, checksum: c5976576592c690b8627dba88bbcac9f (MD5) / Nesta pesquisa é feita a extensão de um novo algoritmo de classificação, chamado de CAH+MDL, anteriormente desenvolvido para lidar apenas com problemas de classificação binários ou multiclasse, para tratar diretamente também problemas de classificação multilabel. Foi estudado então seu desempenho para a classificação de uma base de páginas Web em Português e Inglês, divididas em sete categorias multi-label. Este algoritmo é baseado no princípio da Minimum Description Length (MDL), utilizado juntamente com a Codificação Adaptativa de Huffman e foi anteriormente estudado para a classificação binária na detecção de SPAM, tendo apresentado bons resultados. Não foram encontradas citações na literatura, entretanto, de sua utilização para o caso multi-label, que é bem mais complexo. Para avaliar seu desempenho, os resultados são comparados com os resultados obtidos na classificação da mesma base de dados por uma SVM linear, que é o algoritmo que normalmente apresenta os melhores resultados na classificação de padrões e, especialmente, na classificação de textos. _______________________________________________________________________________ ABSTRACT / In this research, it is developed the extension of a new classification algorithm, called CAH+MDL, previously conceived to deal only with binary or multi-class classification problems, to treat directly multi-label classification problems. Its accuracy is then studied in the classification of a database comprised of Web sites in Portuguese and English, divided into seven multi-label categories. This algorithm is based on the principle of the Minimum Description Length (MDL), used together with the Huffman Adaptive Coding. It has already been studied for binary classification in SPAM detection and has presented good results, however, to the best of my knowledge, it had never been studied before for the multi-label case, which is much more complex. In order to evaluate its performance, its results are compared with the results obtained in the classification of the same database by a linear SVM, which is the algorithm that usually presents the best results in pattern classification and, specially, in text classification.
48

Extração de vocabulário multilíngue a partir de documentação de software

Hilgert, Lucas Welter January 2014 (has links)
Made available in DSpace on 2014-05-06T02:01:52Z (GMT). No. of bitstreams: 1 000457560-Texto+Completo-0.pdf: 1023326 bytes, checksum: f34cdce0dc99790d1770e8e63219e649 (MD5) Previous issue date: 2014 / Real-time machine translation tools and services have been investigated as an alternative approach to the utilization of a common language (lingua franca) during distributed meetings involving teams with differet native languages. However, as presented by different research works, this kind of technologies presents a set of problems that difficults the communication. Among the solution proposed in the literature, the construction of domain specific vocabularies are highlited. This work propose a multilingual vocabulary extraction process for multilingual dicionary entries extraction from software user guides. The process here proposed follows a well stablished set of steps presenting as the main difference the way in wich the domain vocabulary is identified: through the utilization of terminology extraction softwares. A manual evaluation of the dictionaries generated by the process has shown a precision of 81% for simple world translation and 39% for multiword expressions. This values are consistent with the related work. / Ferramentas e serviços de tradução de máquina (automática) em tempo real têm sido investigadas como uma alternativa à utilização de idiomas comum (Lingua Franca) durante reuniões de equipes com diferentes idiomas nativos. No entanto, como demonstrado por diferentes pesquisadores, este tipo de tecnologia ainda apresenta alguns tipos problemas que dificultam a sua utilização neste contexto, dentre os quais destaca-se neste trabalho as traduções inconsistentes (diferentes traduções atribuídas a uma mesma palavra em um mesmo contexto). Dentre as soluções apontadas na literatura para melhorar a qualidade das traduções, destaca-se a construção de vocabulários multilíngues específicos de domínios. Sendo assim, neste trabalho é proposto um processo para a extração de vocabulário multilíngue a partir de documentos de software.O processo proposto seguiu um conjunto de etapas consolidadas na literatura, tendo apresentado, como principal diferencial a forma pela qual o vocabulário de domínio é identificado: mediante a utilização de softwares extratores de terminologia. Uma avaliação manual dos dicionários gerados pelo processo demonstrou uma precisão de 81% na tradução de palavras simples e 39% na tradução de expressões multipalavras. Estes valores demonstraram-se condizentes com os trabalhos relacionados.
49

Experiência de utilização do formalismo "gramáticas síncronas de adjunção de árvores" para construção de um módulo de transferência estrutural

Agustini, Alexandre January 1997 (has links)
Made available in DSpace on 2013-08-07T18:43:32Z (GMT). No. of bitstreams: 1 000269167-Texto+Completo-0.pdf: 277056 bytes, checksum: 9e3251ef7a13982b4682b8987a5f0d07 (MD5) Previous issue date: 1997 / Machine translation has been a challenge for linguists and computer scientists over the last decades. During this period, plenty of progress was accomplished, though the results are not the expected ones. In this investigation, we present a study on automatic translation, starting with a review of the main methods used for the construction of automated translation systems: direct methods and methods based on interlingua and transfer concepts. The work describes the use of the Synchronous Tree Adjoining Grammars (STAGs) formalism for the design of a structural transfer module, which is the main component of transfer-based systems. The transfer module establishes the correspondences between the structural representation of a sentence in the source-language and the one in the target-language. A study on a corpus on economics was developed in order to define structural divergences for the translation between the Portuguese and English languages. A prototype that performs the structural transformations found in the corpus, based on the STAGs concepts, was developed to validate the proposed model. / A automatização da tradução tem sido um desafio constante para lingüistas e cientistas da computação nas últimas décadas. Neste período, muitos avanços foram alcançados, porém os resultados ainda não são os esperados. É apresentado, neste trabalho, um estudo sobre a área de tradução automática, focalizando inicialmente os principais métodos utilizados na construção de sistemas automatizados de tradução: métodos diretos e métodos baseados nos conceitos de interlíngua e transfer. O trabalho descreve as Gramáticas Síncronas de Adjunção de Árvores como formalismo para projeto de um módulo de transferência estrutural, que é o componente principal de sistemas de tradução automática baseados no método transfer. O módulo de transferência realiza o mapeamento das discrepâncias existentes entre a representação estrutural do texto na língua-fonte e a representação correspondente na línguaalvo. Um estudo, a partir de um corpus da área econômica, é apresentado visando a definição de um conjunto de divergências estruturais existentes na tradução entre as línguas portuguesa e inglesa. Para validação do modelo proposto, é apresentado o protótipo de uma ferramenta que realiza as transformações estruturais observadas no corpus empregado, utilizando os conceitos de Gramáticas Síncronas de Adjunção de Árvores.
50

Política de indexação automática para documentação digital do Acordo de Basileia II : o caso do Banco do Brasil / Automatic indexing policy for digital documentation of Basel II : case of Banco do Brasil

Allievi, Georgea 18 June 2013 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Ciência da Informação, Programa de Pós-Graduação em Ciência da Informação, 2013. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2014-02-19T15:10:01Z No. of bitstreams: 1 2013_GeorgeaAllieviFrizon.pdf: 2342321 bytes, checksum: 05488cb3df65ff4535e7af17b6e0a145 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2014-02-19T15:31:53Z (GMT) No. of bitstreams: 1 2013_GeorgeaAllieviFrizon.pdf: 2342321 bytes, checksum: 05488cb3df65ff4535e7af17b6e0a145 (MD5) / Made available in DSpace on 2014-02-19T15:31:53Z (GMT). No. of bitstreams: 1 2013_GeorgeaAllieviFrizon.pdf: 2342321 bytes, checksum: 05488cb3df65ff4535e7af17b6e0a145 (MD5) / A pesquisa é um estudo, no âmbito da Ciência da Informação, sobre a representação da informação bancária. O objetivo é identificar os aspectos relacionados com a indexação de documentos digitais de conteúdo textual, que devem ser considerados na elaboração de uma política de indexação. A metodologia utilizada foi baseada em estudo de caso. Foi proposta uma política de indexação voltada à representação de documentos digitais produzidos na instituição financeira Banco do Brasil e relacionados ao Acordo de Basiléia II. _________________________________________________________________________________ ABSTRACT / Presents research a study, in scope of Information Science, about representation of bank information. The goal is to identify issues related to the indexing digital document unstructured textual content, which should be considered in developing a policy of indexing. The methodology was based on case study. Proposed an indexing policy focused on representation of digital documents produced in the financial institution Banco do Brasil and related to Basel II.

Page generated in 0.2003 seconds