• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 192
  • 89
  • 5
  • 1
  • 1
  • Tagged with
  • 290
  • 186
  • 156
  • 151
  • 132
  • 68
  • 41
  • 41
  • 34
  • 34
  • 31
  • 30
  • 29
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

[en] DISTANT SUPERVISION FOR RELATION EXTRACTION USING ONTOLOGY CLASS HIERARCHY-BASED FEATURES / [pt] SUPERVISÃO À DISTÂNCIA EM EXTRAÇÃO DE RELACIONAMENTOS USANDO CARACTERÍSTICAS BASEADAS EM HIERARQUIA DE CLASSES EM ONTOLOGIAS

PEDRO HENRIQUE RIBEIRO DE ASSIS 18 March 2015 (has links)
[pt] Extração de relacionamentos é uma etapa chave para o problema de identificação de uma estrutura em um texto em formato de linguagem natural. Em geral, estruturas são compostas por entidades e relacionamentos entre elas. As propostas de solução com maior sucesso aplicam aprendizado de máquina supervisionado a corpus anotados à mão para a criação de classificadores de alta precisão. Embora alcancem boa robustez, corpus criados à mão não são escaláveis por serem uma alternativa de grande custo. Neste trabalho, nós aplicamos um paradigma alternativo para a criação de um número considerável de exemplos de instâncias para classificação. Tal método é chamado de supervisão à distância. Em conjunto com essa alternativa, usamos ontologias da Web semântica para propor e usar novas características para treinar classificadores. Elas são baseadas na estrutura e semântica descrita por ontologias onde recursos da Web semântica são definidos. O uso de tais características tiveram grande impacto na precisão e recall dos nossos classificadores finais. Neste trabalho, aplicamos nossa teoria em um corpus extraído da Wikipedia. Alcançamos uma alta precisão e recall para um número considerável de relacionamentos. / [en] Relation extraction is a key step for the problem of rendering a structure from natural language text format. In general, structures are composed by entities and relationships among them. The most successful approaches on relation extraction apply supervised machine learning on hand-labeled corpus for creating highly accurate classifiers. Although good robustness is achieved, hand-labeled corpus are not scalable due to the expensive cost of its creation. In this work we apply an alternative paradigm for creating a considerable number of examples of instances for classification. Such method is called distant supervision. Along with this alternative approach we adopt Semantic Web ontologies to propose and use new features for training classifiers. Those features are based on the structure and semantics described by ontologies where Semantic Web resources are defined. The use of such features has a great impact on the precision and recall of our final classifiers. In this work, we apply our theory on corpus extracted from Wikipedia. We achieve a high precision and recall for a considerable number of relations.
162

[en] WEIGHTED INTERVAL SCHEDULING RESOLUTION FOR BUILDING FINANCIAL MARKET TRADING STRATEGIES / [pt] ESTRATÉGIAS DE NEGOCIAÇÃO DE ATIVOS FINANCEIROS UTILIZANDO AGENDAMENTO POR INTERVALOS PONDERADOS

LEANDRO GUIMARAES MARQUES ALVIM 03 September 2013 (has links)
[pt] Há diferentes tipos de investidores que compõem o mercado financeiro e produzem oportunidades de mercado em diferentes escalas de tempo. Isto evidencia uma estrutura heterogênea de mercado. Nesta tese conjecturamos que podem haver oportunidades mais preditivas do que outras, o que motiva a investigação e a construção de estratégias multirresolução. Para estratégias multirresolução há abordagens que utilizam a decomposição de séries temporais para a operação em resoluções distintas ou propostas para a construção de conjuntos de dados de acordo com decisões de negociação multirresolução. As demais estratégias, em sua maioria, são de resolução única. Nesta tese, abordamos dois problemas, maximização de retorno acumulado e maximização de retorno acumulado com o risco controlado, e propomos uma abordagem computacionalmente eficiente para a construção de estratégias multirresolução, a partir da resolução do problema de Agendamento de Intervalos Ponderados. Nossa metodologia consiste em dividir o dia de mercado em intervalos, especializar traders por intervalo e associar um prêmio a cada trader. Para o problema de maximização de retorno acumulado, o prêmio de cada trader corresponde ao retorno acumulado entre dias para o intervalo de operação associado. Para o problema de maximização de retorno acumulado com controle do risco, o prêmio de cada trader corresponde ao retorno acumulado dividido pelo risco para o intervalo de operação associado. Diferentemente do problema anterior, empregamos um conjunto de traders por intervalo e utilizamos o método de Média-Variância, de Markowitz, para encontrar pesos ótimos para conjunto de traders de forma a controlar o risco. Conjecturamos aqui que o controle do risco por intervalo acarreta no controle do risco global da estratégia para o dia. Para a sinalização das ordens de compra e venda, nossos traders utilizam detectores de oportunidades. Estes detectores utilizam algoritmos de Aprendizado de Máquina que processam informações de indicadores de análise técnica e dados de preço e volume. Realizamos experimentos para dez ativos de maior liquidez da BMF&Bovespa para um período de um ano. Nossa estratégia de Composição de um Time de Traders (CTT) apresenta 0, 24 por cento de lucro médio diário e 77, 24 por cento de lucro anual, superando em 300 por cento e 380 por cento, respectivamente, uma estratégia de resolução única. Para os custos adotados, a estratégia CTT é viável a partir de 50.000,00 dólares. Para o problema de maximização do retorno acumulado com risco controlado, a estratégia de Composição de Carteiras por Intervalos (CCI) apresenta em média 0, 179 por cento de lucro diário e 55, 85 por cento de lucro anual, superando o método de Média-Variância de Markowitz. Para os custos adotados, a estratégia CCI é viável a partir de 2.000.000,00 dólares. As principais contribuições desta tese são: abordagem por Agendamentos de Intervalos Ponderados para a construção de estratégias e o emprego do modelo de Média-Variância para compor uma carteira de traders ao invés da tradicional abordagem por ativos. / [en] There are different types of investors who make up the financial market and produce market opportunities at different time scales. This indicates a heterogeneous market structure. In this thesis, we conjecture that may have more predictive opportunities than others, what motivates research and construction of we denominate multirresolution optimal strategies. For multirresolution strategies there are time series decomposition approaches for operating at different resolutions or proposals for dataset construction according to multirresolution trading optimal decisions. The other approaches, are single resolution. Thus, we address two problems, maximizing cumulative returns and maximizing cumulative returns with risk control. Here, we propose solving the Weighted Interval Scheduling problem to build multirresolution strategies. Our methodology consists of dividing the market day into time intervals, specialize traders by interval and associate a prize to each trader. For the cumulative return maximization problem, the prize corresponds to cumulative returns between days for the associated trader operation interval. For the cumulative return maximization problem with risk control each trader prize corresponds to cumulative return divided by risk with associated operation interval. In order to control the risk, we employ a set of traders by interval and apply the Markowitz Mean-Variance method to find optimal weight for set of traders. Here, we conjecture that controlling each interval risk leads to the overall risk control of the day. For signaling buy and sell orders, our traders use opportunity detectors. These detectors correspond to Machine Learning algorithms that process technical analysis indicators, price and volume data. We conducted experiments for ten of the most liquid BMF&Bovespa stocks to a one year span. Our Trading Team Composition strategy results indicates an average of 0.24 per cent daily profit and a 77.24 per cent anual profit, exceeding by 300 per cent and 380 per cent, respectively, a single resolution strategy. Regarding operational costs, CTT strategy is viable from 50,000 dollars. For the cumulative return maximization problem under risk control, our Portfolio Composition by Intervals strategy results indicates an average of 0.179 per cent daily profit and a 55.85 per cent anual profit, exceeding a Markowitz Mean- Variance method. Regarding operational costs, CCI strategy is viable from 2,000,000 dollars. Our main contributions are: the Weighted Interval Scheduling approach for building multirresolution strategies and a portfolio composition of traders instead of stocks performances.
163

[en] A SPECIFICATION FOR A JAVA REGISTER-BASED MACHINE / [pt] UMA ESPECIFICAÇÃO DE MÁQUINA DE REGISTRADORES PARA JAVA

GUILHERME CAMPOS HAZAN 21 May 2007 (has links)
[pt] A linguagem Java foi definida tendo como foco a portabilidade. O código gerado pela compilação é interpretado por uma máquina virtual, e não diretamente pelo processador destino, como um programa em C. Este código intermediário, também conhecido como bytecode, é a chave da portabilidade de Java. Os Bytecodes Java usam uma pilha para manipular os operandos das instruções. O uso de pilha tem suas vantagens e desvantagens. Dentre as vantagens, podemos citar a simplicidade da implementação do compilador e da máquina virtual. A principal desvantagem é a redução na velocidade de execução dos programas, devido à necessidade de se mover os operandos para a pilha e retirar dela o resultado, gerando um aumento no número de instruções que devem ser processadas. Diversos estudos indicam que máquinas virtuais baseadas em registradores podem ser mais rápidas que as baseadas em pilha. Decidimos criar uma nova especificação de bytecodes, específicos para máquinas virtuais baseadas em registradores. Esperamos com isso obter um aumento no desempenho das aplicações. / [en] The Java language was created with a focus on portability. The code generated by the compiler is interpreted by a virtual machine, and not directly by the target processor, like programs written in C. This intermediate code, also known as bytecode, is the key to Java's portability. The Java Bytecodes use a stack to manipulate the instruction operands. The use of stack has its their pros and cons. Among the advantages, we can cite the simplicity of implementation of the compiler and virtual machine. On the other hand, there is a speed reduction in the program's execution, due to the need to move the operands to and from the stack, and retrieve results from it, increasing the number of instructions that are processed. Much study has been done that indicating that register-based virtual machines can be faster than the ones based on stacks. Based on this, we decided to create a new bytecode specification, proper for a virtual machine based on registers. By doing this, we hope to obtain an increase in an application's performance.
164

[en] SQLLOMINING: FINDING LEARNING OBJECTS USING MACHINE LEARNING METHODS / [pt] SQLLOMINING: OBTENÇÃO DE OBJETOS DE APRENDIZAGEM UTILIZANDO TÉCNICAS DE APRENDIZADO DE MÁQUINA

SUSANA ROSICH SOARES VELLOSO 04 December 2007 (has links)
[pt] Objetos de Aprendizagem ou Learning Objects (LOs) são porções de material didático tais como textos que podem ser reutilizados na composição de outros objetos maiores (aulas ou cursos). Um dos problemas da reutilização de LOs é descobri-los em seus contextos ou documentos texto originais tais como livros, e artigos. Visando a obtenção de LOs, este trabalho apresenta um processo que parte da extração, tratamento e carga de uma base de dados textual e em seguida, baseando-se em técnicas de aprendizado de máquina, uma combinação de EM (Expectation-Maximization) e um classificador Bayesiano, classifica-se os textos extraídos. Tal processo foi implementado em um sistema chamado SQLLOMining, que usa SQL como linguagem de programação e técnicas de mineração de texto na busca de LOs. / [en] Learning Objects (LOs) are pieces of instructional material like traditional texts that can be reused in the composition of more complex objects like classes or courses. There are some difficulties in the process of LO reutilization. One of them is to find pieces of documents that can be used like LOs. In this work we present a process that, in search for LOs, starts by extracting, transforming and loading a text database and then continue clustering these texts, using a machine learning methods that combines EM (Expectation- Maximization) and a Bayesian classifier. We implemented that process in a system called SQLLOMining that uses the SQL language and text mining methods in the search for LOs.
165

[en] A STUDY OF MULTILABEL TEXT CLASSIFICATION ALGORITHMS USING NAIVE-BAYES / [pt] UM ESTUDO DE ALGORITMOS PARA CLASSIFICAÇÃO AUTOMÁTICA DE TEXTOS UTILIZANDO NAIVE-BAYES

DAVID STEINBRUCH 12 March 2007 (has links)
[pt] A quantidade de informação eletrônica vem crescendo de forma acelerada, motivada principalmente pela facilidade de publicação e divulgação que a Internet proporciona. Desta forma, é necessária a organização da informação de forma a facilitar a sua aquisição. Muitos trabalhos propuseram resolver este problema através da classificação automática de textos associando a eles vários rótulos (classificação multirótulo). No entanto, estes trabalhos transformam este problema em subproblemas de classificação binária, considerando que existe independência entre as categorias. Além disso, utilizam limiares (thresholds), que são muito específicos para o conjunto de treinamento utilizado, não possuindo grande capacidade de generalização na aprendizagem. Esta dissertação propõe dois algoritmos de classificação automática de textos baseados no algoritmo multinomial naive Bayes e sua utilização em um ambiente on-line de classificação automática de textos com realimentação de relevância pelo usuário. Para testar a eficiência dos algoritmos propostos, foram realizados experimentos na base de notícias Reuters 21758 e na base de documentos médicos Ohsumed. / [en] The amount of electronic information has been growing fast, mainly due to the easiness of publication and spreading that Internet provides. Therefore, is necessary the organisation of information to facilitate its retrieval. Many works have solved this problem through the automatic text classification, associating to them several labels (multilabel classification). However, those works have transformed this problem into binary classification subproblems, considering there is not dependence among categories. Moreover, they have used thresholds, which are very sepecific of the classifier document base, and so, does not have great generalization capacity in the learning process. This thesis proposes two text classifiers based on the multinomial algorithm naive Bayes and its usage in an on-line text classification environment with user relevance feedback. In order to test the proposed algorithms efficiency, experiments have been performed on the Reuters 21578 news base, and on the Ohsumed medical document base.
166

Design de interação nos games: projetar como operação tradutora para a comunicação ser humano-máquina

Braga, Alexandre Santaella 12 May 2010 (has links)
Made available in DSpace on 2016-04-26T18:18:33Z (GMT). No. of bitstreams: 1 Alexandre Santaella Braga.pdf: 8065630 bytes, checksum: 5fa997c61f83ac2b1c9528640700b1d7 (MD5) Previous issue date: 2010-05-12 / This research is turned to one of the most crucial questions of digital design that, as I see it, is concerned with the problem of interactivity. It is not casual that this has been the great and most repeated subject when communication design is in focus. Interaction design in digital media is a process in which a tool is planned in order to give support to some task, so that an efficient communication between user and machine can occur. Being the design of a tool, there should be a concern about the object being functional and adequate to usage. At the same time it has to be appealing in the sense of causing pleasurable visual, cognitive and emotional sensations. In design my emphasis goes to the process of production: which are the factors that have to be taken into account for the realization of an interaction design? This is the main problem of this research which directed the goals of this work toward the systematization of these factors. I believe that game design is the one which takes further the factors that are implicated in an interaction design. This presupposes the question of interfaces which, in this context, means the communicative negotiable space without which a game could not happen. An interface is the more effective the more is is able to produce an immediate decodification of the signs which are capable of inciting action, that is, the game mechanics. Hence, interaction is thought of as the form by which the user becomes not only a user but a player, someone who acts with the sensation that something is at stake and the results of the interactions may create an emotional approximation. My hypothesis is that an interaction design is not merely a representation or transposition from a physical to a simulated reality. Much more complex than this, the designer has to make a translation of the physical actions to be accomplished in the simulated environment. This operation is necessarily an intersemiotic operation (Plaza, 1987), since it involves a set of systems of signs in a hybrid language such as hypermedia. The theories which give support to this work are the ones that discuss the general question of interactivity, such as Steven Johnson (2001), Jenny Preece (2005), Allan Cooper et al. (2007), Goodwin (2009). Specific theories in the field of games are Tracy Fullerton (2004), Jesper Juul (2004) e Jesse Schell (2008). These found my hypothesis that the process of interaction in digital design is a special type of communication act which is manifested as a result of the desiger translation of actions that are realized in a physical environment. This communication process is special because it presupposes that the design is able to incite action. Hence a communication process that is resolved in the immediate action of the player. The methodology is based on the theoretical concepts, which were tested in my experience with games and my teaching activity turned to game design along the years. All this converged to the thesis that is defended in this work which conceives of interaction design as an operation of translation / A presente pesquisa está voltada para uma das questões mais cruciais do design digital que, a nosso ver, se coloca no problema da interatividade. Não por acaso, este tem sido o grande tema, invariavelmente repetido, quando se fala da comunicação digital. O design de interação em mídias digitais é um processo no qual se projeta uma ferramenta para dar suporte a alguma tarefa, de forma que ocorra a comunicação eficaz entre usuário e máquina. Por ser o design de uma ferramenta, há uma preocupação com que o objeto seja funcional e adequado ao uso, ao mesmo tempo em que possa ser fruido no sentido de causar sensações prazerosas, sejam elas visuais, cognitivas ou emocionais. Dentro do design, colocamos ênfase no processo de produção: quais são os fatores que devem ser levados em conta para a realização de um design de interação? Eis o problema que esta pesquisa se colocou, direcionando os objetivos do trabalho para a sistematização desses fatores. Acreditamos que o design de games é aquele que leva mais longe os fatores implicados na realização de um design de interação. Este pressupõe a questão da interface que, nesse contexto, significa o espaço de negociação comunicacional, sem o qual o jogo não poderia acontecer. A interface é tanto mais eficaz quanto mais conseguir produzir a imediata decodificação dos signos capazes de incitar a ação, ou seja, a mecânica do jogo. Assim, a interação é pensada como a forma com que o interator se torna, além de um usuário, um jogador, que realiza a sua ação com a sensação de que há algo em jogo e os resultados de suas interações possam criar uma aproximação emocional. Para que isso aconteça, nossa hipótese é a de que a realização de um design de interação para games não é simplesmente uma representação ou transposição de uma realidade física para uma realidade simulada. Bem mais complexo do que isso, trata-se do designer realizar uma operação tradutora, de ações físicas para ações a serem realizadas nos ambientes simulados. Essa operação é necessariamente intersemiótica (Plaza 1987), pois envolve um conjunto de sistemas de signos numa linguagem híbrida como a hipermídia. As teorias que dão suporte ao trabalho são aquelas que discutem a questão geral da interatividade, tais como Steven Johnson (2001), Jenny Preece (2005), Allan Cooper et al. (2007), Goodwin (2009). Teorias específicas na área de games são Tracy Fullerton (2004), Jesper Juul (2004) e Jesse Schell (2008). Estas embasam nossa hipótese de que o processo de interação em ambiente digital é um tipo especial de ação comunicacional que se manifesta como resultado de uma tradução realizada pelo designer de ações efetuadas no ambiente físico. O processo de comunicação é especial porque pressupõe que o design seja capaz de incitar a ação. Trata-se, portanto, de uma comunicação que deve se resolver na ação imediata do jogador. A metodologia está calcada nos conceitos teóricos, devidamente testados na experiência que brotou tanto da intimidade com a realização prática do design, quanto da convivência com os games e, sobretudo, da atividade docente voltada, ao longo dos anos, justamente para a questão do design de games. Tudo isso conflui para a tese defendida neste trabalho que concebe o design de interação como operação tradutora
167

Um modelo para sistemas especialistas conexionistas híbridos

Reategui, Eliseo Berni January 1993 (has links)
O presente trabalho descreve um modelo híbrido para sistemas especialistas classificatórios que Integra os mecanismos de representação de conhecimento de frames e de redes neurais, assimilando qualidades inerentes de cada um dos dois paradigmas. O mecanismo de frames fornece tipos construtores flexíveis para a modelagem do conhecimento do domínio, enquanto as redes neurais possibilitam tanto a automação da aquisição de conhecimento, a partir de uma base de casos, quanto a implementação de aprendizado indutivo e dedutivo. Empregam-se dois tipos de frames para representar o conhecimento relativo aos problemas de classificação: frames de achado e frames de diagn6stico. Os primeiros descrevem os objetos elementares da aplicação que podem influenciar na detecção de certos diagnósticos. Os frames de diagnóstico, por sua vez, são descritos em termos de achados e correspondem as descrições dos problemas de classificação tratados pelo sistema especialista. E utilizado o Modelo Neural Combinatório (MNC), caracterizado por sua capacidade de aprendizado heurístico através do reconhecimento de regularidades observadas no mundo exterior. A integração do mecanismo de representação de frames e do MNC se da ao nível dos frames de diagn6stico, armazenando representações simbólicas do conhecimento das redes neurais que explicitam o conhecimento armazenado nas camadas intermediarias das Últimas. O motor de inferência do sistema opera de maneira integrada sobre ambos os paradigmas, o conexionista e o simbólico. A máquina de aprendizado fornece meios para a automação da aquisição de conhecimento a partir de um banco de casos, bem como para o refinamento do conhecimento do sistema. A máquina de aprendizado dividida em dois componentes principais: o componente de aprendizado indutivo e o componente de aprendizado dedutivo. O primeiro se volta para o componente indutivo e utiliza os métodos de aprendizado por casos de treinamento, descritos para o MNC, para refinar o conhecimento das redes neurais. O componente dedutivo faz use de uma estratégia de reorganização das redes neurais, para gerar novos modelos de resolução de problemas. 0 sistema implementado, denominado HYCONES (the HYbrid CONnectionist Expert System) é apresentado corn detalhamento da integragao entre os paradigmas simbOlico e conexionista. Para validar HYCONES, foram construfdas e testadas 5 versoes de uma base de conhecimento hfbrida para o diagnostico das 3 cardiopatias congenitas mais freqfjentes no Institute de Cardiologia - RS. A primeira delas (B1) baseou-se no conhecimento extrafdo de 22 especialistas em cardiologia pediatrica, de 4 instituicaes brasileiras. Os grafos medios de conhecimento destes especialistas foram diretamente traduzidos para redes neurais MNC, dando origem a primeria versao do sistema. A segunda versao (B2) baseou-se no refinamento da base de conhecimento da versao B1, atraves da reorganizacao e treinamento das redes neurais dos especialistas, corn aplicagao dos metodos de aprendizado dedutivo. A terceira versão (B3) baseou-se no conhecimento de 23 não especialistas, cardiologistas gerais, na sua maioria oriundos do Institute de Cardiologia - RS. A mesma técnica aplicada para a construção da versão B1 foi utilizada para construir esta versão da base de conhecimento hibrida. A quarta versao (B4) corresponde ao refinamento e reorganização da base de conhecimento da versão B3, com as mesmas técnicas de aprendizado dedutivo, aplicadas na construção da versão B2. Finalmente, na quinta versão (B5), a base de conhecimento foi construída, automaticamente, a partir de base de casos, valendo-se do método de explicitação automática de conhecimento do MNC. Os resultados obtidos na validação do sistema comprovaram a eficiência dos métodos de explicitação automática de conhecimento, a partir do banco de casos e de aprendizado dedutivo, por reorganização e treinamento das redes neurais. As principais contribuições deste trabalho foram: a definição do mecanismo para integração de frames a redes neurais; a especificação dos métodos de aquisição automática do conhecimento, a partir de um banco de casos e seu posterior treinamento e aprendizado, por métodos indutivos e dedutivos; finalmente, a incorporação das medidas de especificidade e sensibilidade no processo de explicitação automática do conhecimento do banco de casos. / This dissertation describes a hybrid model for classification expert systems - HYCONES (HYbrid CoNnectionist Expert System), which integrates the knowledge representation mechanism of frames and neural networks, incorporating qualities inherent to each of the knowledge representation paradigms. The mechanism of frames provides flexible constructs for modeling the domain knowledge. The neural networks provide the means for automatic knowledge acquisition and enable the implementation of deductive and inductive learning. The frames mechanism makes use of semantic modeling concepts to make the new model more generic and to provide flexible constructs for knowledge representation. It employs two basic types of frames to represent the knowledge involved in classification problems: finding frames and diagnosis frames. The finding frames describe the elementary objects of the application world that can influence in the detection of certain diagnoses. Diagnosis frames, on the other hand, are described in terms of findings and correspond to the descriptions of the classification problems addressed by the expert system. The Combinatorial Neural Model (CNM) was the architecture chosen for the neural network environment. This model is characterized by its capacity of learning through the recognition of regularities observed in the outside world. The integration of the knowledge representation mechanism of frames with the CNM happens at the diagnosis frames level. The diagnosis frames store symbolic representations of knowledge contained in the neural networks. The system's inference machine operates under an integrated manner with both knowledge representation paradigms. The learning machine provides the means for automatic knowledge acquisition and for knowledge refinement. It is composed by two modules: the inductive and the deductive learning component. The first one uses CNM methods to refine the neural network knowledge. The latter follows a strategy that reorganizes the neural networks, generating new problem solving models. The implemented HYCONES system is presented, detailing the integration between the symbolic and the connectionist approach. To validate HYCONES, five versions of a hybrid knowledge base (HKB) for the diagnosis of the three most common congenital heart diseases at the Institute de Cardiologia - RS were constructed and tested. The first version of the HKB, named B1 for validation purposes, is based on the mean knowledge graphs of 22 experts in congenital heart diseases, from four important Brazilian cardiological institutions. These KG were directly translated to CNM neural networks. The second version of the HKB, named B3 for validation purposes, contains the mean knowledge graphs of 23 non-experts, i.e., general cardiologists, from the Institute of Cardiology of RS. The same method used to built B1 was invoked here: direct translation from the knowledge graphs to CNM neural networks. The second and fourth versions of HKB, named B2 and B4 respectively, consist of trained versions of B1 and B3. To create these trained versions, the CNM neural networks of B1 and B3 were submitted to deductive learning procedures. Finally, the fifth version of HKB, B5, was automatically created, based on the training of the case database. The results obtained and presented in this document point out to the efficiency of the automatic knowledge acquisition methods and the deductive learning techniques implemented, through the reorganization and training of the neural networks. The main contributions of this research are the design of a mechanism for the integration of frames and neural networks, the specification of the learning methods for the hybrid model and the analysis of factors such as specificity and sensibility in the process of automatic knowledge acquisition.
168

Uso de Seleção de Características da Wikipedia na Classificação Automática de Textos. / Selection of Wikipedia features for automatic text classification

Alvarenga, Leonel Diógenes Carvalhaes 20 September 2012 (has links)
Submitted by Cássia Santos (cassia.bcufg@gmail.com) on 2014-07-31T14:43:10Z No. of bitstreams: 2 license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) uso_de_selecao_de_caracteristicas_da_wikipedia_na_classificacao_automatica_de_textos.pdf: 1449954 bytes, checksum: 9086dec3868b6b703340b550c614d33d (MD5) / Made available in DSpace on 2014-07-31T14:43:10Z (GMT). No. of bitstreams: 2 license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) uso_de_selecao_de_caracteristicas_da_wikipedia_na_classificacao_automatica_de_textos.pdf: 1449954 bytes, checksum: 9086dec3868b6b703340b550c614d33d (MD5) Previous issue date: 2012-09-20 / Fundação de Amparo à Pesquisa do Estado de Goiás - FAPEG / The traditional methods of text classification typically represent documents only as a set of words, also known as "Bag of Words"(BOW). Several studies have shown good results on making use of thesauri and encyclopedias as external information sources, aiming to expand the BOW representation by the identification of synonymy and hyponymy relationships between present terms in a document collection. However, the expansion process may introduce terms that lead to an erroneous classification. In this paper, we propose the use of feature selection measures in order to select features extracted from Wikipedia in order to improve the efectiveness of the expansion process. The study also proposes a feature selection measure called Tendency Factor to One Category (TF1C), so that the experiments showed that this measure proves to be competitive with the other measures Information Gain, Gain Ratio and Chisquared, in the process, delivering the best gains in microF1 and macroF1, in most experiments. The full use of features selected in this process showed to be more stable in assisting the classification, while it showed lower performance on restricting its insertion only to documents of the classes in which these features are well punctuated by the selection measures. When applied in the Reuters-21578, Ohsumed first - 20000 and 20Newsgroups collections, our approach to feature selection allowed the reduction of noise insertion inherent in the expansion process, and improved the results of use hyponyms, and demonstrated that the synonym relationship from Wikipedia can also be used in the document expansion, increasing the efectiveness of the automatic text classification. / Os métodos tradicionais de classificação de textos normalmente representam documentos apenas como um conjunto de palavras, também conhecido como BOW (do inglês, Bag of Words). Vários estudos têm mostrado bons resultados ao utilizar-se de tesauros e enciclopédias como fontes externas de informações, objetivando expandir a representação BOW a partir da identificação de relacionamentos de sinonômia e hiponômia entre os termos presentes em uma coleção de documentos. Todavia, o processo de expansão pode introduzir termos que conduzam a uma classificação errônea do documento. No presente trabalho, propõe-se a aplicação de medidas de avaliação de termos para a seleção de características extraídas da Wikipédia, com o objetivo de melhorar a eficácia de sua utilização durante o processo de expansão de documentos. O estudo também propõe uma medida de seleção de características denominada Fator de Tendência a uma Categoria (FT1C), de modo que os experimentos realizados demonstraram que esta medida apresenta desempenho competitivo com as medidas Information Gain, Gain Ratio e Chi-squared, neste processo, apresentando os melhores ganhos de microF1 e macroF1, na maioria dos experimentos realizados. O uso integral das características selecionadas neste processo, demonstrou auxiliar a classificação de forma mais estável, ao passo que apresentou menor desempenho ao se restringir sua inserção somente aos documentos das classes em que estas características são bem pontuadas pelas medidas de seleção. Ao ser aplicada nas coleções Reuters-21578, Ohsumed rst-20000 e 20Newsgroups, a abordagem com seleção de características permitiu a redução da inserção de ruídos inerentes do processo de expansão e potencializou o uso de hipônimos, assim como demonstrou que as relações de sinonômia da Wikipédia também podem ser utilizadas na expansão de documentos, elevando a eficácia da classificação automática de textos.
169

Adaptación de pilotos al glass-cockpit

Sorin, Jacques 26 September 2003 (has links)
Se presenta una propuesta de diseño de cabina de pilotaje de aviones cuyo objetivo es ayudar la adaptación de los pilotos al pilotaje de los aviones de pasajeros de tipo glass-cockpit. Se acompaña esta propuesta de una descripción de conjunto de la relación piloto-avión tal como evoluciona desde que el piloto aprende a pilotar la primera avioneta de escuela hasta que aborda los aviones de transporte de pasajeros. Esta descripción abarca elementos cognitivos y afectivo-emocionales de la relación persona-máquina.Para realizar esta propuesta se efectúa en primer lugar una búsqueda de información que incluye a la vez fuentes escritas y fuentes orales. Las fuentes de información escritas son estudios del glass-cockpit realizados desde la ergonomía, la psicología cognitiva y la socio-antropología, y textos escritos por un constructor de glass-cockpit y por pilotos. Las fuentes orales son entrevistas a ergónomos que estudian el glass-cockpit, pilotos de glass-cockpit y médicos de pilotos de glass-cockpit.En segundo lugar, se realizan: - entrevistas cualitativas en profundidad a pilotos- acompañamiento y observación de estos pilotos a bordo, durante vuelos- ejercicios de dibujo: se solicita a los pilotos que indiquen, en una reconstitución gráfica de la cabina, en qué partes de la cabina (en qué instrumentos, mandos, zonas...) sienten ruido, vibración, sensación de movimiento, sensación de control, sensación de placer y de tensión.Se realizan estas indagaciones en pilotos situados en distintos momentos de su recorrido profesional (desde el aprendizaje inicial en escuela de pilotaje hasta el trabajo cotidiano en glass-cockpit de compañías aéreas) ya que el glass-cockpit no es el primer avión del piloto: este aparato será pilotado respecto a un 'pasado' hecho de otros aviones, pasado que influirá tanto a nivel cognitivo como emocional. Importa por tanto conocer este pasado para tener una visión más completa de la relación global piloto-avión. Las indagaciones efectuadas permiten saber en qué consiste aprender a pilotar un avión, y la importancia de su control; se obtiene también una visión preliminar del conjunto de las exigencias cognitivas y emocionales relacionadas con el pilotaje. En base a los datos recogidos, se elabora una propuesta de diseño de cabina de pilotaje con propuestas alternativas para todos aquellos elementos del glass-cockpit que han recibido comentarios negativos en las entrevistas y en la literatura. Se presenta esta propuesta a pilotos de glass-cockpit para su evaluación. Es percibida como una herramienta de formación para hacer que el paso entre las avionetas bimotor (de escuela, o de las primeras experiencias profesionales) y los glass-cockpit resulte menos difícil para los pilotos. El diseño propuesto se podría instalar en las avionetas bimotor, o reproducir en simuladores de formación. / A cockpit layout aimed at helping pilots' adaptation to glass-cockpit airliners is presented, as well as a description of the pilot-aircraft relationship as it evolves since the first single-propeller aircraft used at the beginning of flight training, up to glass-cockpits flown in airlines. The description shows cognitive and affective elements of the person-machine relationship.To realize the layout and the description an information search was fulfilled. Its first step involved the gathering of written and oral data. Written data consulted were the ergonomic, psychologic and socio-anthropologic existing analysis of glass-cockpits, as well as texts made by a glass-cockpit builder and by pilots. Oral data was derived from interviews made to ergonomists studying glass-cockpits, glass-cockpit pilots, and physicians of glass-cockpit pilots.The second step of information gathering involved:- qualitative interviews to pilots- accompanying the interviewed pilots on board aircraft- the realization of specific drawings: the pilots were asked to show, in a graphic representation of the cockpit, where (in which instruments, controls, zones...) they felt noise, vibration, the feeling of movement, the feeling of control, pleasure, and stress.These inquiries were made with pilots placed at different moments of a professional career (students flying single-propeller training aircraft, intermediates flying twin propellers, and full professional pilots flying classic jetliners and glass-cockpits). As glass-cockpits are not the first airplanes flown in a career, they will be used under the cognitive and affective influence of a 'past' made of several airplanes. It was thus important to know this past in order to derive a fuller vision of the pilot-aircraft relationship.The information gathered enabled to better describe what implies learning to fly and the importance of controlling an aircraft, both from a cognitive and an affective point of view. A cockpit layout was designed, featuring alternative designs for all those glass-cockpit elements that received negative feedback in the interviews and in the literature. The proposed layout was assessed by glass-cockpit pilots. They saw it as a training tool to lessen the complexity gap that the pilots have to overcome when transitioning, in their careers, from twin propeller aircraft to glass-cockpits. This layout could in the future be fitted to propeller aircraft used for training or could be reproduced in flight training simulators.
170

[en] MACHINE LEARNING FOR SENTIMENT CLASSIFICATION / [pt] APRENDIZADO DE MÁQUINA PARA O PROBLEMA DE SENTIMENT CLASSIFICATION

PEDRO OGURI 18 May 2007 (has links)
[pt] Sentiment Analysis é um problema de categorização de texto no qual deseja-se identificar opiniões favoráveis e desfavoráveis com relação a um tópico. Um exemplo destes tópicos de interesse são organizações e seus produtos. Neste problema, documentos são classificados pelo sentimento, conotação, atitudes e opiniões ao invés de se restringir aos fatos descritos neste. O principal desafio em Sentiment Classification é identificar como sentimentos são expressados em textos e se tais sentimentos indicam uma opinião positiva (favorável) ou negativa (desfavorável) com relação a um tópico. Devido ao crescente volume de dados disponível na Web, onde todos tendem a ser geradores de conteúdo e expressarem opiniões sobre os mais variados assuntos, técnicas de Aprendizado de Máquina vem se tornando cada vez mais atraentes. Nesta dissertação investigamos métodos de Aprendizado de Máquina para Sentiment Analysis. Apresentamos alguns modelos de representação de documentos como saco de palavras e N-grama. Testamos os classificadores SVM (Máquina de Vetores Suporte) e Naive Bayes com diferentes modelos de representação textual e comparamos seus desempenhos. / [en] Sentiment Analysis is a text categorization problem in which we want to identify favorable and unfavorable opinions towards a given topic. Examples of such topics are organizations and its products. In this problem, docu- ments are classifed according to their sentiment, connotation, attitudes and opinions instead of being limited to the facts described in it. The main challenge in Sentiment Classification is identifying how sentiments are expressed in texts and whether they indicate a positive (favorable) or negative (unfavorable) opinion towards a topic. Due to the growing volume of information available online in an environment where we all tend to be content generators and express opinions on a variety of subjects, Machine Learning techniques have become more and more attractive. In this dissertation, we investigate Machine Learning methods applied to Sentiment Analysis. We present document representation models such as bag-of-words and N-grams.We compare the performance of the Naive Bayes and the Support Vector Machine classifiers for each proposed model

Page generated in 0.039 seconds