Spelling suggestions: "subject:"maquinas"" "subject:"maquinaria""
161 |
[en] DISTANT SUPERVISION FOR RELATION EXTRACTION USING ONTOLOGY CLASS HIERARCHY-BASED FEATURES / [pt] SUPERVISÃO À DISTÂNCIA EM EXTRAÇÃO DE RELACIONAMENTOS USANDO CARACTERÍSTICAS BASEADAS EM HIERARQUIA DE CLASSES EM ONTOLOGIASPEDRO HENRIQUE RIBEIRO DE ASSIS 18 March 2015 (has links)
[pt] Extração de relacionamentos é uma etapa chave para o problema de
identificação de uma estrutura em um texto em formato de linguagem natural. Em
geral, estruturas são compostas por entidades e relacionamentos entre elas. As
propostas de solução com maior sucesso aplicam aprendizado de máquina
supervisionado a corpus anotados à mão para a criação de classificadores de alta
precisão. Embora alcancem boa robustez, corpus criados à mão não são escaláveis
por serem uma alternativa de grande custo. Neste trabalho, nós aplicamos um
paradigma alternativo para a criação de um número considerável de exemplos de
instâncias para classificação. Tal método é chamado de supervisão à distância. Em
conjunto com essa alternativa, usamos ontologias da Web semântica para propor e
usar novas características para treinar classificadores. Elas são baseadas na
estrutura e semântica descrita por ontologias onde recursos da Web semântica são
definidos. O uso de tais características tiveram grande impacto na precisão e recall
dos nossos classificadores finais. Neste trabalho, aplicamos nossa teoria em um
corpus extraído da Wikipedia. Alcançamos uma alta precisão e recall para um
número considerável de relacionamentos. / [en] Relation extraction is a key step for the problem of rendering a structure
from natural language text format. In general, structures are composed by entities
and relationships among them. The most successful approaches on relation
extraction apply supervised machine learning on hand-labeled corpus for creating
highly accurate classifiers. Although good robustness is achieved, hand-labeled
corpus are not scalable due to the expensive cost of its creation. In this work we
apply an alternative paradigm for creating a considerable number of examples of
instances for classification. Such method is called distant supervision. Along with
this alternative approach we adopt Semantic Web ontologies to propose and use
new features for training classifiers. Those features are based on the structure and
semantics described by ontologies where Semantic Web resources are defined.
The use of such features has a great impact on the precision and recall of our final
classifiers. In this work, we apply our theory on corpus extracted from Wikipedia.
We achieve a high precision and recall for a considerable number of relations.
|
162 |
[en] WEIGHTED INTERVAL SCHEDULING RESOLUTION FOR BUILDING FINANCIAL MARKET TRADING STRATEGIES / [pt] ESTRATÉGIAS DE NEGOCIAÇÃO DE ATIVOS FINANCEIROS UTILIZANDO AGENDAMENTO POR INTERVALOS PONDERADOSLEANDRO GUIMARAES MARQUES ALVIM 03 September 2013 (has links)
[pt] Há diferentes tipos de investidores que compõem o mercado financeiro e
produzem oportunidades de mercado em diferentes escalas de tempo. Isto
evidencia uma estrutura heterogênea de mercado. Nesta tese conjecturamos
que podem haver oportunidades mais preditivas do que outras, o que
motiva a investigação e a construção de estratégias multirresolução. Para
estratégias multirresolução há abordagens que utilizam a decomposição
de séries temporais para a operação em resoluções distintas ou propostas
para a construção de conjuntos de dados de acordo com decisões de
negociação multirresolução. As demais estratégias, em sua maioria, são
de resolução única. Nesta tese, abordamos dois problemas, maximização
de retorno acumulado e maximização de retorno acumulado com o risco
controlado, e propomos uma abordagem computacionalmente eficiente para
a construção de estratégias multirresolução, a partir da resolução do
problema de Agendamento de Intervalos Ponderados. Nossa metodologia
consiste em dividir o dia de mercado em intervalos, especializar traders
por intervalo e associar um prêmio a cada trader. Para o problema de
maximização de retorno acumulado, o prêmio de cada trader corresponde ao
retorno acumulado entre dias para o intervalo de operação associado. Para
o problema de maximização de retorno acumulado com controle do risco,
o prêmio de cada trader corresponde ao retorno acumulado dividido pelo
risco para o intervalo de operação associado. Diferentemente do problema
anterior, empregamos um conjunto de traders por intervalo e utilizamos o
método de Média-Variância, de Markowitz, para encontrar pesos ótimos
para conjunto de traders de forma a controlar o risco. Conjecturamos
aqui que o controle do risco por intervalo acarreta no controle do risco
global da estratégia para o dia. Para a sinalização das ordens de compra e
venda, nossos traders utilizam detectores de oportunidades. Estes detectores
utilizam algoritmos de Aprendizado de Máquina que processam informações
de indicadores de análise técnica e dados de preço e volume. Realizamos
experimentos para dez ativos de maior liquidez da BMF&Bovespa para um
período de um ano. Nossa estratégia de Composição de um Time de Traders
(CTT) apresenta 0, 24 por cento de lucro médio diário e 77, 24 por cento de lucro anual, superando em 300 por cento e 380 por cento, respectivamente, uma estratégia de resolução
única. Para os custos adotados, a estratégia CTT é viável a partir de
50.000,00 dólares. Para o problema de maximização do retorno acumulado com
risco controlado, a estratégia de Composição de Carteiras por Intervalos
(CCI) apresenta em média 0, 179 por cento de lucro diário e 55, 85 por cento de lucro
anual, superando o método de Média-Variância de Markowitz. Para os
custos adotados, a estratégia CCI é viável a partir de 2.000.000,00 dólares.
As principais contribuições desta tese são: abordagem por Agendamentos
de Intervalos Ponderados para a construção de estratégias e o emprego do
modelo de Média-Variância para compor uma carteira de traders ao invés
da tradicional abordagem por ativos. / [en] There are different types of investors who make up the financial
market and produce market opportunities at different time scales.
This indicates a heterogeneous market structure. In this thesis, we
conjecture that may have more predictive opportunities than others, what
motivates research and construction of we denominate multirresolution
optimal strategies. For multirresolution strategies there are time series
decomposition approaches for operating at different resolutions or proposals
for dataset construction according to multirresolution trading optimal
decisions. The other approaches, are single resolution. Thus, we address
two problems, maximizing cumulative returns and maximizing cumulative
returns with risk control. Here, we propose solving the Weighted Interval
Scheduling problem to build multirresolution strategies. Our methodology
consists of dividing the market day into time intervals, specialize traders
by interval and associate a prize to each trader. For the cumulative return
maximization problem, the prize corresponds to cumulative returns between
days for the associated trader operation interval. For the cumulative return
maximization problem with risk control each trader prize corresponds to
cumulative return divided by risk with associated operation interval. In
order to control the risk, we employ a set of traders by interval and apply
the Markowitz Mean-Variance method to find optimal weight for set of
traders. Here, we conjecture that controlling each interval risk leads to the
overall risk control of the day. For signaling buy and sell orders, our traders
use opportunity detectors. These detectors correspond to Machine Learning
algorithms that process technical analysis indicators, price and volume
data. We conducted experiments for ten of the most liquid BMF&Bovespa
stocks to a one year span. Our Trading Team Composition strategy results
indicates an average of 0.24 per cent daily profit and a 77.24 per cent anual profit,
exceeding by 300 per cent and 380 per cent, respectively, a single resolution strategy.
Regarding operational costs, CTT strategy is viable from 50,000 dollars.
For the cumulative return maximization problem under risk control, our
Portfolio Composition by Intervals strategy results indicates an average of
0.179 per cent daily profit and a 55.85 per cent anual profit, exceeding a Markowitz Mean-
Variance method.
Regarding operational costs, CCI strategy is viable from 2,000,000 dollars.
Our main contributions are: the Weighted Interval Scheduling approach for
building multirresolution strategies and a portfolio composition of traders
instead of stocks performances.
|
163 |
[en] A SPECIFICATION FOR A JAVA REGISTER-BASED MACHINE / [pt] UMA ESPECIFICAÇÃO DE MÁQUINA DE REGISTRADORES PARA JAVAGUILHERME CAMPOS HAZAN 21 May 2007 (has links)
[pt] A linguagem Java foi definida tendo como foco a
portabilidade. O código
gerado pela compilação é interpretado por uma máquina
virtual, e não diretamente
pelo processador destino, como um programa em C. Este
código intermediário,
também conhecido como bytecode, é a chave da portabilidade
de Java.
Os Bytecodes Java usam uma pilha para manipular os
operandos das instruções.
O uso de pilha tem suas vantagens e desvantagens. Dentre
as vantagens,
podemos citar a simplicidade da implementação do
compilador e da máquina
virtual. A principal desvantagem é a redução na velocidade
de execução dos
programas, devido à necessidade de se mover os operandos
para a pilha e retirar
dela o resultado, gerando um aumento no número de
instruções que devem
ser processadas. Diversos estudos indicam que máquinas
virtuais baseadas em
registradores podem ser mais rápidas que as baseadas em
pilha. Decidimos criar
uma nova especificação de bytecodes, específicos para
máquinas virtuais baseadas
em registradores. Esperamos com isso obter um aumento no
desempenho
das aplicações. / [en] The Java language was created with a focus on portability.
The code generated
by the compiler is interpreted by a virtual machine, and
not directly by the
target processor, like programs written in C. This
intermediate code, also known
as bytecode, is the key to Java's portability. The Java
Bytecodes use a stack to
manipulate the instruction operands. The use of stack has
its their pros and cons.
Among the advantages, we can cite the simplicity of
implementation of the compiler
and virtual machine. On the other hand, there is a speed
reduction in the
program's execution, due to the need to move the operands
to and from the
stack, and retrieve results from it, increasing the number
of instructions that are
processed. Much study has been done that indicating that
register-based virtual
machines can be faster than the ones based on stacks.
Based on this, we decided
to create a new bytecode specification, proper for a
virtual machine based
on registers. By doing this, we hope to obtain an increase
in an application's performance.
|
164 |
[en] SQLLOMINING: FINDING LEARNING OBJECTS USING MACHINE LEARNING METHODS / [pt] SQLLOMINING: OBTENÇÃO DE OBJETOS DE APRENDIZAGEM UTILIZANDO TÉCNICAS DE APRENDIZADO DE MÁQUINASUSANA ROSICH SOARES VELLOSO 04 December 2007 (has links)
[pt] Objetos de Aprendizagem ou Learning Objects (LOs) são
porções de
material didático tais como textos que podem ser
reutilizados na composição de
outros objetos maiores (aulas ou cursos). Um dos problemas
da reutilização de
LOs é descobri-los em seus contextos ou documentos texto
originais tais como
livros, e artigos. Visando a obtenção de LOs, este
trabalho apresenta um
processo que parte da extração, tratamento e carga de uma
base de dados
textual e em seguida, baseando-se em técnicas de
aprendizado de máquina,
uma combinação de EM (Expectation-Maximization) e um
classificador
Bayesiano, classifica-se os textos extraídos. Tal processo
foi implementado em
um sistema chamado SQLLOMining, que usa SQL como linguagem
de
programação e técnicas de mineração de texto na busca de
LOs. / [en] Learning Objects (LOs) are pieces of instructional
material like traditional
texts that can be reused in the composition of more
complex objects like classes
or courses. There are some difficulties in the process of
LO reutilization. One of
them is to find pieces of documents that can be used like
LOs. In this work we
present a process that, in search for LOs, starts by
extracting, transforming and
loading a text database and then continue clustering these
texts, using a machine
learning methods that combines EM (Expectation-
Maximization) and a Bayesian
classifier. We implemented that process in a system called
SQLLOMining that
uses the SQL language and text mining methods in the
search for LOs.
|
165 |
[en] A STUDY OF MULTILABEL TEXT CLASSIFICATION ALGORITHMS USING NAIVE-BAYES / [pt] UM ESTUDO DE ALGORITMOS PARA CLASSIFICAÇÃO AUTOMÁTICA DE TEXTOS UTILIZANDO NAIVE-BAYESDAVID STEINBRUCH 12 March 2007 (has links)
[pt] A quantidade de informação eletrônica vem crescendo de
forma acelerada,
motivada principalmente pela facilidade de publicação e
divulgação que a
Internet proporciona. Desta forma, é necessária a
organização da informação
de forma a facilitar a sua aquisição. Muitos trabalhos
propuseram resolver
este problema através da classificação automática de
textos associando a
eles vários rótulos (classificação multirótulo). No
entanto, estes trabalhos
transformam este problema em subproblemas de classificação
binária,
considerando que existe independência entre as categorias.
Além disso,
utilizam limiares (thresholds), que são muito específicos
para o conjunto
de treinamento utilizado, não possuindo grande capacidade
de generalização
na aprendizagem. Esta dissertação propõe dois algoritmos
de classificação
automática de textos baseados no algoritmo multinomial
naive Bayes e sua
utilização em um ambiente on-line de classificação
automática de textos
com realimentação de relevância pelo usuário. Para testar
a eficiência dos
algoritmos propostos, foram realizados experimentos na
base de notícias
Reuters 21758 e na base de documentos médicos Ohsumed. / [en] The amount of electronic information has been growing
fast, mainly due to
the easiness of publication and spreading that Internet
provides. Therefore,
is necessary the organisation of information to facilitate
its retrieval. Many
works have solved this problem through the automatic text
classification,
associating to them several labels (multilabel
classification). However, those
works have transformed this problem into binary
classification subproblems,
considering there is not dependence among categories.
Moreover, they have
used thresholds, which are very sepecific of the
classifier document base,
and so, does not have great generalization capacity in the
learning process.
This thesis proposes two text classifiers based on the
multinomial algorithm
naive Bayes and its usage in an on-line text
classification environment with
user relevance feedback. In order to test the proposed
algorithms efficiency,
experiments have been performed on the Reuters 21578 news
base, and on
the Ohsumed medical document base.
|
166 |
Design de interação nos games: projetar como operação tradutora para a comunicação ser humano-máquinaBraga, Alexandre Santaella 12 May 2010 (has links)
Made available in DSpace on 2016-04-26T18:18:33Z (GMT). No. of bitstreams: 1
Alexandre Santaella Braga.pdf: 8065630 bytes, checksum: 5fa997c61f83ac2b1c9528640700b1d7 (MD5)
Previous issue date: 2010-05-12 / This research is turned to one of the most crucial questions of digital design that,
as I see it, is concerned with the problem of interactivity. It is not casual that this has
been the great and most repeated subject when communication design is in focus.
Interaction design in digital media is a process in which a tool is planned in order to
give support to some task, so that an efficient communication between user and
machine can occur.
Being the design of a tool, there should be a concern about the object being
functional and adequate to usage. At the same time it has to be appealing in the sense of
causing pleasurable visual, cognitive and emotional sensations. In design my emphasis
goes to the process of production: which are the factors that have to be taken into
account for the realization of an interaction design? This is the main problem of this
research which directed the goals of this work toward the systematization of these
factors.
I believe that game design is the one which takes further the factors that are
implicated in an interaction design. This presupposes the question of interfaces which,
in this context, means the communicative negotiable space without which a game could
not happen. An interface is the more effective the more is is able to produce an
immediate decodification of the signs which are capable of inciting action, that is, the
game mechanics. Hence, interaction is thought of as the form by which the user
becomes not only a user but a player, someone who acts with the sensation that
something is at stake and the results of the interactions may create an emotional
approximation.
My hypothesis is that an interaction design is not merely a representation or
transposition from a physical to a simulated reality. Much more complex than this, the
designer has to make a translation of the physical actions to be accomplished in the
simulated environment. This operation is necessarily an intersemiotic operation (Plaza,
1987), since it involves a set of systems of signs in a hybrid language such as
hypermedia.
The theories which give support to this work are the ones that discuss the
general question of interactivity, such as Steven Johnson (2001), Jenny Preece (2005),
Allan Cooper et al. (2007), Goodwin (2009). Specific theories in the field of games are
Tracy Fullerton (2004), Jesper Juul (2004) e Jesse Schell (2008). These found my
hypothesis that the process of interaction in digital design is a special type of
communication act which is manifested as a result of the desiger translation of actions
that are realized in a physical environment. This communication process is special
because it presupposes that the design is able to incite action. Hence a communication
process that is resolved in the immediate action of the player.
The methodology is based on the theoretical concepts, which were tested in my
experience with games and my teaching activity turned to game design along the years.
All this converged to the thesis that is defended in this work which conceives of
interaction design as an operation of translation / A presente pesquisa está voltada para uma das questões mais cruciais do design
digital que, a nosso ver, se coloca no problema da interatividade. Não por acaso, este
tem sido o grande tema, invariavelmente repetido, quando se fala da comunicação
digital. O design de interação em mídias digitais é um processo no qual se projeta uma
ferramenta para dar suporte a alguma tarefa, de forma que ocorra a comunicação eficaz
entre usuário e máquina. Por ser o design de uma ferramenta, há uma preocupação com
que o objeto seja funcional e adequado ao uso, ao mesmo tempo em que possa ser
fruido no sentido de causar sensações prazerosas, sejam elas visuais, cognitivas ou
emocionais. Dentro do design, colocamos ênfase no processo de produção: quais são os
fatores que devem ser levados em conta para a realização de um design de interação?
Eis o problema que esta pesquisa se colocou, direcionando os objetivos do trabalho para
a sistematização desses fatores.
Acreditamos que o design de games é aquele que leva mais longe os fatores
implicados na realização de um design de interação. Este pressupõe a questão da
interface que, nesse contexto, significa o espaço de negociação comunicacional, sem o
qual o jogo não poderia acontecer. A interface é tanto mais eficaz quanto mais
conseguir produzir a imediata decodificação dos signos capazes de incitar a ação, ou
seja, a mecânica do jogo. Assim, a interação é pensada como a forma com que o
interator se torna, além de um usuário, um jogador, que realiza a sua ação com a
sensação de que há algo em jogo e os resultados de suas interações possam criar uma
aproximação emocional.
Para que isso aconteça, nossa hipótese é a de que a realização de um design de
interação para games não é simplesmente uma representação ou transposição de uma
realidade física para uma realidade simulada. Bem mais complexo do que isso, trata-se
do designer realizar uma operação tradutora, de ações físicas para ações a serem
realizadas nos ambientes simulados. Essa operação é necessariamente intersemiótica
(Plaza 1987), pois envolve um conjunto de sistemas de signos numa linguagem híbrida
como a hipermídia.
As teorias que dão suporte ao trabalho são aquelas que discutem a questão geral
da interatividade, tais como Steven Johnson (2001), Jenny Preece (2005), Allan Cooper
et al. (2007), Goodwin (2009). Teorias específicas na área de games são Tracy Fullerton
(2004), Jesper Juul (2004) e Jesse Schell (2008). Estas embasam nossa hipótese de que
o processo de interação em ambiente digital é um tipo especial de ação comunicacional
que se manifesta como resultado de uma tradução realizada pelo designer de ações
efetuadas no ambiente físico. O processo de comunicação é especial porque pressupõe
que o design seja capaz de incitar a ação. Trata-se, portanto, de uma comunicação que
deve se resolver na ação imediata do jogador.
A metodologia está calcada nos conceitos teóricos, devidamente testados na
experiência que brotou tanto da intimidade com a realização prática do design, quanto
da convivência com os games e, sobretudo, da atividade docente voltada, ao longo dos
anos, justamente para a questão do design de games. Tudo isso conflui para a tese
defendida neste trabalho que concebe o design de interação como operação tradutora
|
167 |
Um modelo para sistemas especialistas conexionistas híbridosReategui, Eliseo Berni January 1993 (has links)
O presente trabalho descreve um modelo híbrido para sistemas especialistas classificatórios que Integra os mecanismos de representação de conhecimento de frames e de redes neurais, assimilando qualidades inerentes de cada um dos dois paradigmas. O mecanismo de frames fornece tipos construtores flexíveis para a modelagem do conhecimento do domínio, enquanto as redes neurais possibilitam tanto a automação da aquisição de conhecimento, a partir de uma base de casos, quanto a implementação de aprendizado indutivo e dedutivo. Empregam-se dois tipos de frames para representar o conhecimento relativo aos problemas de classificação: frames de achado e frames de diagn6stico. Os primeiros descrevem os objetos elementares da aplicação que podem influenciar na detecção de certos diagnósticos. Os frames de diagnóstico, por sua vez, são descritos em termos de achados e correspondem as descrições dos problemas de classificação tratados pelo sistema especialista. E utilizado o Modelo Neural Combinatório (MNC), caracterizado por sua capacidade de aprendizado heurístico através do reconhecimento de regularidades observadas no mundo exterior. A integração do mecanismo de representação de frames e do MNC se da ao nível dos frames de diagn6stico, armazenando representações simbólicas do conhecimento das redes neurais que explicitam o conhecimento armazenado nas camadas intermediarias das Últimas. O motor de inferência do sistema opera de maneira integrada sobre ambos os paradigmas, o conexionista e o simbólico. A máquina de aprendizado fornece meios para a automação da aquisição de conhecimento a partir de um banco de casos, bem como para o refinamento do conhecimento do sistema. A máquina de aprendizado dividida em dois componentes principais: o componente de aprendizado indutivo e o componente de aprendizado dedutivo. O primeiro se volta para o componente indutivo e utiliza os métodos de aprendizado por casos de treinamento, descritos para o MNC, para refinar o conhecimento das redes neurais. O componente dedutivo faz use de uma estratégia de reorganização das redes neurais, para gerar novos modelos de resolução de problemas. 0 sistema implementado, denominado HYCONES (the HYbrid CONnectionist Expert System) é apresentado corn detalhamento da integragao entre os paradigmas simbOlico e conexionista. Para validar HYCONES, foram construfdas e testadas 5 versoes de uma base de conhecimento hfbrida para o diagnostico das 3 cardiopatias congenitas mais freqfjentes no Institute de Cardiologia - RS. A primeira delas (B1) baseou-se no conhecimento extrafdo de 22 especialistas em cardiologia pediatrica, de 4 instituicaes brasileiras. Os grafos medios de conhecimento destes especialistas foram diretamente traduzidos para redes neurais MNC, dando origem a primeria versao do sistema. A segunda versao (B2) baseou-se no refinamento da base de conhecimento da versao B1, atraves da reorganizacao e treinamento das redes neurais dos especialistas, corn aplicagao dos metodos de aprendizado dedutivo. A terceira versão (B3) baseou-se no conhecimento de 23 não especialistas, cardiologistas gerais, na sua maioria oriundos do Institute de Cardiologia - RS. A mesma técnica aplicada para a construção da versão B1 foi utilizada para construir esta versão da base de conhecimento hibrida. A quarta versao (B4) corresponde ao refinamento e reorganização da base de conhecimento da versão B3, com as mesmas técnicas de aprendizado dedutivo, aplicadas na construção da versão B2. Finalmente, na quinta versão (B5), a base de conhecimento foi construída, automaticamente, a partir de base de casos, valendo-se do método de explicitação automática de conhecimento do MNC. Os resultados obtidos na validação do sistema comprovaram a eficiência dos métodos de explicitação automática de conhecimento, a partir do banco de casos e de aprendizado dedutivo, por reorganização e treinamento das redes neurais. As principais contribuições deste trabalho foram: a definição do mecanismo para integração de frames a redes neurais; a especificação dos métodos de aquisição automática do conhecimento, a partir de um banco de casos e seu posterior treinamento e aprendizado, por métodos indutivos e dedutivos; finalmente, a incorporação das medidas de especificidade e sensibilidade no processo de explicitação automática do conhecimento do banco de casos. / This dissertation describes a hybrid model for classification expert systems - HYCONES (HYbrid CoNnectionist Expert System), which integrates the knowledge representation mechanism of frames and neural networks, incorporating qualities inherent to each of the knowledge representation paradigms. The mechanism of frames provides flexible constructs for modeling the domain knowledge. The neural networks provide the means for automatic knowledge acquisition and enable the implementation of deductive and inductive learning. The frames mechanism makes use of semantic modeling concepts to make the new model more generic and to provide flexible constructs for knowledge representation. It employs two basic types of frames to represent the knowledge involved in classification problems: finding frames and diagnosis frames. The finding frames describe the elementary objects of the application world that can influence in the detection of certain diagnoses. Diagnosis frames, on the other hand, are described in terms of findings and correspond to the descriptions of the classification problems addressed by the expert system. The Combinatorial Neural Model (CNM) was the architecture chosen for the neural network environment. This model is characterized by its capacity of learning through the recognition of regularities observed in the outside world. The integration of the knowledge representation mechanism of frames with the CNM happens at the diagnosis frames level. The diagnosis frames store symbolic representations of knowledge contained in the neural networks. The system's inference machine operates under an integrated manner with both knowledge representation paradigms. The learning machine provides the means for automatic knowledge acquisition and for knowledge refinement. It is composed by two modules: the inductive and the deductive learning component. The first one uses CNM methods to refine the neural network knowledge. The latter follows a strategy that reorganizes the neural networks, generating new problem solving models. The implemented HYCONES system is presented, detailing the integration between the symbolic and the connectionist approach. To validate HYCONES, five versions of a hybrid knowledge base (HKB) for the diagnosis of the three most common congenital heart diseases at the Institute de Cardiologia - RS were constructed and tested. The first version of the HKB, named B1 for validation purposes, is based on the mean knowledge graphs of 22 experts in congenital heart diseases, from four important Brazilian cardiological institutions. These KG were directly translated to CNM neural networks. The second version of the HKB, named B3 for validation purposes, contains the mean knowledge graphs of 23 non-experts, i.e., general cardiologists, from the Institute of Cardiology of RS. The same method used to built B1 was invoked here: direct translation from the knowledge graphs to CNM neural networks. The second and fourth versions of HKB, named B2 and B4 respectively, consist of trained versions of B1 and B3. To create these trained versions, the CNM neural networks of B1 and B3 were submitted to deductive learning procedures. Finally, the fifth version of HKB, B5, was automatically created, based on the training of the case database. The results obtained and presented in this document point out to the efficiency of the automatic knowledge acquisition methods and the deductive learning techniques implemented, through the reorganization and training of the neural networks. The main contributions of this research are the design of a mechanism for the integration of frames and neural networks, the specification of the learning methods for the hybrid model and the analysis of factors such as specificity and sensibility in the process of automatic knowledge acquisition.
|
168 |
Uso de Seleção de Características da Wikipedia na Classificação Automática de Textos. / Selection of Wikipedia features for automatic text classificationAlvarenga, Leonel Diógenes Carvalhaes 20 September 2012 (has links)
Submitted by Cássia Santos (cassia.bcufg@gmail.com) on 2014-07-31T14:43:10Z
No. of bitstreams: 2
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
uso_de_selecao_de_caracteristicas_da_wikipedia_na_classificacao_automatica_de_textos.pdf: 1449954 bytes, checksum: 9086dec3868b6b703340b550c614d33d (MD5) / Made available in DSpace on 2014-07-31T14:43:10Z (GMT). No. of bitstreams: 2
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
uso_de_selecao_de_caracteristicas_da_wikipedia_na_classificacao_automatica_de_textos.pdf: 1449954 bytes, checksum: 9086dec3868b6b703340b550c614d33d (MD5)
Previous issue date: 2012-09-20 / Fundação de Amparo à Pesquisa do Estado de Goiás - FAPEG / The traditional methods of text classification typically represent documents only as a
set of words, also known as "Bag of Words"(BOW). Several studies have shown good
results on making use of thesauri and encyclopedias as external information sources,
aiming to expand the BOW representation by the identification of synonymy and
hyponymy relationships between present terms in a document collection. However,
the expansion process may introduce terms that lead to an erroneous classification. In
this paper, we propose the use of feature selection measures in order to select features
extracted from Wikipedia in order to improve the efectiveness of the expansion
process. The study also proposes a feature selection measure called Tendency Factor
to One Category (TF1C), so that the experiments showed that this measure proves
to be competitive with the other measures Information Gain, Gain Ratio and Chisquared,
in the process, delivering the best gains in microF1 and macroF1, in most
experiments. The full use of features selected in this process showed to be more stable
in assisting the classification, while it showed lower performance on restricting its
insertion only to documents of the classes in which these features are well punctuated
by the selection measures. When applied in the Reuters-21578, Ohsumed first -
20000 and 20Newsgroups collections, our approach to feature selection allowed the
reduction of noise insertion inherent in the expansion process, and improved the
results of use hyponyms, and demonstrated that the synonym relationship from
Wikipedia can also be used in the document expansion, increasing the efectiveness
of the automatic text classification. / Os métodos tradicionais de classificação de textos normalmente representam documentos
apenas como um conjunto de palavras, também conhecido como BOW (do inglês, Bag of Words). Vários estudos têm mostrado bons resultados ao utilizar-se de tesauros e enciclopédias como fontes externas de informações, objetivando expandir a representação BOW a partir da identificação de relacionamentos de sinonômia e hiponômia entre os termos presentes em uma coleção de documentos. Todavia, o processo
de expansão pode introduzir termos que conduzam a uma classificação errônea do documento. No presente trabalho, propõe-se a aplicação de medidas de avaliação de termos para a seleção de características extraídas da Wikipédia, com o objetivo de melhorar a eficácia de sua utilização durante o processo de expansão de documentos. O estudo também propõe uma medida de seleção de características denominada
Fator de Tendência a uma Categoria (FT1C), de modo que os experimentos realizados demonstraram que esta medida apresenta desempenho competitivo com as medidas Information Gain, Gain Ratio e Chi-squared, neste processo, apresentando os melhores ganhos de microF1 e macroF1, na maioria dos experimentos realizados. O uso integral das características selecionadas neste processo, demonstrou auxiliar a classificação de forma mais estável, ao passo que apresentou menor desempenho ao
se restringir sua inserção somente aos documentos das classes em que estas características são bem pontuadas pelas medidas de seleção. Ao ser aplicada nas coleções Reuters-21578, Ohsumed rst-20000 e 20Newsgroups, a abordagem com seleção de características permitiu a redução da inserção de ruídos inerentes do processo de expansão e potencializou o uso de hipônimos, assim como demonstrou que as relações de sinonômia da Wikipédia também podem ser utilizadas na expansão de documentos, elevando a eficácia da classificação automática de textos.
|
169 |
Adaptación de pilotos al glass-cockpitSorin, Jacques 26 September 2003 (has links)
Se presenta una propuesta de diseño de cabina de pilotaje de aviones cuyo objetivo es ayudar la adaptación de los pilotos al pilotaje de los aviones de pasajeros de tipo glass-cockpit. Se acompaña esta propuesta de una descripción de conjunto de la relación piloto-avión tal como evoluciona desde que el piloto aprende a pilotar la primera avioneta de escuela hasta que aborda los aviones de transporte de pasajeros. Esta descripción abarca elementos cognitivos y afectivo-emocionales de la relación persona-máquina.Para realizar esta propuesta se efectúa en primer lugar una búsqueda de información que incluye a la vez fuentes escritas y fuentes orales. Las fuentes de información escritas son estudios del glass-cockpit realizados desde la ergonomía, la psicología cognitiva y la socio-antropología, y textos escritos por un constructor de glass-cockpit y por pilotos. Las fuentes orales son entrevistas a ergónomos que estudian el glass-cockpit, pilotos de glass-cockpit y médicos de pilotos de glass-cockpit.En segundo lugar, se realizan: - entrevistas cualitativas en profundidad a pilotos- acompañamiento y observación de estos pilotos a bordo, durante vuelos- ejercicios de dibujo: se solicita a los pilotos que indiquen, en una reconstitución gráfica de la cabina, en qué partes de la cabina (en qué instrumentos, mandos, zonas...) sienten ruido, vibración, sensación de movimiento, sensación de control, sensación de placer y de tensión.Se realizan estas indagaciones en pilotos situados en distintos momentos de su recorrido profesional (desde el aprendizaje inicial en escuela de pilotaje hasta el trabajo cotidiano en glass-cockpit de compañías aéreas) ya que el glass-cockpit no es el primer avión del piloto: este aparato será pilotado respecto a un 'pasado' hecho de otros aviones, pasado que influirá tanto a nivel cognitivo como emocional. Importa por tanto conocer este pasado para tener una visión más completa de la relación global piloto-avión. Las indagaciones efectuadas permiten saber en qué consiste aprender a pilotar un avión, y la importancia de su control; se obtiene también una visión preliminar del conjunto de las exigencias cognitivas y emocionales relacionadas con el pilotaje. En base a los datos recogidos, se elabora una propuesta de diseño de cabina de pilotaje con propuestas alternativas para todos aquellos elementos del glass-cockpit que han recibido comentarios negativos en las entrevistas y en la literatura. Se presenta esta propuesta a pilotos de glass-cockpit para su evaluación. Es percibida como una herramienta de formación para hacer que el paso entre las avionetas bimotor (de escuela, o de las primeras experiencias profesionales) y los glass-cockpit resulte menos difícil para los pilotos. El diseño propuesto se podría instalar en las avionetas bimotor, o reproducir en simuladores de formación. / A cockpit layout aimed at helping pilots' adaptation to glass-cockpit airliners is presented, as well as a description of the pilot-aircraft relationship as it evolves since the first single-propeller aircraft used at the beginning of flight training, up to glass-cockpits flown in airlines. The description shows cognitive and affective elements of the person-machine relationship.To realize the layout and the description an information search was fulfilled. Its first step involved the gathering of written and oral data. Written data consulted were the ergonomic, psychologic and socio-anthropologic existing analysis of glass-cockpits, as well as texts made by a glass-cockpit builder and by pilots. Oral data was derived from interviews made to ergonomists studying glass-cockpits, glass-cockpit pilots, and physicians of glass-cockpit pilots.The second step of information gathering involved:- qualitative interviews to pilots- accompanying the interviewed pilots on board aircraft- the realization of specific drawings: the pilots were asked to show, in a graphic representation of the cockpit, where (in which instruments, controls, zones...) they felt noise, vibration, the feeling of movement, the feeling of control, pleasure, and stress.These inquiries were made with pilots placed at different moments of a professional career (students flying single-propeller training aircraft, intermediates flying twin propellers, and full professional pilots flying classic jetliners and glass-cockpits). As glass-cockpits are not the first airplanes flown in a career, they will be used under the cognitive and affective influence of a 'past' made of several airplanes. It was thus important to know this past in order to derive a fuller vision of the pilot-aircraft relationship.The information gathered enabled to better describe what implies learning to fly and the importance of controlling an aircraft, both from a cognitive and an affective point of view. A cockpit layout was designed, featuring alternative designs for all those glass-cockpit elements that received negative feedback in the interviews and in the literature. The proposed layout was assessed by glass-cockpit pilots. They saw it as a training tool to lessen the complexity gap that the pilots have to overcome when transitioning, in their careers, from twin propeller aircraft to glass-cockpits. This layout could in the future be fitted to propeller aircraft used for training or could be reproduced in flight training simulators.
|
170 |
[en] MACHINE LEARNING FOR SENTIMENT CLASSIFICATION / [pt] APRENDIZADO DE MÁQUINA PARA O PROBLEMA DE SENTIMENT CLASSIFICATIONPEDRO OGURI 18 May 2007 (has links)
[pt] Sentiment Analysis é um problema de categorização de texto
no qual deseja-se identificar opiniões favoráveis e
desfavoráveis com relação a um tópico.
Um exemplo destes tópicos de interesse são organizações e
seus produtos. Neste problema, documentos são
classificados pelo sentimento, conotação,
atitudes e opiniões ao invés de se restringir aos fatos
descritos neste. O principal desafio em Sentiment
Classification é identificar como sentimentos são
expressados em textos e se tais sentimentos indicam uma
opinião positiva (favorável) ou negativa (desfavorável)
com relação a um tópico. Devido ao crescente volume de
dados disponível na Web, onde todos tendem
a ser geradores de conteúdo e expressarem opiniões sobre
os mais variados assuntos, técnicas de Aprendizado de
Máquina vem se tornando cada vez mais atraentes.
Nesta dissertação investigamos métodos de Aprendizado de
Máquina para Sentiment Analysis. Apresentamos alguns
modelos de representação de documentos como saco de
palavras e N-grama. Testamos os classificadores
SVM (Máquina de Vetores Suporte) e Naive Bayes com
diferentes modelos de representação textual e comparamos
seus desempenhos. / [en] Sentiment Analysis is a text categorization problem in
which we want to
identify favorable and unfavorable opinions towards a
given topic. Examples
of such topics are organizations and its products. In this
problem, docu-
ments are classifed according to their sentiment,
connotation, attitudes and
opinions instead of being limited to the facts described
in it.
The main challenge in Sentiment Classification is
identifying how sentiments
are expressed in texts and whether they indicate a
positive (favorable) or
negative (unfavorable) opinion towards a topic. Due to the
growing volume
of information available online in an environment where we
all tend to be
content generators and express opinions on a variety of
subjects, Machine
Learning techniques have become more and more attractive.
In this dissertation, we investigate Machine Learning
methods applied to
Sentiment Analysis. We present document representation
models such as
bag-of-words and N-grams.We compare the performance of the
Naive Bayes
and the Support Vector Machine classifiers for each
proposed model
|
Page generated in 0.039 seconds