221 |
EXTRAÇÃO DE SINAIS DE VOZ EM AMBIENTES RUIDOSOS POR DECOMPOSIÇÃO EM FUNÇÕES BASES ESTATISTICAMENTE INDEPENDENTES / EXTRATION OF VOICE SIGNALS IN NOISY ENVIRONMENTS FOR DECOMPOSITION IN FUNCTIONS STATISTICAL INDEPENDENT BASESAbreu, Natália Costa Leite 11 December 2003 (has links)
Made available in DSpace on 2016-08-17T14:52:55Z (GMT). No. of bitstreams: 1
Natalia Costa Leite Abreu.pdf: 841490 bytes, checksum: 00ff55b62f0819b502a66a2304564bf4 (MD5)
Previous issue date: 2003-12-11 / The constant search for the improvement and strengthening of the relationship
between humans and machines turning it more natural is common place. Consequently, the
recognition of speech will turn, easier and practical the handling of equipments supplied with
the capacity to understand the human speech. In this sense and with the use of the available
knowledge information in the literature as how the human brain processes informations, some
suggested methods try to simulate this ability in the computer, especially devoted to the
extraction of a speech signal of mixed sounds, attempting, for example to increase the
recognition and comprehension rate. The extraction of speech can be obtained by measures of
a single-channel or multiple the channels. In order to extract the speech in a single channel, it
is proposed here to use the speech characteristics introducing the concept of efficient
codification, that tries to imitate the way the auditory cortex gets information using the
method of Independent Component Analysis (ICA), getting the basis functions of the input
signals and retrieving the estimated signal even when we add interferences to it. Our
simulations also prove the efficiency of our method against reverberation effects and the
recovery of speech signal by the handling of basis function of other speech signals. This
technique can be used efficiently both to extract a single speech, as well as highlighting new
ways of approaching the speech/speaker recognition problem. / A constante busca para aperfeiçoar e estreitar o relacionamento entre homens e
máquinas, tornando-o mais natural, não é nenhuma novidade. Conseqüentemente, o
reconhecimento da voz possibilitará uma manipulação mais fácil e prática de equipamentos
dotados com a capacidade de compreender a fala humana. Neste sentido e utilizando-se dos
conhecimentos disponíveis na literatura de como o cérebro humano processa informações,
alguns métodos propostos procuram simular computacionalmente essa habilidade, voltados
principalmente à extração de um sinal de voz de uma mistura de sons, na tentativa de, por
exemplo, aumentar a taxa de reconhecimento e inteligibilidade. A extração da voz pode ser
obtida usando medidas de um único ou múltiplos canais. Para extrair uma voz em um único
canal, propomos usar as características da voz pelo conceito de codificação eficiente, que
procura imitar o modo como o córtex auditivo trata as informações, utilizando-se da técnica
de Análise de Componentes Independentes (ICA), obtendo as funções bases dos sinais de
entrada e recuperando o sinal estimado, mesmo quando são adicionadas interferências.
Através de simulações comprovamos também a eficiência da técnica usada, primeiro, na
recuperação de um sinal de voz com a utilização das funções bases de outro sinal e, segundo,
frente a efeitos de reverberação. Esta técnica pode ser usada para extrair uma única fala
eficazmente, como também prenuncia um modo novo de chegar ao problema de
reconhecimento da fala/orador.
|
222 |
MINERAÇÃO DE DADOS: ALGORITMO DA CONFIANÇA INVERSA / DATA MINING: INVERSE ALGORITHM OF CONFIDENCECasanova, Anderson Araújo 28 June 2005 (has links)
Made available in DSpace on 2016-08-17T14:52:55Z (GMT). No. of bitstreams: 1
Anderson Araujo Casanova.pdf: 587331 bytes, checksum: 45bf9a1dbbcfa2f595d1baf7e3651125 (MD5)
Previous issue date: 2005-06-28 / This work presents studies that culminated in the development of a data mining algorithm that
extracts knowledge in a more efficient way and allows for a better use of the collected
information. Decisions based on imprecise information and a lack of criteria can cause the
relatively few resources available to be poorly applied, burdening taxpayers and consequently
the state. This much-needed information which allows for the fairest and most efficient
application of available resources and which would facilitate the work of the users as well as
those who render the services should be based upon consideration of the great variety of
established criteria. The making of a decision should be based upon the evaluation of the most
varied types of data and be analyzed by specialists who can judge which are true needs, so
that the criteria for the search of knowledge may be defined. The Algorithm of Inverse
Confidence - ACI accomplishes data mining using the technique of association rules, and it
proposes a new measure that enlarges the dimension of extracted information through five
fixed rules. ACI also classifies and associates items, using the concept of the fuzzy logic,
through parameters established by the user. ACI was applied in the surgical center of
HUUFMA - Academical Hospital of the Federal University of Maranhão - envisioning the
extraction of knowledge (standards). / Este trabalho apresenta estudos que culminaram no desenvolvimento de um algoritmo de
mineração de dados que, faz extração de conhecimento e que possibilita um melhor
aproveitamento das informações coletadas. Decisões baseadas em informações imprecisas e
com falta de critérios podem fazer com que recursos, de qualquer tipo, sejam mal aplicados. A
informação necessária que tornem a aplicação dos recursos mais justa e eficiente, e que
facilitem o trabalho tanto dos usuários de um determinado serviço quanto aos que prestam o
serviço, devem ser baseadas considerando a grande variedade de critérios estabelecidos. A
tomada de decisão deve ser com base na avaliação dos mais variados tipa de dados e analisada
por especialistas que julguem quais as necessidades, para que os critérios de busca do
conhecimento sejam definidos. O Algoritmo da Confiança Inversa ACI realiza mineração de
dados utilizando a técnica de regras de associação e propõe uma nova medida que amplia a
dimensão das informações extraídas através de cinco regras fixas. O ACI também classifica e
associa itens similares, utilizando o conceito da lógica nebulosa (fuzzy logic), através de
parâmetro estabelecido pelo usuário. O ACI foi aplicado no centro cirúrgico do HUUFMA
Hospital Universitário da Universidade Federal do Maranhão visando à extração de
conhecimento (padrões).
|
223 |
UM FRAMEWORK MULTIAGENTE PARA A PERSONALIZAÇÃO DA WEB BASEADO NA MODELAGEM DE USUÁRIOS E NA MINERAÇÃO DE USO / AN MULTIAGENT FRAMEWORK FOR PERSONALIZATION OF THE WEB BASED ON MODELING OF USERS AND IN THE MINING OF USEMarinho, Leandro Balby 11 March 2005 (has links)
Made available in DSpace on 2016-08-17T14:52:57Z (GMT). No. of bitstreams: 1
Leandro Balby Marinho.pdf: 1280354 bytes, checksum: 9dd7494777864e76ff13f7880d7faa7b (MD5)
Previous issue date: 2005-03-11 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / With the continuous migration of a great diversity of services to the Web, the need for
characterizing the users in this environment increases. For that, components that can
continually perceive their environment and rapidly adapt to its changes are required, thus
reflecting the changes in the user behaviors.
Among the existent approaches for modeling Web users, Web usage mining appears as
one of the most interesting. Through Web usage mining a user can be implicitly and
automatically modeled through his/her usage data, generated from his/her interaction with
the Web.
This work proposes ONTOWUM, a user modeling and usage mining-based multi-agent
framework for Web personalization.
The framework comprises two layers, where four agents are distributed according to their
responsibilities: Interface agent, responsible for both capturing the user browsing
information and performing the adaptation effects; User Modeling agent, responsible for
creating and updating both user models and adaptation models; Acquirer agent,
responsible for creating and updating an usage data repository containing past user
models; and finally, Miner agent, responsible for both discovering group of users with
similar browsing behavior and classifying the current user in these groups. The Interface
and User modeling agents belong to the user information-processing layer, and the
Acquirer and Miner agents belong to the pattern-discovering layer.
The methodology and tool used to guide the analyses and design phases were MADEM
( Multi-Agent Domain Engineering Methodology ) and ONTOMADEM, respectively. For the
implementation of ONTOWUM it was used the JADE framework. / Com a incessante migração das mais diversas categorias de serviços ao ambiente Web, a
necessidade de caracterizar os usuários nesse ambiente nunca foi tão presente. Para
isso, são necessários componentes que tenham a habilidade de continuamente perceber
o ambiente e rapidamente se adaptarem a ele, refletindo assim as próprias mudanças no
comportamento do usuário.
Dentre as abordagens existentes para a modelagem de usuários da Web, a mineração de
uso da Web figura entre as mais interessantes, pois através dessa abordagem pode-se
modelar o usuário implicitamente através dos dados de uso gerados através da sua
interação com a Web.
Este trabalho propõe ONTOMUW", um framework multiagente para a personalização da
Web baseado na modelagem de usuários e na mineração de uso.
O framework é composto por duas camadas onde se distribuem quatro agentes de acordo
com suas responsabilidades: agente Interfaceador, responsável tanto pela captura das
informações provenientes da navegação do usuário quanto pela execução da adaptação;
agente Modelador, responsável por criar e atualizar tanto modelos de usuários quanto
modelos de adaptação; agente Aquisitor, responsável pela criação e manutenção de um
repositório de dados de uso contendo os modelos de usuários passados; e, finalmente,
agente Minerador, responsável tanto pela descoberta de grupos de usuários com
comportamento de navegação similar quanto pela classificação do usuário corrente nos
grupos descobertos. Os agentes Interfaceador e Modelador compõem a camada de
processamento de informações do usuário, enquanto que os agentes Aquisitor e
Minerador compõem a camada de descoberta de padrões.
A metodologia e ferramenta utilizadas para guiar o processo de análise e projeto de
domínio do ONTOMUW foram a MADEM ( Multi-Agent Domain Engineering
Methodology ) e a ONTOMADEM respectivamente. Para a implementação do framework
utilizou-se o ambiente JADE.
|
224 |
UM MÉTODO PARA SELEÇÃO DE SOFTWARE NA ENGENHARIA DE REQUISITOS / A METHOD FOR SELECTION OF SOFTWARE IN SOFTWARE ENGINEERING REQUIREMENTSCANTANHÊDE FILHO, Paulino Almeida 14 March 2005 (has links)
Made available in DSpace on 2016-08-17T14:52:57Z (GMT). No. of bitstreams: 1
Paulino de Almeida Cantanhede Filho.pdf: 1682767 bytes, checksum: a5fce1801fd45fddf7e98305e0e9b053 (MD5)
Previous issue date: 2005-03-14 / Guidelines for evaluation and selection of COTS (Commercial-Off-The-Shelf) products.
Comes a methodology for the Development based on COTS (DBC) in the Requirements
Engineering, being approached the evaluation phases and selection of DBC. The method is
divided in three phases, that are divided in activities orienting by actions that seek to the
quality of the information for a socket of decision in an automated and oriented way for
defined evaluation criteria during the Requirements Engineering. This approach divide the
requirements in three levels: Fundamental, Contractual and Desirable. The functional and
no-functional requirements are treated in an equalitarian way. / Este trabalho apresenta diretrizes para avaliação e seleção de produtos COTS (Commercial-
Off-The-Shelf). Apresenta-se uma metodologia para o Desenvolvimento Baseado em COTS
(DBC) na Engenharia de Requisitos, abordando-se as fases de avaliação e seleção do DBC. O
método está dividido em três fases, que por sua vez estão divididas em atividades direcionadas
por ações que visam à qualidade das informações para uma tomada de decisão de forma
automatizada e orientada por critérios de avaliação definidos durante a Engenharia de
Requisitos. Esta abordagem divide os requisitos em três níveis, são eles: Fundamental,
Contratual e Desejável. Os requisitos funcionais e não-funcionais são tratados de forma
igualitária.
|
225 |
UM FRAMEWORK PARA O GERENCIAMENTO DA INFORMAÇÃO DE LOCALIZAÇÃO / A FRAMEWORK FOR THE MANAGEMENT OF INFORMATION THE LOCATIONMonteiro, Erich Farias 03 October 2005 (has links)
Made available in DSpace on 2016-08-17T14:53:00Z (GMT). No. of bitstreams: 1
Erich Farias Monteiro.pdf: 1651070 bytes, checksum: 78b0c023947fd323c362d0dc88c2ac6d (MD5)
Previous issue date: 2005-10-03 / FUNDAÇÃO SOUSÂNDRADE DE APOIO AO DESENVOLVIMENTO DA UFMA / This work presents the actual stage for the mobile objects location and for the development of
location based applications or services (LBS). We make a review of available system
architectures and functional requirements to the development of location based applications.
Also we suggest an architecture to this class of applications that encapsulate the location
information management that is completely reusable. To implement this architecture we
describe the implementation of a reusable framework to the location information
management, that makes available functionalities to the efficient management of mobile
objects location information, that is evaluated trough the development of an location based
application to track mobiles objects in an historical site of São Luis city the capital of
Maranhão. / Apresenta-se o estado atual das tecnologias para a localização de objetos móveis e para o
desenvolvimento de sistemas baseados em localização (LBS). Realiza-se uma revisão das
arquiteturas e dos requisitos funcionais para a construção de aplicações baseadas em
localização e propõe-se uma arquitetura para essas aplicações onde a gerência da informação
de localização está desacoplada e pode ser facilmente reutilizada, levando à proposta e
implementação de um framework reutilizável para a gerência da informação de localização,
que disponibiliza funcionalidades para a gestão eficiente da localização dos objetos móveis.
Finalmente, avalia-se a utilização do framework proposto através do desenvolvimento de uma
aplicação LBS para o rastreamento dos usuários que estiverem transitando na região do centro
histórico da cidade de São Luís, disponibilizando recursos de rastreamento, determinação de
proximidade e consultas de rotas percorridas pelo usuário.
|
226 |
MADAE-IDE: Um ambiente de desenvolvimento de software baseado no conhecimento para o reuso composicional no desenvolvimento de sistemas multiagente / MADA-IDE: An environment for developing software based knowledge for reuse in the development of compositional systems multiagentCavalcante, Uiratan Alves de Sousa 01 December 2009 (has links)
Made available in DSpace on 2016-08-17T14:53:06Z (GMT). No. of bitstreams: 1
UIRATAN ALVES DE SOUSA CAVALCANTE.pdf: 4868154 bytes, checksum: 71d6895bc849a94e0bac2dba2b713adf (MD5)
Previous issue date: 2009-12-01 / The agent-oriented development paradigm has achieved a high maturity level over
the last decade. However, integrated development environments supporting all
phases of agent-oriented development are still missing. MADAE-Pro is a process for
the development and reuse of family of multi-agent systems and integrates two
complementary process. One is based on Domain Engineering concepts, aiming in
creating artifacts of reusable software in the development of an application family in a
particular domain problem, and the other is based on Application Engineering, which
guides the construction of applications based on reusable software artifacts
previously produced in the Domain Engineering process. The environment includes
the ONTORMAS ontology and, through inference rules and semantic search over its
instances, automates the modeling tasks of the MADAE-Pro process. These features
allow for the developer productivity gains and for maintaining the consistence of the
knowledge-base, ensuring the success of the reuse in future applications. / O paradigma de desenvolvimento orientado a agentes tem atingido um alto nível de
maturidade na última década. Entretanto, ainda faltam ambientes integrados de
desenvolvimento de software que suportem todas as fases do desenvolvimento
orientado a agentes. MADAE-Pro é um processo para o desenvolvimento e reuso de
famílias de sistemas multiagente e integra dois subprocessos complementares. Um
é baseado nos conceitos da Engenharia de Domínio, isto é, visa construir artefatos
reutilizáveis que representem uma família de aplicações e o outro, baseado na
Engenharia de Aplicações, guia o desenvolvimento de uma aplicação específica
reutilizando os produtos do primeiro subprocesso. Este trabalho propõe MADAEIDE,
um ambiente integrado de desenvolvimento baseado no conhecimento que
automatiza o processo desenvolvimento de software multiagente MADAE-Pro. O
ambiente agrega a ontologia ONTORMAS e, através de regras de inferência e
buscas semânticas diretamente sobre suas instâncias, automatiza as tarefas de
modelagem do processo MADAE-Pro. Estas características levam a um ganho de
produtividade por parte do desenvolvedor, além de manter uma base de
conhecimento consistente, garantido o sucesso do reuso em futuras aplicações.
|
227 |
MODELAGEM PARA O SOFTWARE VIRTUAL-TANEB BASEADO NA TEORIA DA RESPOSTA AO ITEM PARA AVALIAR O RENDIMENTO DOS ALUNOS / MODELING SOFTWARE FOR VIRTUAL Taneb-BASED THEORY THE RESPONSE TO ITEM TO EVALUATE THE PERFORMANCE OF STUDENTSVeras, Jaclason Machado 26 February 2010 (has links)
Made available in DSpace on 2016-08-17T14:53:07Z (GMT). No. of bitstreams: 1
Jaclason Machado Veras.pdf: 1682090 bytes, checksum: 035fe122eaaac20d2dba05af3e7eab78 (MD5)
Previous issue date: 2010-02-26 / This work proposes a general modeling for an educational software which will
serve to verify the knowledge of geometry of fourth grade students of elementary
school. The Virtual-Taneb will be based on Basic Education Evaluation System
(SAEB) which is an evaluative instrument used in Brazil originated from the
guidelines of the National Assessment of Educational Progress (NAEP), which is
currently applied manually by written tests. One of the motivations for developing
this tool was to reduce the delivery time of obtained results through the resolution of
written tests, obeying Basic Education Courseworks. Another motivation was the
inclusion of the Item Response Theory (IRT) as an educational evaluation quantifier
and qualifier, allowing a statistical analysis from items such as central elements of
tests, since the need to monitor the development process of educational evaluation
systems. However, there are factors that suppress the use of IRT on a large scale,
such as customizing each application and the mathematical complexity of the
methods involved. This prototype of educational software will be applied to
elementary schools in the State of Maranhão, Brazil. It will be adapted to the
cognitive level of students through the inclusion of recourses from the area of
Artificial Intelligence and besides it will enable an effective analysis of students
knowledge using the IRT on the responses made. Virtual-Taneb will provide some
benefits to the Brazilian society, as to favor a long-term reduction of economic
investment in the evaluation process, resulting in improvements for present and
future generations. Another benefit is the adequation possibility of this software to
other evaluation systems, as an example, the International Program of Students
Assessment (PISA), the National Examination of High School (ENEM), Prova Brasil,
among others. In the future, though the adaptation of the Virtual-Taneb software,
there will be the possibility of adding other subjects to the test. / Esse trabalho propõe uma modelagem geral para um software educacional
que atuará na verificação do conhecimento de geometria de alunos da quarta série
do ensino fundamental. O Virtual-TANEB estará baseado no Sistema de Avaliação
da Educação Básica (SAEB) que é um instrumento avaliativo usado no Brasil
originado a partir das diretrizes do National Assessment of Educational Progress
(NAEP), que, atualmente, é aplicado de forma manual por meio de cadernos de
provas. Uma das motivações para o desenvolvimento dessa ferramenta foi reduzir o
tempo de entrega dos resultados obtidos, através da resolução dos cadernos de
provas, obedecendo à Matriz Curricular da Educação Básica. Outra motivação foi a
inclusão da Teoria da Resposta ao Item (TRI) como quantificadora e qualificadora da
avaliação educacional, permitindo uma análise estatística a partir de itens como
elementos centrais da prova, visto a necessidade de acompanhar o processo de
evolução dos sistemas de avaliação educacional. Porém, existem fatores que
suprimem a utilização da TRI em larga escala, tais como: a personalização de cada
aplicação e a complexidade matemática dos métodos envolvidos. Este protótipo de
software educacional será aplicado às escolas do ensino fundamental no Estado do
Maranhão, Brasil. Ele se adaptará ao nível cognitivo dos alunos através da inclusão
de recursos provenientes da área de Inteligência Artificial e, além disso, possibilitará
uma análise mais efetiva do conhecimento dos alunos usando a TRI sobre as
respostas efetuadas. O Virtual-TANEB irá proporcionar alguns benefícios para a
sociedade, como favorecer a longo prazo a redução de investimento econômico no
processo de avaliação, resultando em melhorias para gerações presentes e futuras.
Outro beneficio é a adequação desse software a outros sistemas de avaliação, por
exemplo, Programa Internacional de Avaliação de Alunos (PISA), Exame Nacional
do Ensino Médio (ENEM), Prova Brasil, dentre outros. No futuro, mediante uma
adaptação no software Virtual-TANEB, haverá a possibilidade de realizar a inclusão
de outras disciplinas à prova.
|
228 |
APLICAÇÃO DE TÉCNICAS DE APRENDIZADO DE MÁQUINA PARA CLASSIFICAÇÃO DE DEPÓSITOS MINERAIS BASEADA EM MODELO TEOR-TONELAGEM / APPLICATION OF MACHINE LEARNING TECHNIQUES FOR CLASSIFICATION OF MINERAL DEPOSITS CONTENT-BASED MODEL TONNAGERocha, Jocielma Jerusa Leal 01 July 2010 (has links)
Made available in DSpace on 2016-08-17T14:53:11Z (GMT). No. of bitstreams: 1
Jocielma Jerusa Leal Rocha.pdf: 3008647 bytes, checksum: 785c07837e5e5bb39cb7685000c9d145 (MD5)
Previous issue date: 2010-07-01 / Classification of mineral deposits into types is traditionally done by experts. Since there are reasons to believe that computational techniques can aid this classification process and make it less subjective, the research and investigation of different methods of clustering and classification to this domain may be appropriate. The way followed by researches in this domain has directed for the use of information available in large public databases and the application of supervised machine learning techniques. This work uses information from mineral deposits available in grade-tonnage models published in the literature to conduct research about the suitability of these three techniques: Decision Tree, Multilayer Perceptron Network and Probabilistic Neural Network. Altogether, 1,861 mineral deposits of 18 types are used. The types refer to grade-tonnage models. Initially, each of these three techniques are used to classify mineral deposits into 18 types. Analysis of these results suggested that some deposits types could be treated as a group and also that the classification could be divided into two levels: the first level to classify deposits considering groups of deposits and the second level to classify deposits previously identified on a group into some of specific type belonging to that group. A series of experiments was carried out in order to build a two levels model from the combination of the techniques used, which resulted in an average accuracy rate of 85% of cases. Patterns of errors occurrence were identified within groups in types of deposits less representative in the database. This represents a promising way to achieve improvement in the process of mineral deposits classification that does not mean increasing in the amount of deposits used or in the amount of characteristics of the deposits. / A classificação de depósitos minerais em tipos tradicionalmente é feita por especialistas no assunto. A possibilidade de que técnicas computacionais auxiliem o processo de classificação e o torne menos subjetivo incentiva a pesquisa e aplicação de diferentes métodos de agrupamento e classificação sobre esse domínio de análise. A evolução das pesquisas nesse domínio tem direcionado os estudos para a utilização de informações disponíveis em grandes bases de dados publicadas e a aplicação de técnicas de aprendizado de máquina supervisionado. Este trabalho utiliza informações de depósitos minerais disponibilizadas em modelos teor-tonelagem publicados na literatura para proceder a investigação da adequabilidade de três dessas técnicas: Árvore de Decisão, Rede Percéptron Multicamadas e Rede Neural Probabilística. Ao todo, são 1.861 depósitos distribuídos em 18 tipos identificados pelo modelo teor-tonelagem. Inicialmente verificou-se o resultado apresentado por cada uma das três técnicas para a classificação dos depósitos em 18 tipos. A análise desses resultados sugeriu a possibilidade de agrupar esses tipos e dividir a classificação em dois níveis: o primeiro nível para classificar os depósitos considerando o agrupamento de tipos e o segundo nível para classificar os depósitos que resultaram em um grupo em um dos tipos específicos daquele grupo. Uma série de experimentos foi realizada no sentido de construir um modelo de classificação em dois níveis a partir da combinação das técnicas utilizadas, o que resultou em uma taxa de acerto média de 85% dos casos e as principais ocorrências de erros foram identificadas dentro de grupos em tipos de depósitos menos representativos na base de dados. Isso representa uma maneira promissora de conseguir melhoria no processo de classificação de depósitos minerais que não implica no aumento da quantidade de depósitos utilizada ou na quantidade de características dos depósitos.
|
229 |
Modelagem da Bolsa de Valores e dos Agentes de Negociação Aplicando AUML e Tropos / Modeling of the Stock Exchange and Trading Agents Applying Auml and TroposCosta Júnior, Fernando Pinheiro 13 December 2010 (has links)
Made available in DSpace on 2016-08-17T14:53:15Z (GMT). No. of bitstreams: 1
Fernando Pinheiro Costa Junior.pdf: 2747809 bytes, checksum: 341087c9b5282e045ab5af119473be1e (MD5)
Previous issue date: 2010-12-13 / The present study attempts, through the methodology TROPOS, modeling a Multi-
Agent System for Stock Exchange whose goal is make negotiations among agents in
a Virtual Stock Exchange. The agents will act as investors in the Stock Market
making the purchase and sale of stocks. This model is intended to specify agents
with the ability to decide the best time for investing according to market indicators,
i.e., when is the better time to buy or sell stocks. The model can identify the agents,
the interaction protocols between agents, the applied technologies and the structures
of the application. Therefore, the JADE platform will support the development of
agents regarding the negotiation process. Such platform will provide communication
between agents creating Broker Agents to provide communication with other
Intermediate Agents whose information is collected in its Knowledge Base in order to
make the negotiation. The after examining this study, conclusions could be taken
about the subject explained and future suggested improvements can be
implemented. / O presente trabalho busca, através da metodologia TROPOS, modelar um Sistema
Multi-Agente para Bolsa de Valores com o objetivo de realizar negociações entre
agentes em uma Bolsa de Valores virtual. Os agentes irão desempenhar a função de
investidores na Bolsa de Valores, efetuando operações de compra e venda de
ações. Esta modelagem tem o propósito de especificar agentes com a capacidade
de decidir qual o melhor momento para realização dos investimentos pautado nos
indicadores de mercado, ou seja, qual a melhor hora para comprar ou vender títulos
de créditos. Neste sentido, serão identificados os agentes, os protocolos de
interação entre agentes, as tecnologias aplicadas, as estruturas da aplicação.
Portanto, a plataforma JADE dará suporte para o desenvolvimento dos agentes no
tocante ao processo de negociação. Tal plataforma proporcionará a comunicação
entre os agentes, criando Agentes Corretores a fim de proporcionar a comunicação
com outro Agente Intermediário com as informações adquiridas em sua Base de
Conhecimento para que assim seja realizada a negociação. Assim, após a análise
desta obra poderão ser retiradas conclusões acerca do tema explanado e sugeridas
melhorias para que no futuro possam ser implementadas.
|
230 |
CLASSIFICAÇÃO DE MASSAS NA MAMA A PARTIR DE IMAGENS MAMOGRÁFICAS USANDO ÍNDICE DE DIVERSIDADE DE SHANNON-WIENER / CLASSIFICATION OF BREAST MASSES IN MAMMOGRAPHY IMAGES FROM USING INDEX OF SHANNON-WIENER DIVERSITYSousa, Ulysses Santos 13 May 2011 (has links)
Made available in DSpace on 2016-08-17T14:53:17Z (GMT). No. of bitstreams: 1
Ulysses Santos Sousa.pdf: 1410915 bytes, checksum: 88235f7f4a3bc07a4da1b27c23dc71ca (MD5)
Previous issue date: 2011-05-13 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Cancer is one of the biggest health problems worldwide, and the breast cancer is the one that causes more deaths among women. Also it is the second most frequent type in the world. The chances of survival for a patient with breast cancer increases the sooner this disease is discovered. Several Computer Aided Detection/Diagnosis Systems has been used to assist health professionals. This work presents a methodology to discriminate and classify mammographic tissues regions in mass and non-mass. For this purpose the Shannon-Wiener‟s Diversity Index, which is applied to measure the biodiversity in ecosystem, is used to describe pattern of breast image region with four approaches: global, in circles, in rings and directional. After, a Support Vector Machine is used to classify the regions in mass and non-mass. The methodology presents promising results for classification of mammographic tissues regions in mass and non-mass, achieving 99.85% maximum accuracy. / O câncer é um dos maiores problemas de saúde mundial, sendo o câncer de mama o que mais causa óbito entre as mulheres e o segundo tipo mais freqüente no mundo. As chances de uma paciente sobreviver ao câncer de mama aumentam à medida que a doença é descoberta mais cedo. Diversos Sistemas de Detecção e Diagnóstico auxiliados por computador (Computer Aided Detection/Diagnosis) têm sido utilizados para auxiliar profissionais de saúde. Este trabalho apresenta uma metodologia de discriminação e classificação de regiões de tecidos de mamografias em massa e não massa. Para este propósito utiliza-se o Índice de Diversidade de Shannon-Wiener, comumente aplicado para medir a biodiversidade em um ecossistema, para descrever padrões de regiões de imagens de mama com quatro abordagens: global, em círculos, em anéis e direcional. Em seguida, utiliza-se o classificador Support Vector Machine para classificar estas regiões em massa e não massa. A metodologia apresenta resultados promissores para a classificação de regiões de tecidos de mamografia em massa e não massa, obtendo uma acurácia máxima de 99,85%.
|
Page generated in 0.0363 seconds