• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 251
  • 2
  • 2
  • Tagged with
  • 256
  • 256
  • 256
  • 242
  • 235
  • 235
  • 234
  • 199
  • 132
  • 125
  • 103
  • 58
  • 51
  • 37
  • 35
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

EXTRAÇÃO DE SINAIS DE VOZ EM AMBIENTES RUIDOSOS POR DECOMPOSIÇÃO EM FUNÇÕES BASES ESTATISTICAMENTE INDEPENDENTES / EXTRATION OF VOICE SIGNALS IN NOISY ENVIRONMENTS FOR DECOMPOSITION IN FUNCTIONS STATISTICAL INDEPENDENT BASES

Abreu, Natália Costa Leite 11 December 2003 (has links)
Made available in DSpace on 2016-08-17T14:52:55Z (GMT). No. of bitstreams: 1 Natalia Costa Leite Abreu.pdf: 841490 bytes, checksum: 00ff55b62f0819b502a66a2304564bf4 (MD5) Previous issue date: 2003-12-11 / The constant search for the improvement and strengthening of the relationship between humans and machines turning it more natural is common place. Consequently, the recognition of speech will turn, easier and practical the handling of equipments supplied with the capacity to understand the human speech. In this sense and with the use of the available knowledge information in the literature as how the human brain processes informations, some suggested methods try to simulate this ability in the computer, especially devoted to the extraction of a speech signal of mixed sounds, attempting, for example to increase the recognition and comprehension rate. The extraction of speech can be obtained by measures of a single-channel or multiple the channels. In order to extract the speech in a single channel, it is proposed here to use the speech characteristics introducing the concept of efficient codification, that tries to imitate the way the auditory cortex gets information using the method of Independent Component Analysis (ICA), getting the basis functions of the input signals and retrieving the estimated signal even when we add interferences to it. Our simulations also prove the efficiency of our method against reverberation effects and the recovery of speech signal by the handling of basis function of other speech signals. This technique can be used efficiently both to extract a single speech, as well as highlighting new ways of approaching the speech/speaker recognition problem. / A constante busca para aperfeiçoar e estreitar o relacionamento entre homens e máquinas, tornando-o mais natural, não é nenhuma novidade. Conseqüentemente, o reconhecimento da voz possibilitará uma manipulação mais fácil e prática de equipamentos dotados com a capacidade de compreender a fala humana. Neste sentido e utilizando-se dos conhecimentos disponíveis na literatura de como o cérebro humano processa informações, alguns métodos propostos procuram simular computacionalmente essa habilidade, voltados principalmente à extração de um sinal de voz de uma mistura de sons, na tentativa de, por exemplo, aumentar a taxa de reconhecimento e inteligibilidade. A extração da voz pode ser obtida usando medidas de um único ou múltiplos canais. Para extrair uma voz em um único canal, propomos usar as características da voz pelo conceito de codificação eficiente, que procura imitar o modo como o córtex auditivo trata as informações, utilizando-se da técnica de Análise de Componentes Independentes (ICA), obtendo as funções bases dos sinais de entrada e recuperando o sinal estimado, mesmo quando são adicionadas interferências. Através de simulações comprovamos também a eficiência da técnica usada, primeiro, na recuperação de um sinal de voz com a utilização das funções bases de outro sinal e, segundo, frente a efeitos de reverberação. Esta técnica pode ser usada para extrair uma única fala eficazmente, como também prenuncia um modo novo de chegar ao problema de reconhecimento da fala/orador.
222

MINERAÇÃO DE DADOS: ALGORITMO DA CONFIANÇA INVERSA / DATA MINING: INVERSE ALGORITHM OF CONFIDENCE

Casanova, Anderson Araújo 28 June 2005 (has links)
Made available in DSpace on 2016-08-17T14:52:55Z (GMT). No. of bitstreams: 1 Anderson Araujo Casanova.pdf: 587331 bytes, checksum: 45bf9a1dbbcfa2f595d1baf7e3651125 (MD5) Previous issue date: 2005-06-28 / This work presents studies that culminated in the development of a data mining algorithm that extracts knowledge in a more efficient way and allows for a better use of the collected information. Decisions based on imprecise information and a lack of criteria can cause the relatively few resources available to be poorly applied, burdening taxpayers and consequently the state. This much-needed information which allows for the fairest and most efficient application of available resources and which would facilitate the work of the users as well as those who render the services should be based upon consideration of the great variety of established criteria. The making of a decision should be based upon the evaluation of the most varied types of data and be analyzed by specialists who can judge which are true needs, so that the criteria for the search of knowledge may be defined. The Algorithm of Inverse Confidence - ACI accomplishes data mining using the technique of association rules, and it proposes a new measure that enlarges the dimension of extracted information through five fixed rules. ACI also classifies and associates items, using the concept of the fuzzy logic, through parameters established by the user. ACI was applied in the surgical center of HUUFMA - Academical Hospital of the Federal University of Maranhão - envisioning the extraction of knowledge (standards). / Este trabalho apresenta estudos que culminaram no desenvolvimento de um algoritmo de mineração de dados que, faz extração de conhecimento e que possibilita um melhor aproveitamento das informações coletadas. Decisões baseadas em informações imprecisas e com falta de critérios podem fazer com que recursos, de qualquer tipo, sejam mal aplicados. A informação necessária que tornem a aplicação dos recursos mais justa e eficiente, e que facilitem o trabalho tanto dos usuários de um determinado serviço quanto aos que prestam o serviço, devem ser baseadas considerando a grande variedade de critérios estabelecidos. A tomada de decisão deve ser com base na avaliação dos mais variados tipa de dados e analisada por especialistas que julguem quais as necessidades, para que os critérios de busca do conhecimento sejam definidos. O Algoritmo da Confiança Inversa ACI realiza mineração de dados utilizando a técnica de regras de associação e propõe uma nova medida que amplia a dimensão das informações extraídas através de cinco regras fixas. O ACI também classifica e associa itens similares, utilizando o conceito da lógica nebulosa (fuzzy logic), através de parâmetro estabelecido pelo usuário. O ACI foi aplicado no centro cirúrgico do HUUFMA Hospital Universitário da Universidade Federal do Maranhão visando à extração de conhecimento (padrões).
223

UM FRAMEWORK MULTIAGENTE PARA A PERSONALIZAÇÃO DA WEB BASEADO NA MODELAGEM DE USUÁRIOS E NA MINERAÇÃO DE USO / AN MULTIAGENT FRAMEWORK FOR PERSONALIZATION OF THE WEB BASED ON MODELING OF USERS AND IN THE MINING OF USE

Marinho, Leandro Balby 11 March 2005 (has links)
Made available in DSpace on 2016-08-17T14:52:57Z (GMT). No. of bitstreams: 1 Leandro Balby Marinho.pdf: 1280354 bytes, checksum: 9dd7494777864e76ff13f7880d7faa7b (MD5) Previous issue date: 2005-03-11 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / With the continuous migration of a great diversity of services to the Web, the need for characterizing the users in this environment increases. For that, components that can continually perceive their environment and rapidly adapt to its changes are required, thus reflecting the changes in the user behaviors. Among the existent approaches for modeling Web users, Web usage mining appears as one of the most interesting. Through Web usage mining a user can be implicitly and automatically modeled through his/her usage data, generated from his/her interaction with the Web. This work proposes ONTOWUM, a user modeling and usage mining-based multi-agent framework for Web personalization. The framework comprises two layers, where four agents are distributed according to their responsibilities: Interface agent, responsible for both capturing the user browsing information and performing the adaptation effects; User Modeling agent, responsible for creating and updating both user models and adaptation models; Acquirer agent, responsible for creating and updating an usage data repository containing past user models; and finally, Miner agent, responsible for both discovering group of users with similar browsing behavior and classifying the current user in these groups. The Interface and User modeling agents belong to the user information-processing layer, and the Acquirer and Miner agents belong to the pattern-discovering layer. The methodology and tool used to guide the analyses and design phases were MADEM ( Multi-Agent Domain Engineering Methodology ) and ONTOMADEM, respectively. For the implementation of ONTOWUM it was used the JADE framework. / Com a incessante migração das mais diversas categorias de serviços ao ambiente Web, a necessidade de caracterizar os usuários nesse ambiente nunca foi tão presente. Para isso, são necessários componentes que tenham a habilidade de continuamente perceber o ambiente e rapidamente se adaptarem a ele, refletindo assim as próprias mudanças no comportamento do usuário. Dentre as abordagens existentes para a modelagem de usuários da Web, a mineração de uso da Web figura entre as mais interessantes, pois através dessa abordagem pode-se modelar o usuário implicitamente através dos dados de uso gerados através da sua interação com a Web. Este trabalho propõe ONTOMUW", um framework multiagente para a personalização da Web baseado na modelagem de usuários e na mineração de uso. O framework é composto por duas camadas onde se distribuem quatro agentes de acordo com suas responsabilidades: agente Interfaceador, responsável tanto pela captura das informações provenientes da navegação do usuário quanto pela execução da adaptação; agente Modelador, responsável por criar e atualizar tanto modelos de usuários quanto modelos de adaptação; agente Aquisitor, responsável pela criação e manutenção de um repositório de dados de uso contendo os modelos de usuários passados; e, finalmente, agente Minerador, responsável tanto pela descoberta de grupos de usuários com comportamento de navegação similar quanto pela classificação do usuário corrente nos grupos descobertos. Os agentes Interfaceador e Modelador compõem a camada de processamento de informações do usuário, enquanto que os agentes Aquisitor e Minerador compõem a camada de descoberta de padrões. A metodologia e ferramenta utilizadas para guiar o processo de análise e projeto de domínio do ONTOMUW foram a MADEM ( Multi-Agent Domain Engineering Methodology ) e a ONTOMADEM respectivamente. Para a implementação do framework utilizou-se o ambiente JADE.
224

UM MÉTODO PARA SELEÇÃO DE SOFTWARE NA ENGENHARIA DE REQUISITOS / A METHOD FOR SELECTION OF SOFTWARE IN SOFTWARE ENGINEERING REQUIREMENTS

CANTANHÊDE FILHO, Paulino Almeida 14 March 2005 (has links)
Made available in DSpace on 2016-08-17T14:52:57Z (GMT). No. of bitstreams: 1 Paulino de Almeida Cantanhede Filho.pdf: 1682767 bytes, checksum: a5fce1801fd45fddf7e98305e0e9b053 (MD5) Previous issue date: 2005-03-14 / Guidelines for evaluation and selection of COTS (Commercial-Off-The-Shelf) products. Comes a methodology for the Development based on COTS (DBC) in the Requirements Engineering, being approached the evaluation phases and selection of DBC. The method is divided in three phases, that are divided in activities orienting by actions that seek to the quality of the information for a socket of decision in an automated and oriented way for defined evaluation criteria during the Requirements Engineering. This approach divide the requirements in three levels: Fundamental, Contractual and Desirable. The functional and no-functional requirements are treated in an equalitarian way. / Este trabalho apresenta diretrizes para avaliação e seleção de produtos COTS (Commercial- Off-The-Shelf). Apresenta-se uma metodologia para o Desenvolvimento Baseado em COTS (DBC) na Engenharia de Requisitos, abordando-se as fases de avaliação e seleção do DBC. O método está dividido em três fases, que por sua vez estão divididas em atividades direcionadas por ações que visam à qualidade das informações para uma tomada de decisão de forma automatizada e orientada por critérios de avaliação definidos durante a Engenharia de Requisitos. Esta abordagem divide os requisitos em três níveis, são eles: Fundamental, Contratual e Desejável. Os requisitos funcionais e não-funcionais são tratados de forma igualitária.
225

UM FRAMEWORK PARA O GERENCIAMENTO DA INFORMAÇÃO DE LOCALIZAÇÃO / A FRAMEWORK FOR THE MANAGEMENT OF INFORMATION THE LOCATION

Monteiro, Erich Farias 03 October 2005 (has links)
Made available in DSpace on 2016-08-17T14:53:00Z (GMT). No. of bitstreams: 1 Erich Farias Monteiro.pdf: 1651070 bytes, checksum: 78b0c023947fd323c362d0dc88c2ac6d (MD5) Previous issue date: 2005-10-03 / FUNDAÇÃO SOUSÂNDRADE DE APOIO AO DESENVOLVIMENTO DA UFMA / This work presents the actual stage for the mobile objects location and for the development of location based applications or services (LBS). We make a review of available system architectures and functional requirements to the development of location based applications. Also we suggest an architecture to this class of applications that encapsulate the location information management that is completely reusable. To implement this architecture we describe the implementation of a reusable framework to the location information management, that makes available functionalities to the efficient management of mobile objects location information, that is evaluated trough the development of an location based application to track mobiles objects in an historical site of São Luis city the capital of Maranhão. / Apresenta-se o estado atual das tecnologias para a localização de objetos móveis e para o desenvolvimento de sistemas baseados em localização (LBS). Realiza-se uma revisão das arquiteturas e dos requisitos funcionais para a construção de aplicações baseadas em localização e propõe-se uma arquitetura para essas aplicações onde a gerência da informação de localização está desacoplada e pode ser facilmente reutilizada, levando à proposta e implementação de um framework reutilizável para a gerência da informação de localização, que disponibiliza funcionalidades para a gestão eficiente da localização dos objetos móveis. Finalmente, avalia-se a utilização do framework proposto através do desenvolvimento de uma aplicação LBS para o rastreamento dos usuários que estiverem transitando na região do centro histórico da cidade de São Luís, disponibilizando recursos de rastreamento, determinação de proximidade e consultas de rotas percorridas pelo usuário.
226

MADAE-IDE: Um ambiente de desenvolvimento de software baseado no conhecimento para o reuso composicional no desenvolvimento de sistemas multiagente / MADA-IDE: An environment for developing software based knowledge for reuse in the development of compositional systems multiagent

Cavalcante, Uiratan Alves de Sousa 01 December 2009 (has links)
Made available in DSpace on 2016-08-17T14:53:06Z (GMT). No. of bitstreams: 1 UIRATAN ALVES DE SOUSA CAVALCANTE.pdf: 4868154 bytes, checksum: 71d6895bc849a94e0bac2dba2b713adf (MD5) Previous issue date: 2009-12-01 / The agent-oriented development paradigm has achieved a high maturity level over the last decade. However, integrated development environments supporting all phases of agent-oriented development are still missing. MADAE-Pro is a process for the development and reuse of family of multi-agent systems and integrates two complementary process. One is based on Domain Engineering concepts, aiming in creating artifacts of reusable software in the development of an application family in a particular domain problem, and the other is based on Application Engineering, which guides the construction of applications based on reusable software artifacts previously produced in the Domain Engineering process. The environment includes the ONTORMAS ontology and, through inference rules and semantic search over its instances, automates the modeling tasks of the MADAE-Pro process. These features allow for the developer productivity gains and for maintaining the consistence of the knowledge-base, ensuring the success of the reuse in future applications. / O paradigma de desenvolvimento orientado a agentes tem atingido um alto nível de maturidade na última década. Entretanto, ainda faltam ambientes integrados de desenvolvimento de software que suportem todas as fases do desenvolvimento orientado a agentes. MADAE-Pro é um processo para o desenvolvimento e reuso de famílias de sistemas multiagente e integra dois subprocessos complementares. Um é baseado nos conceitos da Engenharia de Domínio, isto é, visa construir artefatos reutilizáveis que representem uma família de aplicações e o outro, baseado na Engenharia de Aplicações, guia o desenvolvimento de uma aplicação específica reutilizando os produtos do primeiro subprocesso. Este trabalho propõe MADAEIDE, um ambiente integrado de desenvolvimento baseado no conhecimento que automatiza o processo desenvolvimento de software multiagente MADAE-Pro. O ambiente agrega a ontologia ONTORMAS e, através de regras de inferência e buscas semânticas diretamente sobre suas instâncias, automatiza as tarefas de modelagem do processo MADAE-Pro. Estas características levam a um ganho de produtividade por parte do desenvolvedor, além de manter uma base de conhecimento consistente, garantido o sucesso do reuso em futuras aplicações.
227

MODELAGEM PARA O SOFTWARE VIRTUAL-TANEB BASEADO NA TEORIA DA RESPOSTA AO ITEM PARA AVALIAR O RENDIMENTO DOS ALUNOS / MODELING SOFTWARE FOR VIRTUAL Taneb-BASED THEORY THE RESPONSE TO ITEM TO EVALUATE THE PERFORMANCE OF STUDENTS

Veras, Jaclason Machado 26 February 2010 (has links)
Made available in DSpace on 2016-08-17T14:53:07Z (GMT). No. of bitstreams: 1 Jaclason Machado Veras.pdf: 1682090 bytes, checksum: 035fe122eaaac20d2dba05af3e7eab78 (MD5) Previous issue date: 2010-02-26 / This work proposes a general modeling for an educational software which will serve to verify the knowledge of geometry of fourth grade students of elementary school. The Virtual-Taneb will be based on Basic Education Evaluation System (SAEB) which is an evaluative instrument used in Brazil originated from the guidelines of the National Assessment of Educational Progress (NAEP), which is currently applied manually by written tests. One of the motivations for developing this tool was to reduce the delivery time of obtained results through the resolution of written tests, obeying Basic Education Courseworks. Another motivation was the inclusion of the Item Response Theory (IRT) as an educational evaluation quantifier and qualifier, allowing a statistical analysis from items such as central elements of tests, since the need to monitor the development process of educational evaluation systems. However, there are factors that suppress the use of IRT on a large scale, such as customizing each application and the mathematical complexity of the methods involved. This prototype of educational software will be applied to elementary schools in the State of Maranhão, Brazil. It will be adapted to the cognitive level of students through the inclusion of recourses from the area of Artificial Intelligence and besides it will enable an effective analysis of students knowledge using the IRT on the responses made. Virtual-Taneb will provide some benefits to the Brazilian society, as to favor a long-term reduction of economic investment in the evaluation process, resulting in improvements for present and future generations. Another benefit is the adequation possibility of this software to other evaluation systems, as an example, the International Program of Students Assessment (PISA), the National Examination of High School (ENEM), Prova Brasil, among others. In the future, though the adaptation of the Virtual-Taneb software, there will be the possibility of adding other subjects to the test. / Esse trabalho propõe uma modelagem geral para um software educacional que atuará na verificação do conhecimento de geometria de alunos da quarta série do ensino fundamental. O Virtual-TANEB estará baseado no Sistema de Avaliação da Educação Básica (SAEB) que é um instrumento avaliativo usado no Brasil originado a partir das diretrizes do National Assessment of Educational Progress (NAEP), que, atualmente, é aplicado de forma manual por meio de cadernos de provas. Uma das motivações para o desenvolvimento dessa ferramenta foi reduzir o tempo de entrega dos resultados obtidos, através da resolução dos cadernos de provas, obedecendo à Matriz Curricular da Educação Básica. Outra motivação foi a inclusão da Teoria da Resposta ao Item (TRI) como quantificadora e qualificadora da avaliação educacional, permitindo uma análise estatística a partir de itens como elementos centrais da prova, visto a necessidade de acompanhar o processo de evolução dos sistemas de avaliação educacional. Porém, existem fatores que suprimem a utilização da TRI em larga escala, tais como: a personalização de cada aplicação e a complexidade matemática dos métodos envolvidos. Este protótipo de software educacional será aplicado às escolas do ensino fundamental no Estado do Maranhão, Brasil. Ele se adaptará ao nível cognitivo dos alunos através da inclusão de recursos provenientes da área de Inteligência Artificial e, além disso, possibilitará uma análise mais efetiva do conhecimento dos alunos usando a TRI sobre as respostas efetuadas. O Virtual-TANEB irá proporcionar alguns benefícios para a sociedade, como favorecer a longo prazo a redução de investimento econômico no processo de avaliação, resultando em melhorias para gerações presentes e futuras. Outro beneficio é a adequação desse software a outros sistemas de avaliação, por exemplo, Programa Internacional de Avaliação de Alunos (PISA), Exame Nacional do Ensino Médio (ENEM), Prova Brasil, dentre outros. No futuro, mediante uma adaptação no software Virtual-TANEB, haverá a possibilidade de realizar a inclusão de outras disciplinas à prova.
228

APLICAÇÃO DE TÉCNICAS DE APRENDIZADO DE MÁQUINA PARA CLASSIFICAÇÃO DE DEPÓSITOS MINERAIS BASEADA EM MODELO TEOR-TONELAGEM / APPLICATION OF MACHINE LEARNING TECHNIQUES FOR CLASSIFICATION OF MINERAL DEPOSITS CONTENT-BASED MODEL TONNAGE

Rocha, Jocielma Jerusa Leal 01 July 2010 (has links)
Made available in DSpace on 2016-08-17T14:53:11Z (GMT). No. of bitstreams: 1 Jocielma Jerusa Leal Rocha.pdf: 3008647 bytes, checksum: 785c07837e5e5bb39cb7685000c9d145 (MD5) Previous issue date: 2010-07-01 / Classification of mineral deposits into types is traditionally done by experts. Since there are reasons to believe that computational techniques can aid this classification process and make it less subjective, the research and investigation of different methods of clustering and classification to this domain may be appropriate. The way followed by researches in this domain has directed for the use of information available in large public databases and the application of supervised machine learning techniques. This work uses information from mineral deposits available in grade-tonnage models published in the literature to conduct research about the suitability of these three techniques: Decision Tree, Multilayer Perceptron Network and Probabilistic Neural Network. Altogether, 1,861 mineral deposits of 18 types are used. The types refer to grade-tonnage models. Initially, each of these three techniques are used to classify mineral deposits into 18 types. Analysis of these results suggested that some deposits types could be treated as a group and also that the classification could be divided into two levels: the first level to classify deposits considering groups of deposits and the second level to classify deposits previously identified on a group into some of specific type belonging to that group. A series of experiments was carried out in order to build a two levels model from the combination of the techniques used, which resulted in an average accuracy rate of 85% of cases. Patterns of errors occurrence were identified within groups in types of deposits less representative in the database. This represents a promising way to achieve improvement in the process of mineral deposits classification that does not mean increasing in the amount of deposits used or in the amount of characteristics of the deposits. / A classificação de depósitos minerais em tipos tradicionalmente é feita por especialistas no assunto. A possibilidade de que técnicas computacionais auxiliem o processo de classificação e o torne menos subjetivo incentiva a pesquisa e aplicação de diferentes métodos de agrupamento e classificação sobre esse domínio de análise. A evolução das pesquisas nesse domínio tem direcionado os estudos para a utilização de informações disponíveis em grandes bases de dados publicadas e a aplicação de técnicas de aprendizado de máquina supervisionado. Este trabalho utiliza informações de depósitos minerais disponibilizadas em modelos teor-tonelagem publicados na literatura para proceder a investigação da adequabilidade de três dessas técnicas: Árvore de Decisão, Rede Percéptron Multicamadas e Rede Neural Probabilística. Ao todo, são 1.861 depósitos distribuídos em 18 tipos identificados pelo modelo teor-tonelagem. Inicialmente verificou-se o resultado apresentado por cada uma das três técnicas para a classificação dos depósitos em 18 tipos. A análise desses resultados sugeriu a possibilidade de agrupar esses tipos e dividir a classificação em dois níveis: o primeiro nível para classificar os depósitos considerando o agrupamento de tipos e o segundo nível para classificar os depósitos que resultaram em um grupo em um dos tipos específicos daquele grupo. Uma série de experimentos foi realizada no sentido de construir um modelo de classificação em dois níveis a partir da combinação das técnicas utilizadas, o que resultou em uma taxa de acerto média de 85% dos casos e as principais ocorrências de erros foram identificadas dentro de grupos em tipos de depósitos menos representativos na base de dados. Isso representa uma maneira promissora de conseguir melhoria no processo de classificação de depósitos minerais que não implica no aumento da quantidade de depósitos utilizada ou na quantidade de características dos depósitos.
229

Modelagem da Bolsa de Valores e dos Agentes de Negociação Aplicando AUML e Tropos / Modeling of the Stock Exchange and Trading Agents Applying Auml and Tropos

Costa Júnior, Fernando Pinheiro 13 December 2010 (has links)
Made available in DSpace on 2016-08-17T14:53:15Z (GMT). No. of bitstreams: 1 Fernando Pinheiro Costa Junior.pdf: 2747809 bytes, checksum: 341087c9b5282e045ab5af119473be1e (MD5) Previous issue date: 2010-12-13 / The present study attempts, through the methodology TROPOS, modeling a Multi- Agent System for Stock Exchange whose goal is make negotiations among agents in a Virtual Stock Exchange. The agents will act as investors in the Stock Market making the purchase and sale of stocks. This model is intended to specify agents with the ability to decide the best time for investing according to market indicators, i.e., when is the better time to buy or sell stocks. The model can identify the agents, the interaction protocols between agents, the applied technologies and the structures of the application. Therefore, the JADE platform will support the development of agents regarding the negotiation process. Such platform will provide communication between agents creating Broker Agents to provide communication with other Intermediate Agents whose information is collected in its Knowledge Base in order to make the negotiation. The after examining this study, conclusions could be taken about the subject explained and future suggested improvements can be implemented. / O presente trabalho busca, através da metodologia TROPOS, modelar um Sistema Multi-Agente para Bolsa de Valores com o objetivo de realizar negociações entre agentes em uma Bolsa de Valores virtual. Os agentes irão desempenhar a função de investidores na Bolsa de Valores, efetuando operações de compra e venda de ações. Esta modelagem tem o propósito de especificar agentes com a capacidade de decidir qual o melhor momento para realização dos investimentos pautado nos indicadores de mercado, ou seja, qual a melhor hora para comprar ou vender títulos de créditos. Neste sentido, serão identificados os agentes, os protocolos de interação entre agentes, as tecnologias aplicadas, as estruturas da aplicação. Portanto, a plataforma JADE dará suporte para o desenvolvimento dos agentes no tocante ao processo de negociação. Tal plataforma proporcionará a comunicação entre os agentes, criando Agentes Corretores a fim de proporcionar a comunicação com outro Agente Intermediário com as informações adquiridas em sua Base de Conhecimento para que assim seja realizada a negociação. Assim, após a análise desta obra poderão ser retiradas conclusões acerca do tema explanado e sugeridas melhorias para que no futuro possam ser implementadas.
230

CLASSIFICAÇÃO DE MASSAS NA MAMA A PARTIR DE IMAGENS MAMOGRÁFICAS USANDO ÍNDICE DE DIVERSIDADE DE SHANNON-WIENER / CLASSIFICATION OF BREAST MASSES IN MAMMOGRAPHY IMAGES FROM USING INDEX OF SHANNON-WIENER DIVERSITY

Sousa, Ulysses Santos 13 May 2011 (has links)
Made available in DSpace on 2016-08-17T14:53:17Z (GMT). No. of bitstreams: 1 Ulysses Santos Sousa.pdf: 1410915 bytes, checksum: 88235f7f4a3bc07a4da1b27c23dc71ca (MD5) Previous issue date: 2011-05-13 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Cancer is one of the biggest health problems worldwide, and the breast cancer is the one that causes more deaths among women. Also it is the second most frequent type in the world. The chances of survival for a patient with breast cancer increases the sooner this disease is discovered. Several Computer Aided Detection/Diagnosis Systems has been used to assist health professionals. This work presents a methodology to discriminate and classify mammographic tissues regions in mass and non-mass. For this purpose the Shannon-Wiener‟s Diversity Index, which is applied to measure the biodiversity in ecosystem, is used to describe pattern of breast image region with four approaches: global, in circles, in rings and directional. After, a Support Vector Machine is used to classify the regions in mass and non-mass. The methodology presents promising results for classification of mammographic tissues regions in mass and non-mass, achieving 99.85% maximum accuracy. / O câncer é um dos maiores problemas de saúde mundial, sendo o câncer de mama o que mais causa óbito entre as mulheres e o segundo tipo mais freqüente no mundo. As chances de uma paciente sobreviver ao câncer de mama aumentam à medida que a doença é descoberta mais cedo. Diversos Sistemas de Detecção e Diagnóstico auxiliados por computador (Computer Aided Detection/Diagnosis) têm sido utilizados para auxiliar profissionais de saúde. Este trabalho apresenta uma metodologia de discriminação e classificação de regiões de tecidos de mamografias em massa e não massa. Para este propósito utiliza-se o Índice de Diversidade de Shannon-Wiener, comumente aplicado para medir a biodiversidade em um ecossistema, para descrever padrões de regiões de imagens de mama com quatro abordagens: global, em círculos, em anéis e direcional. Em seguida, utiliza-se o classificador Support Vector Machine para classificar estas regiões em massa e não massa. A metodologia apresenta resultados promissores para a classificação de regiões de tecidos de mamografia em massa e não massa, obtendo uma acurácia máxima de 99,85%.

Page generated in 0.0424 seconds