• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 29
  • 15
  • Tagged with
  • 44
  • 44
  • 32
  • 15
  • 14
  • 13
  • 12
  • 11
  • 11
  • 11
  • 11
  • 10
  • 8
  • 8
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

[en] DIRECT AND INDIRECT QUOTATION EXTRACTION FOR PORTUGUESE / [pt] EXTRAÇÃO DE CITAÇÕES DIRETAS E INDIRETAS PARA O PORTUGUÊS

RAFAEL DOS REIS SILVA 08 June 2017 (has links)
[pt] Extração de Citações consiste na identificação de citações de um texto e na associação destas com seus autores. Neste trabalho, apresentamos um Extrator de Citações Diretas e Indiretas para o Português. A tarefa de Extração de Citações já foi abordada usando diversas técnicas em diversos idiomas. Nossa proposta difere das anteriores, pois construímos um modelo de Aprendizado de Máquina que, além de indetificar citações diretas, também identifica as citações indiretas. Citações indiretas são difíceis de serem identificadas num texto por não conter delimitações explícitas. Porém, são mais frequentes do que as delimitadas e, por essa razão, possuem grande importância na extração de informação. Por utilizarmos um modelo baseado em Aprendizado de Máquina, podemos facilmente adaptá-lo para outras línguas, bastando apenas uma lista de verbos do dizer num dado idioma. Poucos foram os sistemas propostos anteriormente que atacaram o problema das citações indiretas e nenhum deles para o Português usando Aprendizado de Máquina. Nós construímos um Extrator de Citações usando um modelo para o algoritmo do Perceptron Estruturado. Com o objetivo de treinar e avaliar o sistema, construímos o corpus QuoTrees 1.0. Nós anotamos este corpus a fim de atacar o problema das citações indiretas. O Perceptron Estruturado baseado no agendamento de tarefas ponderado tem desempenho F1 igual a 66 por cento para o corpus QuoTrees 1.0. / [en] Quotation Extraction consists of identifying quotations from a text and associating them to their authors. In this work, we present a Direct and Indirect Quotation Extraction System for Portuguese. Quotation Extraction has been previously approached using different techniques and for several languages. Our proposal differs from previous work, because we build a Machine Learning model that, besides recognizing direct quotations, it also recognizes indirect ones in Portuguese. Indirect quotations are hard to be identified in a text, due to the lack of explicit delimitation. Nevertheless, they happen more often then the delimited ones and, for this reason, have an huge importance on information extraction. Due to the fact that we use a Machine Learning model based, we can easily adapt it to other languages, needing only a list of verbs of speech for a given language. Few were the previously proposed systems that tackled the task of indirect quotations and neither of them for Portuguese using a Machine Learning approach. We build a Quotation Extractor using a model for the Structured Perceptron algorithm. In order to train and evaluate the system, we build QuoTrees 1.0 corpus. We annotate it to tackle the indirect quotation problem. The Structured Perceptron based on weight interval scheduling obtains an F1 score of 66 percent for QuoTrees 1.0 corpus.
2

[en] MPLICIT OCCLUDER METHOD AND VISUALIZATION APPLICATIONS / [pt] MÉTODO DA OCLUSÃO IMPLÍCITA E SUAS APLICAÇÕES EM VISUALIZAÇÃO

KARIN SULAMITA LEAO LISOWSKI 27 June 2007 (has links)
[pt] Neste trabalho aplicamos o método de oclusão implícita para acelerar o tempo de cálculo e renderização de isosuperfícies em dados volumétricos regulares. Dado um campo escalar contínuo f sobre um domínio D (onde Dé convexo) e um isovalor w, a oclusão implícita explora a continuidadede f para determinar os limites de visibilidades sem a necessidade de calcular a isosuperfície explicitamente. Aplicamos esta técnica para obter também as silhuetas visíveis das isosuperfícies. / [en] In this work we apply the Implicit Occluders method for optimizing the computation and rendering of isosurfaces in regular volumetric data. Given a continuous scalar field f over a domain D and an isovalue w, Implicit Occluders exploits the continuity of f to determine visibility bounds without the need for computing the isosurface explicitly. We apply this technique to obtain also the visible silhouettes of isosurfaces.
3

[en] USE OF POLYURETHANE FOAM ON INDIUM EXTRACTION FROM IODIDE MEDIUM / [pt] USO DE ESPUMA DE POLIURETANO NA EXTRAÇÃO DE ÍNDIO DE MEIO IODETO

ELIZABETH DE MAGALHAES MASSENA FERREIRA 13 April 2004 (has links)
[pt] Este trabalho apresenta um estudo sistemático da sorção de índio de meio iodeto, utilizando espuma de poliuretano à base de poliéter comercial como extrator em fase sólida, visando à pré-concentração e/ou separação de índio de diferentes matrizes de amostras. As características físico-químicas de sorção do sistema foram investigadas por processo em batelada, apresentando rápida cinética e máxima sorção numa faixa significativa de meio ácido ou básico, com coeficientes de distribuição acima de 104 L kg-1 ([KI] maior ou igual 0,6 mol L-1). A análise do equilíbrio de sorção indicou o tetraiodo- indato (MinI4) como a principal espécie sorvida na matriz da espuma; os mecanismos de sorção mais prováveis foram discutidos. A isoterma de Langmuir foi ajustada com êxito sendo obtido um valor de (1,55 mais ou menos 0,02)x10-1 mol kg-1 para a capacidade de saturação. O efeito da temperatura foi avaliado indicando um processo espontâneo e exotérmico caracterizado por sorção química. A reextração do índio da espuma com solução de HCl 1,0 mol L-1 em meio etanol 50% apresentou rápida cinética (10 minutos) e eficiência (97%). O sistema pode ser utilizado para a separação de traços de índio de grandes quantidades de Al, Fe, Zn, Ni, Co, Mn e Ga. Cd e Pb são co-extraídos. Ácido cítrico, F- e EDTA interferem na sorção do índio; tiosulfato de sódio (menor 0,1 mol L-1) e ácido ascórbio (até 0,8 mol L-1) não interferem. O sistema foi avaliado na determinaço de In na presença de 105 vezes Zn, Al, Fe pelo método de adição e recuperação de índio. Os elementos determinados por ICP- OES apresentaram fatores de separação, da ordem de 7,0 x 102 para Zn/In, 1,0x105 para Fe/In e de 5,5x104 para Al/In, com eficiente recuperação de índio. A metodologia desenvolvida foi aplicada para determinar índio por ICP- OES em material de referência padrão de zinco metálico (NIST), apresentando concordância compatível com o valor certificado, para um nível de confiança de 95%. / [en] This work shows a systematic study on indium iodide sorption using commercial polyether-based polyurethane foam as a solid phase extractor in order to preconcentrate and/ or separate indium from different sample matrices. The physico-chemical characteristics of the system sorption were investigated for the batch process. The system has shown rapid kinetic and maximum sorption from a meaningful range of either acid or basic medium and achieves distribution ratios above 104 L kg-1 ([KI] maior ou igual 0.6 mol L-1). Sorption equilibrium analysis indicates the tetraiodo- indate (MInI4) as the main species sorbed on the foam matrix; the more probable mechanisms of sorption were discussed. Langmuir isotherm was successfully fitted and a value of (1.55 mais ou menos 0.02)x10-1 mol kg-1 was obtained for the saturation capacity. The temperature effect was evaluated and indicates a spontaneous and exothermic chemisorption process favored at low temperatures. The indium reextraction from the foam using a HCl 0.1 mol L-1 in ethanol 50% medium solution has also shown a rapid kinetic (10 minutes) and efficiency (97%). The system should be used to separate large quantities of Al, Fe, Zn, Ni, Co, Mn and Ga from trace indium. Cd and Pb are coextracted with indium. Citric acid, F- and EDTA interfere on indium sorption; sodium thiosulfate (menor ou igual 0.1 mol L-1) and ascorbic acid (up to 0.1 mol L-1) do not interfere. The system was evaluated in the determination of indium in the presence of 105 times Zn, Al and Fe by indium addition and recovery technique. The elements determination by ICP-OES showed separation factors around 7.0x102 for Zn/In, 1.0X105 for Fe/In and of 5.5x104 for Al/In, with an efficient recovery of indium. The developed methodology was applied to determine indium in metallic zinc standard reference material (NIST) by ICP-OES and has shown compatible agreement with the certified value at a 95% confidence level.
4

[en] THE IMPACT OF STRUCTURAL ATTRIBUTES TO IDENTIFY TABLES AND LISTS IN HTML DOCUMENTS / [pt] O IMPACTO DE ATRIBUTOS ESTRUTURAIS NA IDENTIFICAÇÃO DE TABELAS E LISTAS EM DOCUMENTOS HTML

IAM VITA JABOUR 11 April 2011 (has links)
[pt] A segmentação de documentos HTML tem sido essencial para as tarefas de extração de informações, como mostram vários estudos na área. Nesta dissertação investigamos a relação entre o documento HTML e sua representação visual, mostrando como esta ligação ajuda na abordagem estrutural para a identificação de segmentos. Também investigamos como utilizar algoritmos de distância de edição em árvores para encontrar padrões na árvore DOM, tornando possível resolver duas tarefas de identificação de segmentos. A primeira tarefa é a identificação de tabelas genuínas, aonde foi obtido 90,40% de F1 utilizando o corpus fornecido por (Wang e Hu, 2002). Mostramos através de um estudo experimental que este resultado é competitivo com os melhores resultados da área. A segunda tarefa que consideramos é a identificação de listas de produtos em sites de comércio eletrônico, nessa obtivemos 94,95% de F1 utilizando um corpus com 1114 documentos HTML, criado a partir de 8 sites. Concluímos que os algoritmos de similaridade estrutural ajudam na resolução de ambas às tarefas e acreditamos que possam ajudar na identificação de outros tipos de segmentos. / [en] The segmentation of HTML documents has been essential to information extraction tasks, as showed by several works in this area. This paper studies the link between an HTML document and its visual representation to show how it helps segments identification using a structural approach. For this, we investigate how tree edit distance algorithms can find structural similarities in a DOM tree, using two tasks to execute our experiments. The first one is the identification of genuine tables where we obtained a 90.40% F1 score using the corpus provided by (Wang e Hu, 2002). We show through an experimental study that this result is competitive with the best results in the area. The second task studied is the identification of product listings in e-commerce sites. Here we get a 94.95% F1 score using a corpus with 1114 HTML documents from 8 distinct sites. We conclude that algorithms to calculate trees similarity provide competitive results for both tasks, making them also good candidates to identify other types of segments.
5

[pt] ABSORVEDOR COM BANDA ULTRA LARGA BASEADO EM ESTRUTURAS METAMATERIAIS E O MÉTODO DE EXTRAÇÃO DE PARÂMETROS / [en] AN ULTRAWIDEBAND METAMATERIAL ABSORBER AND A PARAMETER RETRIEVAL METHOD

JOSE BRUNO OLIVEIRA DE ARAUJO 13 December 2019 (has links)
[pt] Este trabalho apresenta a idealização, caracterização e medições de um absorvedor metamaterial ultrafino com uma banda ultra larga, baseado em espiras quadradas arranjadas periodicamente. O circuito equivalente dessa estrutura é proposto para fornecer uma maior compreensão teórica. Os parâmetros desse circuito são extraídos utilizando um algoritmo baseado no método dos mínimos quadrados, usando uma abordagem direta, que pode ser aplicada aos absorvedores com banda larga em geral. O mecanismo de absorção da estrutura proposta é discutido e detalhado. Um dos resultados da simulação mostrou uma absortividade acima de 90 porcento de 11.4 até 20 GHz, cobrindo a banda Ku inteiramente tanto para a polarização TM quanto para a TE, e essa banda larga é confirmada pelas medições experimentais. Além disso, a espessura do absorvedor metamaterial proposto é lambda/16.4, considerando o maior comprimento de onda da banda de operação, e apresenta estabilidade angular até 50 graus Celsius. Ademais, o uso do absorvedor proposto para redução da seção transversal de radar em antenas de microfita é investigado e reduções até 12.8 dB são obtidas, e uma parede absorvedora é apresentada para diminuição do acoplamento mútuo em conjuntos de antenas. / [en] This work presents the design, characterization, and measurement of an ultrathin and ultrawideband metamaterial absorber based on periodicallyarranged metallic square spiral and its equivalent circuit is proposed to provide a theoretical insight. The parameters of the equivalent circuit are extracted using an algorithm based on the least-square method and using a straightforward approach, which can be applied to broadband absorbers in general. The mechanism of absorption of the proposed structure is discussed and detailed. One of the simulated results showed an absorptivity of more than 90 percent from 11.4 to 20.0 GHz, covering the Ku band for TM as well as TE polarization, and this broadband feature is confirmed by the experimental measurement. Furthermore, the proposed metamaterial absorber is lambda/16.4 thick at the lowest frequency of absorption and presents angle stability up to 50 Celsius degrees. In addition, the usage of the proposed absorber to the radar crosssection reduction in microstrip antennas is investigated and reductions up to 12.8 dB are achieved, and an absorber wall is presented to decrease the mutual coupling in antenna arrays.
6

[en] QUOTATION EXTRACTION FOR PORTUGUESE / [pt] EXTRAÇÃO DE CITAÇÕES PARA O PORTUGUÊS

WILLIAM PAULO DUCCA FERNANDES 24 January 2017 (has links)
[pt] A Extração de Citações consiste na identificação de citações de um texto e na associação destas com seus autores. Neste trabalho, apresentamos um sistema de Extração de Citações para Português. A tarefa de Extração de Citações já foi abordada usando diversas técnicas e para diversas línguas.Nossa proposta é diferente dos trabalhos anteriores, pois usamos Aprendizado de Máquina para construir automaticamente regras especializadas ao invés de regras criadas por humanos. Modelos de Aprendizado de Máquina geralmente apresentam forte capacidade de generalização comparados a modelos feitos por humanos. Além disso, nós podemos facilmente adaptar nosso modelo para outras línguas, precisando apenas de uma lista de verbos de citação para uma dada língua. Os sistemas propostos anteriormente provavelmente precisariam de uma adaptação no conjunto de regras de forma a classificar corretamente as citações, o que consumiria tempo. Nós atacamos a tarefa de Extração de Citações usando um modelo para o algoritmo de Aprendizado de Transformações Guiado por Entropia e um modelo para o algoritmo do Perceptron Estruturado. Com o objetivo de treinar e avaliar o sistema, nós construímos o corpus GloboQuotes com notícias extraídas do portal globo.com. Adicionamos etiquetas morfossintáticas ao corpus, utilizando um anotador estado da arte. O Perceptron Estruturado baseado no agendamento de tarefas ponderado tem desempenho F sub Beta igual a 1 igual a 76,80 por cento. / [en] Quotation Extraction consists of identifying quotations from a text and associating them to their authors. In this work, we present a Quotation Extraction system for Portuguese. Quotation Extraction has been previously approached using different techniques and for several languages. Our proposal differs from previous work since we use Machine Learning to automatically build specialized rules instead of human-derived rules. Machine Learning models usually present stronger generalization power compared to human-derived models. In addition, we are able to easily adapt our model to other languages, needing only a list of verbs of speech for a given language. The previously proposed systems would probably need a rule set adaptation to correctly classify the quotations, which would be time consuming. We tackle the Quotation Extraction task using one model for the Entropy Guided Transformation Learning algorithm and another one for the Structured Perceptron algorithm. In order to train and evaluate the system, we have build the GloboQuotes corpus, with news extracted from the globo.com portal. We add part-of-speech tags to the corpus using a state-of-the-art tagger. The Structured Perceptron based on weighted interval scheduling obtains an F sub Beta equal 1 score of 76.80 per cent.
7

[pt] EXTRAÇÃO DE INFORMAÇÕES DE SENTENÇAS JUDICIAIS EM PORTUGUÊS / [en] INFORMATION EXTRACTION FROM LEGAL OPINIONS IN BRAZILIAN PORTUGUESE

GUSTAVO MARTINS CAMPOS COELHO 03 October 2022 (has links)
[pt] A Extração de Informação é uma tarefa importante no domínio jurídico. Embora a presença de dados estruturados seja escassa, dados não estruturados na forma de documentos jurídicos, como sentenças, estão amplamente disponíveis. Se processados adequadamente, tais documentos podem fornecer informações valiosas sobre processos judiciais anteriores, permitindo uma melhor avaliação por profissionais do direito e apoiando aplicativos baseados em dados. Este estudo aborda a Extração de Informação no domínio jurídico, extraindo valor de sentenças relacionados a reclamações de consumidores. Mais especificamente, a extração de cláusulas categóricas é abordada através de classificação, onde seis modelos baseados em diferentes estruturas são analisados. Complementarmente, a extração de valores monetários relacionados a indenizações por danos morais é abordada por um modelo de Reconhecimento de Entidade Nomeada. Para avaliação, um conjunto de dados foi criado, contendo 964 sentenças anotados manualmente (escritas em português) emitidas por juízes de primeira instância. Os resultados mostram uma média de aproximadamente 97 por cento de acurácia na extração de cláusulas categóricas, e 98,9 por cento na aplicação de NER para a extração de indenizações por danos morais. / [en] Information Extraction is an important task in the legal domain. While the presence of structured and machine-processable data is scarce, unstructured data in the form of legal documents, such as legal opinions, is largely available. If properly processed, such documents can provide valuable information with regards to past lawsuits, allowing better assessment by legal professionals and supporting data-driven applications. This study addresses Information Extraction in the legal domain by extracting value from legal opinions related to consumer complaints. More specifically, the extraction of categorical provisions is addressed by classification, where six models based on different frameworks are analyzed. Moreover, the extraction of monetary values related to moral damage compensations is addressed by a Named Entity Recognition (NER) model. For evaluation, a dataset was constructed, containing 964 manually annotated legal opinions (written in Brazilian Portuguese) enacted by lower court judges. The results show an average of approximately 97 percent of accuracy when extracting categorical provisions, and 98.9 percent when applying NER for the extraction of moral damage compensations.
8

[en] SILHOUETTES AND LAPLACIAN LINES OF POINT CLOUDS VIA LOCAL RECONSTRUCTION / [pt] SILHUETAS E LINHAS LAPLACIANAS DE NUVENS DE PONTOS VIA RECONSTRUÇÃO LOCAL

TAIS DE SA PEREIRA 29 September 2014 (has links)
[pt] No presente trabalho propomos uma nova forma de extrair a silhueta de uma nuvem de pontos, via reconstrução local de uma superfície descrita implicitamente por uma função polinomial. Esta reconstrução é baseada nos métodos Gradient one fitting e Ridge regression. A curva silhueta fica definida implicitamente por um sistema de equações não-lineares e sua geração é feita por continuação numérica. Como resultado, verificamos que nosso método se mostrou adequado para tratar dados com ruídos. Além disso, apresentamos um método para a extração local de linhas laplacianas de uma nuvem de pontos baseado na reconstrução local utilizando a triangulação de Delaunay. / [en] In this work we propose a new method for silhouette extraction of a point cloud, via local reconstruction of a surface described implicitly by a polynomial function. This reconstruction is based on the Gradient one fitting and Ridge regression methods. The curve silhouette is implicitly defined by a system of nonlinear equations, and is obtained using numerical continuation. As a result, we observe that our method is suitable to handle noisy data. In addition, we present a method for extracting Laplacian Lines of a point cloud based on local reconstruction using the Delaunay triangulation.
9

[en] SECOND LEVEL RECOMMENDATION SYSTEM TO SUPPORT NEWS EDITING / [pt] SISTEMA DE RECOMENDAÇÃO DE SEGUNDO NÍVEL PARA SUPORTE À PRODUÇÃO DE MATÉRIAS JORNALÍSTICAS

DEMETRIUS COSTA RAPELLO 10 April 2014 (has links)
[pt] Sistemas de recomendação têm sido amplamente utilizados pelos grandes portais na Web, em decorrência do aumento do volume de dados disponíveis na Web. Tais sistemas são basicamente utilizados para sugerir informações relevantes para os seus usuários. Esta dissertação apresenta um sistema de recomendação de segundo nível para auxiliar equipes de jornalistas de portais de notícias no processo de recomendação de notícias relacionadas para os usuários do portal. O sistema é chamado de segundo nível pois apresenta recomendações aos jornalistas para que, por sua vez, geram recomendações aos usuários do portal. O modelo seguido pelo sistema consiste na recomendação de notícias relacionadas com base em características extraídas do próprio texto da notícia original. As características extraídas permitem a criação de consultas contra um banco de dados de notícias anteriormente publicadas. O resultado de uma consulta é uma lista de notícias candidatas à recomendação, ordenada pela similaridade com a notícia original e pela data de publicação, que o editor da notícia original manualmente processa para gerar a lista final de notícias relacionadas. / [en] Recommendation systems are widely used by major Web portals due to the increase in the volume of data available on the Web. Such systems are basically used to suggest information relevant to their users. This dissertation presents a second-level recommendation system, which aims at assisting the team of journalists of a news Web portal in the process of recommending related news for the users of the Web portal. The system is called second level since it creates recommendations to the journalists Who, in turn, generate recommendations to the users. The system follows a model based on features extracted from the text itself. The extracted features permit creating queries against a news database. The query result is a list of candidate news, sorted by score and date of publication, which the news editor manually processes to generate the final list of related news.
10

[en] FUZZY MODELS IN SEGMENTATION AND ANALYSIS OF BANK MARKETING / [pt] MODELOS FUZZY NA SEGMENTAÇÃO E ANÁLISE DO MERCADO BANCÁRIO

MAXIMILIANO MORENO LIMA 03 October 2008 (has links)
[pt] Este trabalho tem como principal objetivo propor e desenvolver uma metodologia baseada em modelos fuzzy para a segmentação e caracterização dos segmentos que compõem o mercado bancário, permitindo um amplo conhecimento dos perfis de clientes, melhor adaptação das ofertas ao mercado e, conseqüentemente, melhores retornos financeiros. A metodologia proposta nesta dissertação pode ser dividida em três módulos principais: coleta e tratamento dos dados; definição dos segmentos; e caracterização e classificação dos segmentos. O primeiro módulo, denominado coleta e tratamento dos dados, abrange as pesquisas de marketing utilizadas na coleta dos dados e a aplicação de técnicas de pré-processamento de dados, para a limpeza (remoção de outliers e missing values) e normalização dos dados. O módulo de definição dos segmentos emprega o modelo fuzzy de agrupamento Fuzzy C-Means (FCM) na descoberta de grupos de clientes que apresentem características semelhantes. A escolha deste modelo de agrupamento deve-se à possibilidade de análise dos graus de pertinência de cada cliente em relação aos diferentes grupos, identificando os clientes entre segmentos e, conseqüentemente, elaborando ações efetivas para a sua transição ou manutenção nos segmentos de interesse. O módulo de caracterização e classificação dos segmentos é baseado em um Sistema de Inferência Fuzzy. Na primeira etapa deste módulo são selecionadas as variáveis mais relevantes, do ponto de vista da informação, para sua aplicação no processo de extração de regras. As regras extraídas para a caracterização dos segmentos são posteriormente utilizadas na construção de um sistema de inferência fuzzy dedicado à classificação de novos clientes. Este sistema permite que os analistas de marketing contribuam com novas regras ou modifiquem as já extraídas, tornando o modelo mais robusto e a segmentação de mercado uma ferramenta acessível a todos que dela se servem. A metodologia foi aplicada na segmentação de mercado do Banco da Amazônia, um banco estatal que atua na Amazônia Legal, cujo foco prioritário constitui o fomento da região. Avaliando a aplicação dos modelos fuzzy no estudo de caso, observam-se bons resultados na definição dos segmentos, com médias de valor de silhueta de 0,7, e na classificação da base de clientes, com acurácia de 100%. Adicionalmente, o uso destes modelos na segmentação de mercado possibilitou a análise dos clientes que estão entre segmentos e a caracterização desses segmentos por meio de uma base de regras, ampliando as análises dos analistas de marketing. / [en] The main aim of this work is to propose and develop a methodology base don fuzzy models for segmentation and characterization of segments comprising the bank segment, allowing broad knowledge of client profiles, better suiting market needs, hence offering better financial results. The methodology proposed in this work may be divided into three main modules: data collection and treatment; definition of segments; and characterization and classification of segments. The first module, denominated data collection and treatment, encompasses marketing research used in data collection and application of techniques for pre-processing of data, for data trimming (removal of outliers and missing values) and normalization. The definition of segments adopts the Fuzzy C-Means (FCM) grouping model in identifying groups of clients with similar characteristics. The choice for this grouping model is due to the possibility of analyzing the membership coefficient of each client in connection with the different groups, thus identifying clients among segments and consequently elaborating effective actions for their transition to or maintenance in the segments of interest. The module of characterization and classification of segments is based on a Fuzzy Inference System. In the first stage, the most relevant variables from the information standpoint are selected, for application in the process of rule extraction. The rules extracted are then used in the construction of a fuzzy inference system dedicated to classifying new clients. This system allows marketing analysts to contribute with new rules or modify those already extracted, making the model more robust and the turning market segmentation into a tool accessible to all using it. This methodology was applied in the market segmentation of Banco da Amazônia, stte- contrlled bank acting in the Amazon region, with main focus of which is fostering the region´s development. The application of fuzzy models in the case study generated good results in the definition of segments, with average silhouette value of 0.7, and accuracy of 100% for client base classification. Furthermore, the use of these models in market segmentation allowed the analysis of clients classified between segments and the characterization of those segments by means of a set of rules, improving the analyses made by marketing analysts.

Page generated in 0.0536 seconds