• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 178
  • 8
  • 8
  • 1
  • Tagged with
  • 196
  • 196
  • 118
  • 118
  • 32
  • 26
  • 23
  • 22
  • 21
  • 21
  • 20
  • 18
  • 17
  • 17
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Modelo de Regressão Elíptico Bivariado Intervalar

Paula, Laura Vicuña Torres de 21 August 2015 (has links)
Submitted by Irene Nascimento (irene.kessia@ufpe.br) on 2016-02-25T15:12:18Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Laura_Torres.pdf: 863817 bytes, checksum: 8fa460a07a7a29d10e0b7a64d4674663 (MD5) / Made available in DSpace on 2016-02-25T15:12:18Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Laura_Torres.pdf: 863817 bytes, checksum: 8fa460a07a7a29d10e0b7a64d4674663 (MD5) Previous issue date: 2015-08-21 / Facepe / A análisededadossimbólicos(ADS)éumaabordagemestatísticabastanteutili- zada emgrandesbasesdedadosetemcomocaracterísticaagregardadosemgruposde interesse.Essestiposdedadospodemserrepresentadosporintervalos,conjuntosdecate- gorias, distribuiçãodefrequência,distribuiçãodeprobabilidade,entreoutrostipos.Neste trabalho abordaremosdadossimbólicosdotipointervaloquesãocomumenteutilizados em aplicações nanceiras,mineraçãodedados,tráfegoderedes,dadoscon denciais,etc. Inicialmente,ummodeloderegressãoelípticobivariadointervalarqueconsideraacor- relação entreoslimitesinferioresesuperioresdeumavariávelsimbólicaintervalarfoi proposto.Derivamosafunção escore e amatrizdeinformaçãode Fisher. Ométodo de máximaverossimilhançafoidesenvolvidoparaestimaçãodosparâmetrosdomodelo proposto.EstudosdesimulaçãodeMonteCarloemqueavaliamosasensibilidadedoerro de previsãoquantoapresençadeintervalos outliers foram apresentados.Osresultados mostraram queomodelo tStudentbivariadointervalarémenossensívelnapresençade intervalos outliers do queomodelonormalbivariadointervalar.Umconjuntodedados reais foiutilizadoparailustrarametodologiaabordada / The symbolicdataanalysis(SDA)isastatisticalapproachwidelyusedinlargedata- bases andthatischaracterizedbyaggregatedataintointerestgroups.Thesedatatypes mayberepresentedbyintervals,setsofcategories,frequencydistribution,probabilitydis- tribution, amongothertypes.Inthispaperwediscusssymbolicdataofintervaltypethat are commonlyusedin nancialapplications,datamining,networktra c,con dential data, etc.First,anintervalbivariateellipticalregressionmodelthatconsidersthecorre- lation betweentheupperandlowerlimitsofanintervalsymbolicvariablewasproposed. WederivethescorefunctionandtheFisherinformationmatrix.Themaximumlikelihood methodwasdevelopedtoestimatetheparametersoftheproposedmodel.MonteCarlo simulationstudieswasperformedtoevaluatethesensitivityofthepredictiveerrorfor the presenceofoutliersintervals.Theresultsshowedthattheintervalbivariate t-Student modelislesssensitiveinpresenceofoutliersintervalsthantheintervalbivariatenormal model.Arealdatasetswasusedtoillustratethediscussedmethodology.
32

Uma solução em filtragem de informação para sistemas de recomendação baseada em análise de dados simbólicos

Leite Dantas Bezerra, Byron January 2004 (has links)
Made available in DSpace on 2014-06-12T15:58:32Z (GMT). No. of bitstreams: 2 arquivo4647_1.pdf: 2182294 bytes, checksum: 356178597c2bf16867ecf53d523ac6f8 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2004 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Sistemas de Recomendação permitem que sites de Comércio Eletrônico sugiram produtos aos consumidores provendo informações relevantes que os ajudem no processo de compra. Para isso é necessária a aquisição e a adequada utilização do perfil do usuário. O processo de aquisição pode ser implícito (comprar um livro ou consultar um item em uma loja on-line) ou explícito (dar uma nota a um filme ou recomendar um artigo a um amigo). Já as soluções propostas para o segundo problema podem ser classificadas em duas categorias principais com relação ao tipo de filtragem adotada: Filtragem Baseada em Conteúdo (baseia-se na análise da correlação entre o conteúdo dos itens com o perfil do usuário) e Filtragem Colaborativa (baseada na correlação de perfis de usuários). Tais técnicas possuem limitações, como escalabilidade na primeira abordagem e latência na segunda. Contudo, elas são complementares, o que impulsiona o surgimento de filtragens híbridas, cujo foco é aproveitar o melhor de cada método. Todavia, as filtragens híbridas não superam completamente os problemas principais de ambos os métodos. A motivação deste trabalho surge do desafio de superar os problemas principais existentes nos métodos de Filtragem Baseada em Conteúdo. Para isso, o trabalho concentra-se no domínio de recomendação de filmes, caracterizado por atributos complexos, como sinopse, e no qual predomina uma aquisição explícita do perfil do usuário. Diante disso, o presente trabalho apresenta um novo método de filtragem de informação baseado nas teorias de Análise de Dados Simbólicos. Na abordagem proposta o perfil é modelado através de um conjunto de descrições simbólicas modais que sumarizam as informações dos itens previamente avaliados. Uma função de dissimilaridade que leva em conta as diferenças em posição e em conteúdo foi criada a fim de possibilitar a comparação entre um novo item e o perfil do usuário. Para avaliar o desempenho deste novo método foi modelado um ambiente experimental baseado no EachMovie e definida uma metodologia para avaliação dos resultados. Para fins de comparação é utilizada a filtragem de informação por conteúdo baseado no algoritmo dos k Vizinhos Mais Próximos (kNN). A construção de um ambiente experimental de avaliação do modelo permitiu diagnosticar estatisticamente o melhor desempenho da filtragem baseada em dados simbólicos modais, tanto em velocidade quanto em memória, com relação ao método baseado no kNN
33

Fator de correção para a distribuição da Deviance para dados de proporções / not available

Ana Paula Gomes da Silva Gimenes 27 September 2000 (has links)
A análise de dados de proporções apresenta, em geral, certas dificuldades uma vez que a distribuição subjacente a tais dados pode ser considerada binomial, que não segue as pressuposições básicas para o ajuste de um modelo matemático. Algumas transformações são sugeridas, mas nem sempre bons resultados são obtidos. No enfoque de modelos lineares generalizados, a estatística que mede a qualidade do ajuste do modelo para os dados é chamada deviance. Ocorre que a distribuição da deviance é desconhecida. No entanto, para dados com distribuição binomial, pode-se aproximar a distribuição da deviance por uma distribuição qui-quadrado, mas tal aproximação não é boa para tamanhos pequenos de amostra. Para melhorar essa aproximação, alguns fatores de correção para os dados são sugeridos, mas os resultados obtidos ainda não são bons para pequenas amostras. Assim, o objetivo deste trabalho é propor um novo fator de correção para os dados seguindo uma distribuição binomial, de modo a se obter uma melhora na distribuição da deviance para qualquer tamanho de amostra. Para isto, adiciona-se uma constante à variável resposta e, através do valor esperado da deviance, calcula-se tal constante de modo a reduzir o erro cometido na aproximação. Simulações da distribuição binomial e o cálculo da deviance são feitos e QQ-plots são utilizados para a comparação com a distribuição qui-quadrado / not available
34

Análise de dados utilizando a medida de tempo de consenso em redes complexas / Data anlysis using the consensus time measure for complex networks

Jean Pierre Huertas Lopez 30 March 2011 (has links)
Redes são representações poderosas para muitos sistemas complexos, onde vértices representam elementos do sistema e arestas representam conexões entre eles. Redes Complexas podem ser definidas como grafos de grande escala que possuem distribuição não trivial de conexões. Um tópico importante em redes complexas é a detecção de comunidades. Embora a detecção de comunidades tenha revelado bons resultados na análise de agrupamento de dados com grupos de diversos formatos, existem ainda algumas dificuldades na representação em rede de um conjunto de dados. Outro tópico recente é a caracterização de simplicidade em redes complexas. Existem poucos trabalhos nessa área, no entanto, o tema tem muita relevância, pois permite analisar a simplicidade da estrutura de conexões de uma região de vértices, ou de toda a rede. Além disso, mediante a análise de simplicidade de redes dinâmicas no tempo, é possível conhecer como vem se comportando a evolução da rede em termos de simplicidade. Considerando a rede como um sistema dinâmico de agentes acoplados, foi proposto neste trabalho uma medida de distância baseada no tempo de consenso na presença de um líder em uma rede acoplada. Utilizando essa medida de distância, foi proposto um método de detecção de comunidades para análise de agrupamento de dados, e um método de análise de simplicidade em redes complexas. Além disso, foi proposto uma técnica de construção de redes esparsas para agrupamento de dados. Os métodos têm sido testados com dados artificiais e reais, obtendo resultados promissores / Networks are powerful representations for many complex systems, where nodes represent elements of the system and edges represent connections between them. Complex networks can be defined as graphs with no trivial distribution of connections. An important topic in complex networks is the community detection. Although the community detection have reported good results in the data clustering analysis with groups of different formats, there are still some dificulties in the representation of a data set as a network. Another recent topic is the characterization of simplicity in complex networks. There are few studies reported in this area, however, the topic has much relevance, since it allows analyzing the simplicity of the structure of connections between nodes of a region or connections of the entire network. Moreover, by analyzing simplicity of dynamic networks in time, it is possible to know the behavior in the network evolution in terms of simplicity. Considering the network as a coupled dynamic system of agents, we proposed a distance measure based on the consensus time in the presence of a leader in a coupled network. Using this distance measure, we proposed a method for detecting communities to analyze data clustering, and a method for simplicity analysis in complex networks. Furthermore, we propose a technique to build sparse networks for data clustering. The methods have been tested with artificial and real data, obtaining promising results
35

Metodologias de análise de dados para um sistema de otimização em tempo real. / Methodologies of data analysis to real time optimization system.

Palacio García, Lina Marcela 26 March 2013 (has links)
A otimização em tempo real (RTO: Real Time Optimization) permite fazer correções, com o menor atraso possível, nas condições de operação de um processo, buscando manter um desempenho ótimo. A RTO, na abordagem clássica, requer um ciclo constante de análise e correção do estado do processo que inclui múltiplas etapas: i) identificação do estado estacionário, ii) identificação e correção dos erros grosseiros, iii) reconciliação dos dados, iv) ajuste dos parâmetros do modelo, v) estimação das condições operacionais ótimas e, vi) implementação das condições no sistema de controle. Um sistema de análise de dados é necessário na aquisição das variáveis medidas da planta que classifique o estado da operação como válido para atualizar um modelo em estado estacionário. O sistema deve fornecer um modelo atualizado que seja representativo do comportamento real da operação para que seja otimizado em um passo posterior. Este trabalho é focado na análise de metodologias de detecção de estado estacionário, reconciliação de dados e estimação de parâmetros com as características necessárias que um sistema de RTO requer. Como caso de estudo considera-se uma coluna depropenizadora da PETROBRAS, em que foi feita uma análise da variabilidade associada à instrumentação para melhorar o conhecimento da operação. Além disso, a análise e validação do modelo do processo, permitiu estabelecer faixas de convergência nas especificações do processo e parâmetros. Finalmente, sugere-se que a composição da corrente de alimentação e a queda de pressão na coluna sejam classificadas como parâmetros importantes no ajuste de modelo. / Real-time optimization (RTO) allows making corrections in process operation conditions, with the smallest possible delay, in order to provide an optimal performance. RTO, in the classical approach, requires a constant cycle of analysis and correction of process conditions, that includes multiple steps: i) steady state identification, ii) gross errors detection and correction, iii) data reconciliation, iv) parameter estimation, v) economical optimization and vi) implementation of the optimal conditions in the control system. A data analysis system is required in the plant to classify the operating conditions as valid in order to update a steady state model. The system shall provide an updated model that can represent the real behavior of the operation that wi ll be optimized in a next step. This work is focused on the analysis of methodologies for steady-state detection, data reconciliation and parameter estimation with the required characteristics that an RTO system requires. As a case-study, a depropenizer column, owned by Petrobras is considered. An analysis of the variability of the instrumentation was performed to allow a better understanding of the process. Moreover, the analysis and validation of the process model enabled drawing convergence boundaries on process specifications and parameters. Finally, it is suggested that the feed composition and the column pressure drop should be considered as important parameters in model fitting.
36

Fatores determinantes da estrutura de capital de empresas de médio porte da região metropolitana de salvador

Caldeira, Karina Silva January 2008 (has links)
p. 1 - 98 / Submitted by Santiago Fabio (fabio.ssantiago@hotmail.com) on 2013-01-23T19:14:56Z No. of bitstreams: 1 9999999.pdf: 402893 bytes, checksum: be4822072c700c44e2b168a887552b82 (MD5) / Made available in DSpace on 2013-01-23T19:14:56Z (GMT). No. of bitstreams: 1 9999999.pdf: 402893 bytes, checksum: be4822072c700c44e2b168a887552b82 (MD5) Previous issue date: 2008 / As teorias sobre estrutura de capital sugerem diversas variáveis como determinantes das decisões de financiamento das empresas. Este estudo preocupou-se em analisar alguns fatores que supostamente determinariam o nível de endividamento de empresas de médio porte da Região Metropolitana de Salvador (RMS). Verificou-se, inicialmente, que a maior parte dos trabalhos empíricos sobre as empresas que atuam nos países em desenvolvimento aponta as mesmas variáveis e os mesmos métodos econométricos utilizados nas pesquisas sobre a estrutura de capital das empresas dos países desenvolvidos. Para verificar a existência de relação entre o endividamento e as variáveis composições dos ativos, índice de liquidez corrente, porte, crescimento e rentabilidade foram aplicadas regressões múltiplas em dados cross-section e dados em painel provindos das demonstrações financeiras de empresas de médio porte da RMS durante o período entre 2004 e 2005. Os resultados apontam as variáveis índices de liquidez corrente, composição dos ativos e porte como determinantes da estrutura de capital das firmas analisadas. Conclui-se, com base nesses resultados, que as características dessas empresas e os aspectos institucionais que permeiam a realidade brasileira exercem influência sobre o nível de endividamento das empresas analisadas. / Salvador
37

Metodologias de análise de dados para um sistema de otimização em tempo real. / Methodologies of data analysis to real time optimization system.

Lina Marcela Palacio García 26 March 2013 (has links)
A otimização em tempo real (RTO: Real Time Optimization) permite fazer correções, com o menor atraso possível, nas condições de operação de um processo, buscando manter um desempenho ótimo. A RTO, na abordagem clássica, requer um ciclo constante de análise e correção do estado do processo que inclui múltiplas etapas: i) identificação do estado estacionário, ii) identificação e correção dos erros grosseiros, iii) reconciliação dos dados, iv) ajuste dos parâmetros do modelo, v) estimação das condições operacionais ótimas e, vi) implementação das condições no sistema de controle. Um sistema de análise de dados é necessário na aquisição das variáveis medidas da planta que classifique o estado da operação como válido para atualizar um modelo em estado estacionário. O sistema deve fornecer um modelo atualizado que seja representativo do comportamento real da operação para que seja otimizado em um passo posterior. Este trabalho é focado na análise de metodologias de detecção de estado estacionário, reconciliação de dados e estimação de parâmetros com as características necessárias que um sistema de RTO requer. Como caso de estudo considera-se uma coluna depropenizadora da PETROBRAS, em que foi feita uma análise da variabilidade associada à instrumentação para melhorar o conhecimento da operação. Além disso, a análise e validação do modelo do processo, permitiu estabelecer faixas de convergência nas especificações do processo e parâmetros. Finalmente, sugere-se que a composição da corrente de alimentação e a queda de pressão na coluna sejam classificadas como parâmetros importantes no ajuste de modelo. / Real-time optimization (RTO) allows making corrections in process operation conditions, with the smallest possible delay, in order to provide an optimal performance. RTO, in the classical approach, requires a constant cycle of analysis and correction of process conditions, that includes multiple steps: i) steady state identification, ii) gross errors detection and correction, iii) data reconciliation, iv) parameter estimation, v) economical optimization and vi) implementation of the optimal conditions in the control system. A data analysis system is required in the plant to classify the operating conditions as valid in order to update a steady state model. The system shall provide an updated model that can represent the real behavior of the operation that wi ll be optimized in a next step. This work is focused on the analysis of methodologies for steady-state detection, data reconciliation and parameter estimation with the required characteristics that an RTO system requires. As a case-study, a depropenizer column, owned by Petrobras is considered. An analysis of the variability of the instrumentation was performed to allow a better understanding of the process. Moreover, the analysis and validation of the process model enabled drawing convergence boundaries on process specifications and parameters. Finally, it is suggested that the feed composition and the column pressure drop should be considered as important parameters in model fitting.
38

Advanced techniques for graph analysis: a multimodal approach over planetary-scale data / Técnicas avançadas de análise de grafos: uma abordagem multimodal sobre dados em escala planetária

Gimenes, Gabriel Perri 12 February 2015 (has links)
Applications such as electronic commerce, computer networks, social networks, and biology (protein interaction), to name a few, have led to the production of graph-like data in planetary scale { possibly with millions of nodes and billions of edges. These applications pose challenging problems when the task is to use their data to support decision making processes by means of non-obvious and potentially useful patterns. In order to process such data for pattern discover, researchers and practitioners have used distributed processing resources organized in computational clusters. However, building and managing such clusters can be complex, bringing technical and financial issues that can be prohibitive in a variety of scenarios. Alternatively, it is desirable to process large scale graphs using only one computational node. To do so, we developed processes and algorithms according to three different approaches, building up towards an analytical set capable of revealing patterns, comprehension, and to help with the decision making process over planetary-scale graphs. / Aplicações como comércio eletrônico, redes de computadores, redes sociais e biologia (interação proteica), entre outras, levaram a produção de dados que podem ser representados como grafos à escala planetária { podendo possuir milhões de nós e bilhões de arestas. Tais aplicações apresentam problemas desafiadores quando a tarefa consiste em usar as informações contidas nos grafos para auxiliar processos de tomada de decisão através da descoberta de padrões não triviais e potencialmente utéis. Para processar esses grafos em busca de padrões, tanto pesquisadores como a indústria tem usado recursos de processamento distribuído organizado em clusters computacionais. Entretanto, a construção e manutenção desses clusters pode ser complexa, trazendo tanto problemas técnicos como financeiros que podem ser proibitivos em diversos casos. Por isso, torna-se desejável a capacidade de se processar grafos em larga escala usando somente um nó computacional. Para isso, foram desenvolvidos processos e algoritmos seguindo três abordagens diferentes, visando a definição de um arcabouço de análise capaz de revelar padrões, compreensão e auxiliar na tomada de decisão sobre grafos em escala planetária.
39

Apreçamento de ativos com assimetria e curtose: um teste de comomentos com dados em painel / Asset pricing with skewness and kurtosis: testing co-moments with panel data

Castro Junior, Francisco Henrique Figueiredo de 17 July 2008 (has links)
Ao longo dos anos, desde a concepção do CAPM, o modelo vem passando por um rigoroso escrutínio por parte da comunidade científica e dos agentes de mercado interessados na sua utilização prática. Evidências tanto a favor quanto contra a sua adequação foram surgindo. Várias foram as causas levantadas para o fraco desempenho do CAPM: omissão de variáveis no modelo, variação no tempo da medida de risco (β) ou, ainda, a ausência de outros momentos tais como assimetria e curtose. Esta pesquisa teve como objetivo a investigação empírica da relação entre momentos sistêmicos (covariância, coassimetria e cocurtose) e a taxa de retorno de ativos financeiros negociados no mercado brasileiro. Foi utilizada uma amostra de 179 empresas brasileiras regularmente negociadas na Bovespa entre os anos de 2003 e 2007. Para o teste do modelo de apreçamento, foi utilizado um procedimento em duas etapas. Na primeira, os comomentos de cada ativo foram estimados usando-se dados longitudinais de taxas de retorno. Os coeficientes estimados foram, então, utilizados em uma segunda etapa, na qual uma regressão com dados em painel buscou determinar a relação entre o prêmio pelo risco dos ativos e os comomentos estimados na primeira etapa. Foram estimados modelos com dados agrupados, efeitos aleatórios e efeitos fixos. A determinação do modelo mais adequado foi feita por meio de testes de especificação. Os dados mostraram evidências de que a distribuição de probabilidade das taxas de retorno da maioria das empresas não segue uma distribuição normal, e que tanto a covariância como a cocurtose são fatores de risco relevantes em modelos de apreçamento, mesmo controlados por fatores como: tamanho, alavancagem, liquidez, relação entre preço de mercado e preço contábil e relação entre valor de mercado e valor contábil. / Since the development of the CAPM, the model has been tested with a rigorous scrutiny by academic community and market practitioners who are interested in its practical utilization. Evidence for and against the adequacy of the model has arisen. Various reasons for the failure of the CAPM were raised: omission of variables, time-varying risk factors (β), or the absence of other moments like skewness and kurtosis. This research aimed at empirical investigation of the relationship between systematic moments (covariance, coskewness and cokurtosis) and the rate of return of financial assets traded in the Brazilian market. The sample consisted of 179 stocks regularly traded at Bovespa from 2003 to 2007. The test of the pricing model was run in a two-pass procedure. In the first pass, the comoments for every stock were estimated using a longitudinal series of rates of returns. The estimated coeficients were then used in the second pass, in a panel data regression that intended to establish a relationship between the risk premium and the comoments estimated in the first pass. Panel data models with pooled data, random effects and fixed effects were estimated. The adequacy of each model was tested by specification procedures. Data showed evidence that the rates of return were not normally distributed, and that covariance and cokurtosis were significant risk factors in pricing models, even after controlling for factors like: size, leverage, liquidity, price-earning ratio and
40

Análise de sentimentos e afetividade de textos extraídos das redes sociais. / Sentiment analysis and affection of texts extracted from social networks.

Rosa, Renata Lopes 18 August 2015 (has links)
Atualmente, os usuários expressam seus desejos e preferências em relação a um objeto, conteúdo ou evento por meio das redes sociais; portanto, analisar os sentimentos de uma pessoa no mundo digital sobre o que a rodeia tem sido cada vez mais frequente com o intuito de conhecer as preferências desta pessoa. O estudo propõe um novo mecanismo e cálculo de sentimentos e afetividade, aperfeiçoando a análise de sentimentos. Um mecanismo de cálculo de sentimentos associado a um fator de correção correspondente a n-gramas, tempos verbais, expressões e às características pessoas, tais como idade, gênero e escolaridade é desenvolvido neste trabalho. Os sentimentos negativos, neutros e positivos são extraídos de frases das redes sociais. As frases são classificadas em intensidade de sentimentos e em polaridade positiva, negativa ou neutra, por meio de um novo dicionário de palavras em português e de um novo cálculo de sentimentos. O cálculo de sentimentos possui regras específicas para tempos verbais (presente e passado) e advérbios. Os sentimentos das palavras são extraídos por meio de adjetivos, substantivos, palavras únicas (unigramas) e palavras que associadas (bigramas e trigramas) possuem um significado diferente de palavras únicas. Para validação do desempenho do dicionário e do novo mecanismo de cálculo de sentimentos, os resultados sao comparados com uma ferramenta de análise de sentimentos j´a existente, a SentiStrength e são validados por meio de testes subjetivos, com avaliadores remotos, com uma técnica denominada de crowdsourcing e por aprendizagem de máquina. O estudo também analisa a afetividade das frases e propõe uma métrica denominada de Brazillian Affective Metric (AFMBr), extraindo emoções de raiva, alegria, tristeza, surpresa e nojo. A solução de análise de sentimentos e afetividade é aplicada em um sistema de recomendação de músicas, como estudo de caso, o qual sugere conteúdos conforme o estado sentimental da pessoa. / Currently, users express their wishes and preferences in relation to an object, content or event through social networks; therefore analyze the sentiments of a person in the digital world about what surrounds the person has been increasingly used in order to know the preferences of this person. The study proposes new metrics of sentiments and affection, improving the sentiment analysis. The sentiment analysis metric associated with a corresponding correction factor for n-grams, tenses, expressions and personal characteristics such as age, gender and education is developed in this work. Negative, neutral and positive sentiments are extracted from social networks phrases. The sentences are ranked in positive, neutral or negative sentiment intensity or polarity by a new dictionary of words in Portuguese language and is extracted the sentiments. The calculation of sentiments has specific rules for verb tenses (present and past) and adverbs. The sentiments are extracted by means of adjectives, nouns, unigrams and associated words (bigrams and trigrams) that have a different meaning of single words. To validate the dictionary performance and new sentiments calculation mechanisms, the results are compared with an analysis tool of sentiments named of SentiStrength and are validated by subjective tests, with remote evaluators, with a technique named of crowdsourcing and machine learning. The study also analyzes the affection of sentences and proposes a metric called Brazillian Affective Metric (AFM-Br), that extracts emotions of anger, joy, sadness, surprise and disgust. The sentiment analysis solution and affection is applied in a music recommendation system, as a case study, which suggests content according to the emotional state of the person.

Page generated in 0.1441 seconds