Spelling suggestions: "subject:"deoria dda comunicação"" "subject:"deoria daa comunicação""
31 |
Convergência entre televisão e web : proposta de categorização analíticaAquino, Maria Clara Jobst de January 2012 (has links)
A expressão convergência midiática aparece com frequência na produção acadêmica e na imprensa. Alguns esforços conceituais sobre o termo consideram apenas aspectos técnicos, entendendo o fenômeno somente como a reunião de diversas mídias em um único ambiente ou dispositivo, sem abordar questões sociais e culturais. Por outro lado, outras argumentações abordam o envolvimento dos indivíduos na constituição da convergência, sem privilegiar a análise do elemento tecnológico. A partir dessa diversidade de posicionamentos, através de um movimento teórico-epistemológico estuda-se a convergência entre a televisão e a web a partir de uma crítica sobre a abrangência do conceito para superar seu enfoque tecnicista, porém sem desconsiderá-lo, além de estudar também os níveis social e cultural. O conceito é desdobrado em categorias analíticas, que são interdependentes. Em cada uma são discutidas transformações no processo de convergência nos níveis técnico, social e cultural. Verifica-se na produção teórica a predominância do entendimento sobre convergência como um processo essencialmente tecnológico, que ainda subestima questões sociais e culturais diante do desenvolvimento de novos modelos de comunicação baseados em processos mais flexíveis de produção, circulação e consumo de conteúdos midiáticos. / Media convergence is an expression that appears frequently in academic research and in the press. Some conceptual efforts about the term only consider technical aspects, understanding the phenomenon only as the combination of diverse media in a single environment or device, without addressing social and cultural issues. On the other hand, further arguments regarding the involvement of individuals in the constitution of convergence, without probing the analysis of the technological element. From this diversity of positions, this research makes a theoretical and epistemological movement to study the convergence between television and the web from a criticism of the scope of the concept to overcome your technician focus, but not disregard it, and also studing the social and cultural levels. The concept is dismembered in analytical categories, which are interdependent. In each of these categories transformations are discussed in the convergence process at technical, social and cultural levels. In theoretical production there is the prevalence of an understanding that convergence is an essentially technological process. This understanding underestimates social and cultural issues facing the development of new communication models based on more flexible processes of production, circulation and consumption of media content.
|
32 |
Convergência entre televisão e web : proposta de categorização analíticaAquino, Maria Clara Jobst de January 2012 (has links)
A expressão convergência midiática aparece com frequência na produção acadêmica e na imprensa. Alguns esforços conceituais sobre o termo consideram apenas aspectos técnicos, entendendo o fenômeno somente como a reunião de diversas mídias em um único ambiente ou dispositivo, sem abordar questões sociais e culturais. Por outro lado, outras argumentações abordam o envolvimento dos indivíduos na constituição da convergência, sem privilegiar a análise do elemento tecnológico. A partir dessa diversidade de posicionamentos, através de um movimento teórico-epistemológico estuda-se a convergência entre a televisão e a web a partir de uma crítica sobre a abrangência do conceito para superar seu enfoque tecnicista, porém sem desconsiderá-lo, além de estudar também os níveis social e cultural. O conceito é desdobrado em categorias analíticas, que são interdependentes. Em cada uma são discutidas transformações no processo de convergência nos níveis técnico, social e cultural. Verifica-se na produção teórica a predominância do entendimento sobre convergência como um processo essencialmente tecnológico, que ainda subestima questões sociais e culturais diante do desenvolvimento de novos modelos de comunicação baseados em processos mais flexíveis de produção, circulação e consumo de conteúdos midiáticos. / Media convergence is an expression that appears frequently in academic research and in the press. Some conceptual efforts about the term only consider technical aspects, understanding the phenomenon only as the combination of diverse media in a single environment or device, without addressing social and cultural issues. On the other hand, further arguments regarding the involvement of individuals in the constitution of convergence, without probing the analysis of the technological element. From this diversity of positions, this research makes a theoretical and epistemological movement to study the convergence between television and the web from a criticism of the scope of the concept to overcome your technician focus, but not disregard it, and also studing the social and cultural levels. The concept is dismembered in analytical categories, which are interdependent. In each of these categories transformations are discussed in the convergence process at technical, social and cultural levels. In theoretical production there is the prevalence of an understanding that convergence is an essentially technological process. This understanding underestimates social and cultural issues facing the development of new communication models based on more flexible processes of production, circulation and consumption of media content.
|
33 |
A informação contábil no setor público: uma abordagem sob a ótica das teorias da comunicação e da semiótica / Accounting information in the public sector: an approach from the point of view of communication theory and semioticsMessias, Diego 14 June 2017 (has links)
Submitted by Neusa Fagundes (neusa.fagundes@unioeste.br) on 2017-10-05T13:01:38Z
No. of bitstreams: 1
Diego_Messias2017.pdf: 1427473 bytes, checksum: 531bf119ac4b53697fd6958c9104b33a (MD5) / Made available in DSpace on 2017-10-05T13:01:38Z (GMT). No. of bitstreams: 1
Diego_Messias2017.pdf: 1427473 bytes, checksum: 531bf119ac4b53697fd6958c9104b33a (MD5)
Previous issue date: 2017-06-14 / Accounting can be understood as a process of communication between the accounting professional and the end user of the information. The effectiveness of this communication process has been the subject of studies in the accounting area and several issues remain open. Guided by the Bedford and Baladouni Theory of Communication (1962) and Morris Semiotics (1976), this study adds to this discussion an empirical perspective, which enables the identification and detailed analysis of noises in accounting communication, specifically in the organizational context of Public sector. This study sought to understand the process of accounting communication at the Federal University of Latin American Integration (Unila), in order to capture the qualities of the accounting information produced there, and the noises that affect it. For this, a two-step investigation was conducted, guided by Creswell's sequential explanatory project (2007). The first stage consisted of a survey of with the 63 federal universities in Brazil, where it aimed to capture the perception of accountants and managers about the qualities present in the accounting information produced for management purposes. From the quantitative approach, it was identified that, in the perception of the respondents of both groups, the accounting information is permeated with positive attributes, such as the use of simplified language, adequacy to the users' needs, reliability and relevance to the making process of decision-making. On the other hand, the managers indicated that they did not have the necessary knowledge necessary to the user of the accounting information, a factor that impairs the accounting comprehension, and, also, does not frequently use frequently the management reports. Based on the results of the national survey and the precepts of the Theories of Communication and Semiotics, the qualitative case study was carried out at Unila, where the accounting communication process of the institution was mapped. From this mapping, the main results that stand out are: the observation of the economic events occurs indirectly by the accountants; The data received by the accounting sector are submitted to a validation process; The flows of procedures are not institutionally formalized institutionally, but adopted in a conventional way; The production of managerial reports is oriented to the needs and particularities of the demanding internal users who make the demands; The accounting information contained in the reports are perceived by the managers as understandable and reliable; The usefulness or relevance of the accounting information is partially compromised, in view of considering problems in the management of the institution. The deficiency identified in the relevance of the reports constitutes a possible motivation for the low demand for information to the accounting sector, since the managers see uncertainties in their use. The empirical approach of Brazilian federal universities, and of Unila in particular, strengthens the discussion about the communication between accountants and users and the qualitative characteristics of the accounting information, by instigating the accomplishment of similar investigations, aimed at optimizing the effectiveness of Accounting. / A Contabilidade pode ser compreendida como um processo de comunicação entre o profissional contábil e o usuário final da informação. A efetividade desse processo de comunicação tem sido objeto de estudos na área contábil e diversas questões ainda permanecem abertas. Orientado pela Teoria da Comunicação de Bedford e Baladouni (1962) e da Semiótica de Morris (1976), este estudo acrescenta a essa discussão uma perspectiva empírica, que possibilita a identificação e análise pormenorizada de ruídos existentes na comunicação contábil, especificamente no âmbito organizacional do setor público. Buscou-se com o estudo compreender o processo de comunicação contábil na Universidade Federal da Integração Latino-Americana (Unila), de forma a captar as qualidades da informação contábil ali produzida, e os ruídos que a afetam. Para tal, procedeu-se uma investigação de duas etapas, orientada pelo projeto explanatório sequencial de Creswell (2007). A primeira etapa se constituiu como um levantamento (survey)
junto às 63 universidades federais brasileiras, em que objetivou-se captar a percepção de contadores e gestores acerca das qualidades presentes nas informações contábeis produzidas para fins gerenciais. Da etapa de abordagem quantitativa, identificou-se que, na percepção dos respondentes de ambos os grupos, as informações contábeis são permeadas de atributos positivos, como uso de linguagem simplificada, adequação às necessidades dos usuários, fidedignidade e relevância para o processo de tomada de decisão. Por outro lado, os gestores indicaram não ter os conhecimentos necessários ao usuário da informação contábil, fator que prejudica a compreensão contábil, e, também, não se utilizar com frequência dos relatórios gerenciais. Embasado nos resultados do levantamento nacional e nos preceitos das Teorias da Comunicação e da Semiótica, procedeu-se o estudo de caso qualitativo na Unila, em que foi mapeado o processo de comunicação contábil da instituição. Do mapeamento se destacam os principais resultados: a observação dos eventos econômicos se dá de maneira indireta pelos contadores; os dados recebidos pelo setor contábil são submetidos a processo de validação; os fluxos de procedimentos não são formalizados institucionalmente, mas adotados de forma convencionada; a produção dos relatórios gerenciais é orientada às necessidades e particularidades dos usuários internos demandantes; as informações contábeis contidas nos relatórios são percebidas pelos gestores como compreensíveis e confiáveis; a utilidade ou relevância das informações contábeis é parcialmente comprometida, tendo em vista problemas na gestão da instituição. A deficiência identificada na relevância dos relatórios se constitui como possível motivação da baixa demanda de informações ao setor contábil, uma vez que os gestores visualizam incertezas em sua utilização. A abordagem empírica das universidades federais brasileiras, e da Unila em específico, fortalecem a discussão acerca da comunicação entre contadores e usuários e das características qualitativas das informações contábeis, ao instigar a realização de investigações semelhantes, direcionadas à otimização da efetividade da Contabilidade.
|
34 |
Comunicação e cultura na internet: em busca de outros jornalismo culturais / Communication and culture on the web: the case of cultural webjournalismAlzamora, Geane Carvalho 04 April 2005 (has links)
Made available in DSpace on 2016-04-26T18:16:12Z (GMT). No. of bitstreams: 1
Geane Carvalho Alzamora.pdf: 11474185 bytes, checksum: ceeec223ee66976c5cf5297fba13e588 (MD5)
Previous issue date: 2005-04-04 / Pontifícia Universidade Católica de Minas Gerais / This research begins with the following questions: which language and cultural features shapes cultural webjournalism and to what extent the later is different from the classical model of cultural journalism in the mass media? To answer these questions, we tried initially to characterize the episthemological realm of the cultural journalism, from a historical perspective which would deal with his language evolution and cultural approaching. Press journalism is taken as a comparative reference because it created the classical model of cultural journalism built by the twentieth century mass media and so it has been a beacon for most of the internet journalistic experiences. The social apropriation of the internet has meaned a new communcational logic, based on contribution, participation and sharing of socially produced informations. The hipermidiatic communication logic is heightened by the media language resources, like multimidiality, hypertextuality, interactivity and memory. On the other hand, the mass logic is characterized by the transmission of information from the basis of centralized social mediations. This transmissive logic has been analysed with mass communication theories and models, and later it has been contrasted, through the peircean semiotics model, with the associative logic of the hypermidiatic communication. Determination and representation semiotic operations, which complete themselves in the semiotic or mediation operation, were related, respectively, to the transmissive logic and to the communicational associative logic. Semiotics suppose continuous improvement of signical processes. On the same way, journalistic semiotics seems to point out to a broadening of its communicational logic, as demonstrated by the new ways of internet cultural information. To investigate the formats through which cultural information circulate on the internet, it has been created a virtual community to discuss, between 2002 and 2004, this issue. Simultaneously, an FCA/PUCMinas and UNI-BH research staff discussed and referenced, in a website, some paradigms of circulation of cultural information on internet. Then, the referenced websites were analysed with the peircean semiotics model focus, and it was measured to what extent they get closer or move away from the cultural journalism classical model. The results has shown that hybridism reigns on the net and that this fact perhaps require the broadening of the cultural journalism concept with the aim of embracing the specificities of hypermidiatic communication associative logic / Esta pesquisa parte das seguintes indagações: quais são as características culturais e de linguagem que conformam o webjornalismo cultural e em que medida este se diferencia do modelo clássico do jornalismo cultural consolidado pelos meios de massa? Para se responder essas questões, buscou-se inicialmente caracterizar o campo de abrangência epistemológica do jornalismo cultural, a partir de uma perspectiva histórica que levasse em conta sua evolução de linguagem e de abordagem cultural. O jornalismo impresso é tomado como referência comparativa porque é dele que emana o modelo clássico de jornalismo cultural consolidado pelos meios de massa no século 20 e é ele que baliza boa parte das experiências jornalísticas na internet. A apropriação social da internet significou uma nova lógica comunicacional, fundada na colaboração, participação e partilha de informações socialmente produzidas. A lógica da comunicacão hipermidiática é potencializada pelos recursos de linguagem do meio, tais como multimidialidade, hipertextualidade, interatividade e memória. Já a lógica de massa se caracteriza pela transmissão de informações a partir de mediações sociais centralizadas. Essa lógica transmissiva foi discutida a partir de teorias e modelos de comunicação de massa e, posteriormente, diferenciada da lógica associativa da comunicação hipermdiática através do modelo peirceano da semiose. As operações semióticas de determinação e representação, que se completam na operação de mediação ou semiose, foram relacionadas respectivamente à lógica transmissiva e à lógica associativa de comunicação. A semiose pressupõe aprimoramento contínuo dos processos sígnicos. Do mesmo modo, a semiose jornalística parece apontar no sentido de ampliação de sua lógica comunicacional, como atestam os novos formatos de informação cultural que emergem da internet. Para se investigar as formas pelas quais a informação cultural circula pela internet, criou-se uma comunidade virtual para discutir, entre 2002 e 2004, essa questão. Simultaneamente, uma equipe de pesquisadores da FCA/PUCMinas e UNI-BH discutiu e referenciou, em um website, paradigmas de circulação de informação cultural na internet. Analisou-se, então, os websistes referenciados à luz do modelo peirceano da semiose, observando em que medida eles se aproximavam e se afastavam do modelo clássico de jornalismo cultural, consolidado pela lógica transmissiva da comunicação de massa. Os resultados demonstraram que o hibridismo impera na rede e que isso deve significar ampliação do conceito de jornalismo cultural para abarcar as especificidades da lógica associativa da comunicação hipermidiática
|
35 |
O LONG ZOOM: PENSAMENTO SISTÊMICO, INTERDISCIPLINARIDADE E COMUNICAÇÃO EM STEVEN JOHNSON / The long zoom: systemic thinking, interdisciplinarity and communication in Steven JohnsonGonçales, Diego Franco 02 May 2013 (has links)
Made available in DSpace on 2016-08-03T12:29:49Z (GMT). No. of bitstreams: 1
Diego Franco.pdf: 1192566 bytes, checksum: 154a0ae08db54c52e6292e9fa0292394 (MD5)
Previous issue date: 2013-05-02 / Steven Johnson é uma referência de relevo na pesquisa brasileira sobre comunicação digital. Ainda assim, essa temática é abordada apenas de maneira tangencial na maior parte da sua produção bibliográfica: os livros de Johnson são, ao mesmo tempo, exemplos e defesas de um método de pesquisa e exposição que integra pensamento sistêmico e abordagem interdisciplinar ao qual ele chama long zoom e que tem a pretensão de trazer novos fatos sobre os fenômenos aos quais é aplicado. Essa dissertação, através de um estudo teórico, analisa os limites e as possibilidades do pensamento de Steven Johnson e de seu long zoom para a pesquisa científica em Comunicação Social. Por meio de uma revisão bibliográfica da obra do autor, cruzando-a com dados biográficos, é apresentada uma análise de conjunto do pensamento de Steven Johnson que o caracteriza como, fundamentalmente, um pensamento epistemológico. A partir disso, com uma breve revisão das principais miradas epistemológicas, da Grécia Antiga ao século XXI, são traçados os parentescos intelectuais do long zoom. Num terceiro momento, revisa-se as formas com que Johnson aplica o long zoom aos problemas da Comunicação Social, verificando-se uma tendência dominante a ressaltar as consequências sociais dos fluxos de informação permitidos pelos meios de comunicação TV e internet, sobretudo, mas também videogames numa aproximação com a Cibernética e, principalmente, um modelo mcluhaniano de análise da comunicação. Após esse trajeto, conclui-se que, a despeito das suas próprias pretensões, Johnson não apresenta novos fatos com o seu long zoom, mas novos pontos de vista e proposições teóricas que podem ou não vir a ser comprovadas pelo trabalho de cientistas.
|
36 |
Sobre separação cega de fontes : proposições e analise de estrategias para processamento multi-usuarioCavalcante, Charles Casimiro 30 April 2004 (has links)
Orientadores: João Marcos Travassos Romano, Francisco Rodrigo Porto Cavalcanti / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-04T00:19:46Z (GMT). No. of bitstreams: 1
Cavalcante_CharlesCasimiro_D.pdf: 8652621 bytes, checksum: bf432c4988b60a8e2465828f4f748b47 (MD5)
Previous issue date: 2004 / Resumo: Esta tese é dedicada ao estudo de tecnicas de separação cega de fontes aplicadas ao contexto de processamento multiusuario em comunicações digitais. Utilizando estrategias de estimação da função de densidade de probabilidade (fdp), são propostos dois metodos de
processamento multiusuario que permitem recuperar os sinais transmitidos pela medida de similaridade de Kullback-Leibler entre a fdp dos sinais a saida do dispositivo de separação e um modelo parametrico que contem as caracteristicas dos sinais transmitidos. Alem desta medida de similaridade, são empregados diferentes metodos que garantem a descorrelação
entre as estimativas das fontes de tal forma que os sinais recuperados sejam provenientes de diferentes fontes. E ainda realizada a analise de convergencia dos metodos e suas equivalencias com tecnicas classicas resultando em algumas importantes relações entre criterios cegos e
supervisionados, tais como o criterio proposto e o criterio de maxima a posteriori. Estes novos metodos aliam a capacidade de recuperação da informação uma baixa complexidade computacional. A proposição de metodos baseados na estimativa da fdp permitiu a realização de um estudo sobre o impacto das estatisticas de ordem superior em algoritmos adaptativos para separação cega de fontes. A utilização da expansão da fdp em series ortonormais permite avaliar atraves dos cumulantes a dinamica de um processo de separação de fontes. Para tratar com problemas de comunicação digital e proposta uma nova serie ortonormal, desenvolvida em torno de uma função de densidade de probabilidade dada por um somatorio de gaussianas. Esta serie e utilizada para evidenciar as diferenças em relação ao desempenho em tempo real ao se reter mais estatisticas de ordem superior. Simulações computacionais são realizadas para evidenciar o desempenho das propostas frente a tecnicas conhecidas da literatura em varias situações de necessidade de alguma estrategia de recuperação de sinais / Abstract: This thesis is devoted to study blind source separation techniques applied to multiuser processing in digital communications. Using probability density function (pdf) estimation strategies, two multiuser processing methods are proposed. They aim for recovering transmitted signal by using the Kullback-Leibler similarity measure between the signals pdf and a parametric model that contains the signals characteristics. Besides the similarity measure, different methods are employed to guarantee the decorrelation of the sources estimates, providing that the recovered signals origin from different sources. The convergence analysis of the methods as well as their equivalences with classical techniques are presented,
resulting on important relationships between blind and supervised criteria such as the proposal and the maximum a posteriori one. Those new methods have a good trade-off between the recovering ability and computational complexity. The proposal os pdf estimation-based methods had allowed the investigation on the impact of higher order statistics on adaptive
algorithms for blind source separation. Using pdf orthonormal series expansion we are able to evaluate through cumulants the dynamics of a source separation process. To be able to deal with digital communication signals, a new orthonormal series expansion is proposed. Such expansion is developed in terms of a Gaussian mixture pdf. This new expansion is used to evaluate the differences in real time processing when we retain more higher order statistics. Computational simulations are carried out to stress the performance of the proposals, faced to well known techniques reported in the literature, under the situations where a recovering signal strategy is required. / Doutorado / Telecomunicações e Telemática / Doutor em Engenharia Elétrica
|
37 |
Definição automática de classificadores fuzzy probabilísticos / Automatic design of probabilistic fuzzy classifiersMelo Jr., Luiz Ledo Mota 18 September 2017 (has links)
CNPq / Este trabalho apresenta uma abordagem para a definição automática de bases de regras em Classificadores Fuzzy Probabilísticos (CFPs), um caso particular dos Sistemas Fuzzy Probabilísticos. Como parte integrante deste processo, são utilizados métodos de redução de dimensionalidade como: análise de componentes principais e discriminante de Fisher. Os algoritmos de agrupamento testados para particionar o universo das variáveis de entrada do sistema são Gustafson-Kessel, Supervised Fuzzy Clustering ambos já consolidados na literatura. Adicionalmente, propõe-se um novo algoritmo de agrupamento denominado Gustafson-Kessel com Ponto Focal como parte integrante do projeto automático de CFPs. A capacidade deste novo algoritmo em identificar clusters elipsoidais e não elipsoidais também é avaliada neste trabalho. Em dados altamente correlacionados ou totalmente correlacionados ocorrem problemas na inversão da matriz de covariância fuzzy. Desta forma, um método de regularização é necessário para esta matriz e um novo método está sendo proposto neste trabalho.Nos CFPs considerados, a combinação de antecedentes e consequentes fornece uma base de regras na qual todos os consequentes são possíveis em uma regra, cada um associado a uma medida de probabilidade. Neste trabalho, esta medida de probabilidade é calculada com base no Teorema de Bayes que, a partir de uma função de verossimilhança, atualiza a informação a priori de cada consequente em cada regra. A principal inovação é o cálculo da função de verossimilhança que se baseia no conceito de “região Ideal” de forma a melhor identificar as probabilidades associadas aos consequentes da regra. Os CFPs propostos são comparados com classificadores fuzzy-bayesianos e outros tradicionais na área de aprendizado de máquina considerando conjuntos de dados gerados artificialmente, 30 benchmarks e também dados extraídos diretamente de problemas reais como detecção de falhas em rolamentos de máquinas industriais. Os resultados dos experimentos mostram que os classificadores fuzzy propostos superam, em termos de acurácia, os classificadores fuzzy-bayesianos considerados e alcançam resultados competitivos com classificadores não-fuzzy tradicionais usados na comparação. Os resultados também mostram que o método de regularização proposto é uma alternativa para a técnica de agrupamento Gustafson-Kessel (com ou sem ponto focal) quando se consideram dados com alta correção linear. / This work presents a new approach for the automatic design of Probabilistic Fuzzy Classifiers (PFCs), which are a special case of Probabilistic Fuzzy Systems. As part of the design process we consider methods for reducing the dimensionality like the principal component analysis and the Fisher discriminant. The clustering methods tested for partitioning the universe of input variables are Gustafson-Kessel and Supervised Fuzzy Clustering, both consolidated in the literature. In addition, we propose a new clustering method called Gustafson-Kessel with Focal Point as part of the automatic design of PFCs. We also tested the capacity of this method to deal with ellipsoidal and non-ellipsoidal clusters. Highly correlated data represent a challenge to fuzzy clustering due to the inversion of the fuzzy covariance matrix. Therefore, a regularization method is necessary for this matrix and a new one is proposed in this work. In the proposed PFCs, the combination of antecedents and consequents provides a rule base in which all consequents are possible, each one associated with a probability measure. In this work, the probability is calculated based on the Bayes Theorem by updating, through the likelihood function, a priori information concerning every consequent in each rule. The main innovation is the calculus of the likelihood functions which is based on the “ideal region” concept, aiming to improve the estimation of the probabilities associated with rules’ consequents. The proposed PFCs are compared with fuzzy-bayesian classifiers and other ones traditional in machine learning over artificial generated data, 30 different benchmarks and also on data directly extracted from real world like the problem of detecting bearings fault in industrial machines. Experiments results show that the proposed PFCs outperform, in terms of accuracy, the fuzzy-bayesian approaches and are competitive with the traditional non-fuzzy classifiers used in the comparison. The results also show that the proposed regularization method is an alternative to the Gustafson-Kessel clustering technique (with or without focal point) when using linearly correlated data.
|
38 |
Definição automática de classificadores fuzzy probabilísticos / Automatic design of probabilistic fuzzy classifiersMelo Jr., Luiz Ledo Mota 18 September 2017 (has links)
CNPq / Este trabalho apresenta uma abordagem para a definição automática de bases de regras em Classificadores Fuzzy Probabilísticos (CFPs), um caso particular dos Sistemas Fuzzy Probabilísticos. Como parte integrante deste processo, são utilizados métodos de redução de dimensionalidade como: análise de componentes principais e discriminante de Fisher. Os algoritmos de agrupamento testados para particionar o universo das variáveis de entrada do sistema são Gustafson-Kessel, Supervised Fuzzy Clustering ambos já consolidados na literatura. Adicionalmente, propõe-se um novo algoritmo de agrupamento denominado Gustafson-Kessel com Ponto Focal como parte integrante do projeto automático de CFPs. A capacidade deste novo algoritmo em identificar clusters elipsoidais e não elipsoidais também é avaliada neste trabalho. Em dados altamente correlacionados ou totalmente correlacionados ocorrem problemas na inversão da matriz de covariância fuzzy. Desta forma, um método de regularização é necessário para esta matriz e um novo método está sendo proposto neste trabalho.Nos CFPs considerados, a combinação de antecedentes e consequentes fornece uma base de regras na qual todos os consequentes são possíveis em uma regra, cada um associado a uma medida de probabilidade. Neste trabalho, esta medida de probabilidade é calculada com base no Teorema de Bayes que, a partir de uma função de verossimilhança, atualiza a informação a priori de cada consequente em cada regra. A principal inovação é o cálculo da função de verossimilhança que se baseia no conceito de “região Ideal” de forma a melhor identificar as probabilidades associadas aos consequentes da regra. Os CFPs propostos são comparados com classificadores fuzzy-bayesianos e outros tradicionais na área de aprendizado de máquina considerando conjuntos de dados gerados artificialmente, 30 benchmarks e também dados extraídos diretamente de problemas reais como detecção de falhas em rolamentos de máquinas industriais. Os resultados dos experimentos mostram que os classificadores fuzzy propostos superam, em termos de acurácia, os classificadores fuzzy-bayesianos considerados e alcançam resultados competitivos com classificadores não-fuzzy tradicionais usados na comparação. Os resultados também mostram que o método de regularização proposto é uma alternativa para a técnica de agrupamento Gustafson-Kessel (com ou sem ponto focal) quando se consideram dados com alta correção linear. / This work presents a new approach for the automatic design of Probabilistic Fuzzy Classifiers (PFCs), which are a special case of Probabilistic Fuzzy Systems. As part of the design process we consider methods for reducing the dimensionality like the principal component analysis and the Fisher discriminant. The clustering methods tested for partitioning the universe of input variables are Gustafson-Kessel and Supervised Fuzzy Clustering, both consolidated in the literature. In addition, we propose a new clustering method called Gustafson-Kessel with Focal Point as part of the automatic design of PFCs. We also tested the capacity of this method to deal with ellipsoidal and non-ellipsoidal clusters. Highly correlated data represent a challenge to fuzzy clustering due to the inversion of the fuzzy covariance matrix. Therefore, a regularization method is necessary for this matrix and a new one is proposed in this work. In the proposed PFCs, the combination of antecedents and consequents provides a rule base in which all consequents are possible, each one associated with a probability measure. In this work, the probability is calculated based on the Bayes Theorem by updating, through the likelihood function, a priori information concerning every consequent in each rule. The main innovation is the calculus of the likelihood functions which is based on the “ideal region” concept, aiming to improve the estimation of the probabilities associated with rules’ consequents. The proposed PFCs are compared with fuzzy-bayesian classifiers and other ones traditional in machine learning over artificial generated data, 30 different benchmarks and also on data directly extracted from real world like the problem of detecting bearings fault in industrial machines. Experiments results show that the proposed PFCs outperform, in terms of accuracy, the fuzzy-bayesian approaches and are competitive with the traditional non-fuzzy classifiers used in the comparison. The results also show that the proposed regularization method is an alternative to the Gustafson-Kessel clustering technique (with or without focal point) when using linearly correlated data.
|
Page generated in 0.0964 seconds