• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 1
  • Tagged with
  • 22
  • 22
  • 22
  • 20
  • 17
  • 15
  • 13
  • 11
  • 10
  • 10
  • 10
  • 10
  • 10
  • 10
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Recomenda??o de tags para m?dia social colaborativa: da generaliza??o ? personaliza??o

Ziesemer, Angelina de Carvalho A. 20 March 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:47Z (GMT). No. of bitstreams: 1 438773.pdf: 3581155 bytes, checksum: 8bd17c869fd04adc206bbbcd32f4b1dd (MD5) Previous issue date: 2012-03-20 / Social media systems such as Flickr, Youtube and Picasa have become very popular as they provide a collaborative environment to share photos and videos supporting tags, ratings and comments. This kind of interaction includes a lot of content provided by users, which may bring meaningful information to recommendation systems. The aggregation of tags is also a way to cluster items and provide tag-based search content. We investigate how to support tag recommendation by ranking the co-occurrence, popularity and relevance of commonly-used tags in similar items and by similar users. We developed a tag recommendation system to recommend of possibly relevant tags. We use Flickr s dataset to analyze our algorithm s behavior and present the results provide by the experiment. A new model using personalized recommendation was developed using the experiment results and the behavior of each user. / Sistemas de m?dia social como Flickr, Youtube e Picasa tornaram-se muito populares devido ao seu ambiente para compartilhamento de imagens, v?deos e suporte ? atribui??o de tags, avalia??es e coment?rios. Sistemas colaborativos possuem grandes quantidades de conte?do provido pelos usu?rios, os quais fornecem informa??es relevantes para engines de recomenda??o. O uso de tags tamb?m permite a clusteriza??o e busca de conte?do baseado em palavras-chaves. Neste trabalho foi investigado um mecanismo para recomendar tags, desenvolvendo medidas de co-ocorr?ncia, popularidade e relev?ncia de tags comumente usadas em itens similares e por usu?rios similares. Foi desenvolvido um sistema para recomendar poss?veis tags relevantes baseadas na similaridade contextual de outras tags providas pelos usu?rios. Para o desenvolvimento do experimento, foi utilizado um dataset do Flickr para gerar recomenda??es e analisar o comportamento do algoritmo e as atribui??es efetuadas pelos usu?rios participantes. Os resultados obtidos demonstraram padr?es de atribui??o e desempenho de acordo com o conte?do/contexto da imagem. Utilizando a frequ?ncia de atribui??o baseada no hist?rico de cada perfil ? sugerido um novo modelo personalizado para recomenda??o de tags.
2

Extra??o autom?tica de conceitos a partir de textos em l?ngua portuguesa

Lopes, Lucelene 26 January 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:48Z (GMT). No. of bitstreams: 1 439085.pdf: 7508888 bytes, checksum: c69f67a5ec361212f83a17a4407866ce (MD5) Previous issue date: 2012-01-26 / This thesis describes a process to extract concepts from texts in portuguese language. The proposed process starts with linguistic annotated corpora from specific domains, and it generates lists of concepts for each corpus. The proposal of a linguistic oriented extraction procedure based on noun phrase detection, and a set of heuristics to improve the overall quality of concept candidate extraction is made. The improvement in precision and recall of extracted term list is from approximatively from 10% to more more than 60%. A new index (tf-dcf) based on contrastive corpora is proposed to sort the concept candidate terms according to the their relevance to their respective domain. The precision results achieved by this new index are superior to to the results achieved by indices proposed in similar works. Cut-off points are proposed in order to identify, among extracted concept candidate terms sorted according to their relevance, which of them will be considered concepts. A hybrid approach to choose cut-off points delivers reasonable F-measure values, and it brings quality to the concept identification process. Additionally, four applications are proposed in order to facilitate the comprehension, handling, and visualization of extracted terms and concepts. Such applications enlarge this thesis contributions available to a broader community of researchers and users of Natural Language Processing area. The proposed process is described in detail, and experiments empirically evaluate each process step. Besides the scientific contribution made with the process proposal, this thesis also delivers extracted concept lists for five different domain corpora, and the prototype of a software tool (EχATOLP) implementing all steps of the proposed process. / Essa tese descreve um processo para extrair conceitos de textos em l?ngua portuguesa. O processo proposto inicia com corpora de dom?nio linguisticamente anotados, e gera listas de conceitos dos dom?nios de cada corpus. Utiliza-se uma abordagem lingu?stica, que baseia-se na identifica??o de sintagmas nominais e um conjunto de heur?sticas que melhoram a qualidade da extra??o de candidatos a conceitos. Essa melhora ? expressa por incrementos aproximadamente de 10% para mais de 60% nos valores de precis?o e abrang?ncia das listas de termos extra?das. Prop?e-se um novo ?ndice (tf-dcf) baseado na compara??o com corpora contrastantes, para ordenar os termos candidatos a conceito extra?dos de acordo com suas relev?ncias para o corpus de dom?nio. Os resultados obtidos com esse novo ?ndice s?o superiores aos resultados obtidos com ?ndices propostos em trabalhos similares. Aplicam-se pontos de corte para identificar, dentre os termos candidatos classificados segundo sua relev?ncia, quais ser?o considerados conceitos. O uso de uma abordagem h?brida para escolha de pontos de corte fornece valores adequados de medida F, trazendo qualidade ao processo de identifica??o de conceitos. Adicionalmente. prop?em-se quatro aplica??es para facilitar a compreens?o, manipula??o e visualiza??o dos termos e conceitos extra?dos. Essas aplica??es tornam as contribui??es dessa tese acess?veis a um maior n?mero de pesquisadores e usu?rios da ?rea de Processamento de Linguagem Natural. Todo o processo proposto ? descrito em detalhe, e experimentos avaliam empiricamente cada passo. Al?m das contribui??es cient?ficas feitas com a proposta do processo, essa tese tamb?m apresenta listas de conceitos extra?dos para cinco diferentes corpora de dom?nio, e o prot?tipo de numa ferramenta de software (EXATOLP) que implementa todos os passos propostos.
3

Um modelo para a an?lise de impacto em c?digo fonte usando ontologias e recupera??o de informa??o

Noll, Rodrigo Perozzo 13 August 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:53Z (GMT). No. of bitstreams: 1 442552.pdf: 9370705 bytes, checksum: 8a3aef50bd6e373e63349d63858be524 (MD5) Previous issue date: 2012-08-13 / Changes are inevitable during the product lifecycle. These changes are due different needs, such as the knowledge evolution of business processes, environment or infrastructure changes, etc. Under these circumstances, it is crucial to have the control about the knowledge of what these changes mean to the system. Impact analysis represents the process that creates this knowledge. The impact analysis has a wide meaning for software development, such as the assessment of source code structures or the control of project management constraints. This thesis aims to present a model to analyze the impact in source code using ontologies in order to improve precision and recall of the identified source code structures compared to existing techniques. The use of ontologies integrates a semantic layer under the traditional techniques founded in syntactic analysis. To develop the impact analysis model, it was defined two different sub models: traceability and probability. The traceability model receives as input the source code and domain ontology and generates a traceability ontology populated with links between domain concepts (classes and properties) and source code units (classes, methods and attributes). These links are populated by a lexical and semantic analyzer that categorize, normalize (token generation, expansion and elimination) and compare (stemming) each token. With the traceability ontology and a change request, the probabilistic model classifies each traceability link using Bayesian Belief Networks. To the probability calculus, the node classification used the Google PageRank algorithm and the arrows used frequency analysis TFIDF and conceptual dependency, defined in this thesis. The impact analysis model was implemented as an Eclipse plugin and was empirically evaluated using three controlled experiments. / Mudan?as s?o inevit?veis durante o ciclo de vida do software. Estas mudan?as s?o resultado de diferentes necessidades, como a evolu??o do conhecimento sobre os processos de neg?cio, altera??es de ambiente, etc. Nestas circunst?ncias, ? crucial ter controle sobre o que essas mudan?as representam na aplica??o. A an?lise de impacto representa o processo que gera este conhecimento. Essa an?lise possui um significado abrangente dentro do desenvolvimento de software, incluindo desde a identifica??o de estruturas no c?digo fonte at? o controle das restri??es de gest?o de projeto. Esta tese apresenta um modelo para analisar o impacto no c?digo fonte de uma aplica??o utilizando ontologias, visando melhorar a precis?o e revoca??o de estruturas identificadas se comparadas a t?cnicas existentes. O uso de ontologias integra uma perspectiva sem?ntica nas t?cnicas tradicionalmente baseadas na an?lise sint?tica do c?digo fonte. Para o desenvolvimento do modelo de an?lise de impacto, foram definidos dois submodelos: o de rastreabilidade e o de probabilidade. O modelo de rastreabilidade recebe como entrada o c?digo fonte e uma ontologia de dom?nio e gera como resultado uma ontologia de rastreabilidade populada automaticamente com elos entre conceitos do dom?nio (classes e propriedades) e estruturas do c?digo (classes, m?todos e atributos). Estes elos s?o populados atrav?s de um analisador l?xico e sem?ntico que realiza a categoriza??o, normaliza??o (gera??o de tokens, expans?o e elimina??o) e compara??o (stemming). Com base na ontologia de rastreabilidade e em um requisito de mudan?a, o modelo probabil?stico classifica cada elo de rastreabilidade utilizando o modelo de Redes de Cren?as Bayesianas. Para o c?lculo de probabilidade, a classifica??o dos nodos utilizou o algoritmo PageRank do Google e das arestas, a an?lise de frequ?ncia TFIDF e a depend?ncia conceitual, definida nesta tese. Este modelo de an?lise de impacto foi implementado como um plugin do eclipse e foi avaliado empiricamente atrav?s de tr?s experimentos controlados.
4

Minera??o de opini?es aplicada a m?dias sociais

Souza, Marlo Vieira dos Santos e 19 March 2012 (has links)
Made available in DSpace on 2015-04-14T14:50:01Z (GMT). No. of bitstreams: 1 448645.pdf: 990116 bytes, checksum: 3ad832cb853385fcbb55975315370396 (MD5) Previous issue date: 2012-03-19 / The competitive environment has become more dynamic in the last few decades due to the great development of information and comunication technologies and to the globalization process.A company manager must, thus, always be well informed about the competitive landscape before making strategic decisions. In this sense, the Competitive Intelligence (CI) emerges as a discipline that aims to systematize the collection and analysis of information in the competitive environment willing to assist decision making. There is, however, an increasing amount of information being produced and released in Internet and traditional media, which become unwieldy. Associated with this, managers still suffer with time constraints to respond to the market stimuli and remain competitive. Thus, it is necessary to maintain a constant staff monitoring the competitive environment to be able to handle the amount of information from this various sources. We believe that the application Text Analysis techniques can help in various stages of such process. This work presents a proposal to use such techniques to aid the process of Competitive Intelligence. We discuss the use of Sentiment Analysis techniques coupled with Named Entity Recognition in texts from social media - especially Twitter - which helps in the analysis of the attitudes of the consumer market towards a brand. We also present a system implementing the proposed techniques, the evaluations made with it and present our conclusions. / O ambiente competitivo se tornou, nas ultimas d?cadas, mais din?mico gra?as ?s tecnologias de informa??o e comunica??o e ? globaliza??o. O gestor, assim, precisa estar sempre bem informado sobre o panorama competitivo antes de tomar decis?es estrat?gicas. Nessa dire??o, a Intelig?ncia Competitiva (IC) surge como uma disciplina que pretende sistematizar a obten??o e an?lise de informa??es do ambiente competitivo com fun??o de auxiliar a tomada de decis?o. H? entretanto uma quantidade crescente de informa??o sendo produzida e disponibilizada em meios como a Internet e m?dias tradicionais, as quais se tornam de dif?cil manejo. Associado a isso, os gestores sofrem ainda com restri??es temporais para responder ao est?mulo do mercado e manteremse competitivos. Dessa forma, ? necess?rio manter uma equipe de monitoramento constante do ambiente competitivo para que se possa lidar com a quantidade de informa??o proveniente de diversas fontes. Acreditamos que a aplica??o de t?cnicas de An?lise de Texto podem auxiliar nas diversas fases do processo de IC. O presente trabalho apresenta uma proposta de utiliza??o de tais t?cnicas para auxiliar o processo de Intelig?ncia Competitiva. Discutimos aqui a utiliza??o de um m?todo de An?lise de Sentimentos aliado ao Reconhecimento de Entidades Nomeadas em textos provenientes de m?dias sociais - particularmente o Twitter - que permitam analisar as atitudes do mercado consumidor quanto a uma determinada marca. S?o apresentados ainda o sistema desenvolvido, as avalia??es realizadas e as conclus?es que tiramos.
5

Extra??o de rela??es do dom?nio de organiza??es para o portugu?s

Abreu, Sandra Collovini de 16 January 2014 (has links)
Made available in DSpace on 2015-04-14T14:50:10Z (GMT). No. of bitstreams: 1 457562.pdf: 2425407 bytes, checksum: fefac4edf439614aa48e880ee5b36971 (MD5) Previous issue date: 2014-01-16 / The task of Relation Extraction from texts is one of the main challenges in the area of Information Extraction, considering the required linguistic knowledge and the sophistication of the language processing techniques employed. This task aims at identifying and classifying semantic relations that occur between entities recognized in a given text. For example, the sentence Next Saturday, Ronaldo Lemos, director of Creative Commons, will participate in a debate [...]" expresses a institutionalbond" relation that occurs between the named entities Ronaldo Lemos" and Creative Commons". This thesis proposes a process for extraction of relation descriptors, which describes the explicit relations between named entities in the Organization domain (Person, Organization and Location) by applying, to texts in Portuguese, Conditional Random Fields (CRF), a probabilistic model that has been used in various tasks e⇥ciently in processing sequential text, including the task of Relation Extraction. In order to implement the proposed process, a reference corpus for extracting relations, necessary for learning, was manually annotated based on a reference corpus for named entities (HAREM). Based on an extensive literature review on the automatic extraction of relations task, features of different types were defined. An experimental evaluation was performed to evaluate the learned model utilizing the defined features. Different input feature configurations for CRF were evaluated. Among them, the highlight was the inclusion of the semantic feature based on the named entity category, since this feature could express, in a better way, the kind of relationship between the pair of named entities we want to identify. Finally, the best results correspond to the extraction of relations between the named entities of Organization and Person categories, in which the F -measure rates were 57% and 63%, considering the correct and partially correct extractions, respectively. / A tarefa de Extra??o de Rela??es a partir de textos ? um dos principais desafios da ?rea de Extra??o de Informa??o, tendo em vista o conhecimento lingu?stico exigido e a sofistica??o das t?cnicas de processamento da l?ngua empregados. Essa tarefa visa identificar e classificar rela??es sem?nticas que ocorrem entre entidades reconhecidas em um determinado texto. Por exemplo, o trecho No pr?ximo S?bado, Ronaldo Lemos, diretor da Creative Commons, ir? participar de um debate (...)" expressa uma rela??o de v?nculo-institucional" que ocorre entre as entidades nomeadas Ronaldo Lemos" e Creative Commons". Esta tese prop?e um processo para extra??o de descritores de rela??o, os quais descrevem rela??es expl?citas entre entidades nomeadas do dom?nio de Organiza??es (Pessoa, Organiza??o e Local) utilizando o modelo probabil?stico Conditional Random Fields (CRF), e sua aplica??o em textos da L?ngua Portuguesa. O modelo probabil?stico CRF tem sido aplicado eficientemente em diversas tarefas de processamento de texto sequencial, incluindo recentemente a tarefa de Extra??o de Rela??es. A fim de aplicar o processo proposto, um corpus de refer?ncia para extra??o de rela??es, necess?rio para o aprendizado, foi anotado manualmente, tomando como base um corpus de refer?ncia para entidades nomeadas (HAREM). Com base em uma extensa revis?o da literatura sobre a tarefa de extra??o autom?tica de rela??es, features de diferentes naturezas foram definidas. Uma avalia??o experimental foi realizada com o objetivo de avaliar o modelo aprendido utilizando as features definidas. Diferentes configura??es de features de entrada para o CRF foram avaliadas. Dentre elas, destacou-se a inclus?o da feature sem?ntica baseada na categoria da entidade nomeada, j? que essa feature conseguiu expressar melhor o tipo de rela??o que se deseja identificar entre o par de entidades nomeadas. Por fim, os melhores resultados obtidos correspondem ? extra??o de rela??es entre as entidades nomeadas das categorias Organiza??o e Pessoa, na qual as taxas de F-measure foram de 57% e 63%, considerando as extra??es corretas e parcialmente corretas, respectivamente.
6

A proposal for an architecture to extract information from sms messages during emergency situations

Monteiro, Douglas Machado 16 March 2015 (has links)
Submitted by Setor de Tratamento da Informa??o - BC/PUCRS (tede2@pucrs.br) on 2015-05-15T11:49:34Z No. of bitstreams: 1 468523 - Texto Completo.pdf: 3578868 bytes, checksum: 4d26c3b12a22330579e4b83f7414ebc4 (MD5) / Made available in DSpace on 2015-05-15T11:49:34Z (GMT). No. of bitstreams: 1 468523 - Texto Completo.pdf: 3578868 bytes, checksum: 4d26c3b12a22330579e4b83f7414ebc4 (MD5) Previous issue date: 2015-03-16 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior - CAPES / In mass emergencies, a fair amount of information is exchanged via SMS messages. These messages tend to be informal and to contain abbreviations and misspellings, which makes them difficult to treat. This is a problem for current Information Extraction tools, especially for messages in Portuguese. This work proposes an architecture to extract information from SMS messages during emergencies. The architecture comprises four components: Linguistic Processing, Temporal Processing, Event Processing, and Information Fusion. We also defined an SMS corpus building process. From the proposal of this architecture, we conducted a case study, which included building BraCorpSMS, a corpus of SMS messages received by an electric utility company. We built a prototype in Python using NLTK to validate the architecture. The prototype had its Information Extraction components evaluated achieving Precision of 88%, Recall of 59% and balanced F-measure of 71%. The results indicate improvement opportunities, but as this is the first work for Portuguese facing processing SMS messages during emergency situations, it also serves as a roadmap for future work in the area. / Durante situa??es de emerg?ncia, uma grande quantidade de informa??o ? trocada via mensagens SMS. Estas mensagens costumam ter escrita informal e cont?m abrevia??es e erros de grafia, o que dificulta seu processamento. Este ? um problema para as ferramentas de Extra??o de Informa??o atuais, especialmente para o Portugu?s. Este trabalho prop?e uma arquitetura de extra??o de informa??o de mensagens SMS em situa??es de emerg?ncia. A arquitetura contempla quatro componentes: processamento lingu?stico, processamento temporal, processamento de eventos e fus?o da informa??o. Tamb?m se define um processo para cria??o de corpus de SMSs. A partir da arquitetura proposta, foi realizado um estudo de caso que incluiu a constru??o do BraCorpSMS, um corpus de mensagens SMS recebidos por uma companhia de energia el?trica e um prot?tipo em Python utilizando NLTK para validar a arquitetura. O prot?tipo teve seus componentes de Extra??o de Informa??o avaliados, obtendo 88% de Precis?o, 59% de Cobertura e 71% de Medida-F. Os resultados indicam oportunidades de avan?os, mas, sendo este o primeiro trabalho para o Portugu?s voltado para o processamento de mensagens SMS em situa??es de emerg?ncia, tamb?m serve de roteiro para trabalhos futuros nesta ?rea.
7

Expans?o de consultas com realimenta??o e pseudo realimenta??o de relevantes em um sistema que utiliza o modelo TR+ para indexar e recuperar documentos

Borges, Thyago Bohrer 26 January 2009 (has links)
Made available in DSpace on 2015-04-14T14:49:10Z (GMT). No. of bitstreams: 1 416994.pdf: 2345425 bytes, checksum: 75ba39cb209e96c61f3f88810380759c (MD5) Previous issue date: 2009-01-26 / Este trabalho apresenta e discute os resultados obtidos com a aplica??o das t?cnicas de expans?o de consulta denominadas Pseudo Realimenta??o de Relevantes (PRR) e Realimenta??o de Relevantes (RR) em um Sistema de Recupera??o de Informa??o (SRI) que utiliza o modelo de recupera??o de informa??o denominado TR+. TR+ ? um modelo de recupera??o de informa??o que emprega, al?m de termos, Rela??es Lexicais Bin?rias (RLB) presentes nos textos e nas consultas, para indexar e recuperar documentos textuais em l?ngua portuguesa. A aplica??o das t?cnicas de expans?o de consultas PRR e RR t?m como objetivo melhorar os resultados obtidos pelo usu?rio que realiza uma consulta. As duas t?cnicas se diferenciam quanto ? participa??o do usu?rio: enquanto a RR utiliza o julgamento do usu?rio na defini??o de quais documentos recuperados pela consulta original fornecer?o as informa??es utilizadas na expans?o da consulta, a PRR busca eliminar a participa??o do usu?rio durante este processo. Os resultados obtidos pelos experimentos, tanto utilizando PRR quanto RR, n?o superaram os resultados utilizados como baseline (Gonzalez, 2005). Ao compararmos entre si os resultados dos experimentos com as t?cnicas PRR e RR, os experimentos com PRR foram superados pela RR somente em uma rodada. No contexto dessa disserta??o podemos concluir que a utiliza??o de RLBs ao inv?s de usar somente termos, ? uma op??o mais producente.
8

Recursos do processamento da l?ngua natural aplicados na recupera??o sem?ntica de documentos de caso de uso

Silva J?nior, Cust?dio Gast?o da 15 December 2009 (has links)
Made available in DSpace on 2015-04-14T14:49:53Z (GMT). No. of bitstreams: 1 442334.pdf: 1018335 bytes, checksum: c77dd540cf5f9308c80ab3c9f7da5374 (MD5) Previous issue date: 2009-12-15 / The Requirements Engineering basically deals with how to discover, analyze, register and verify the functions and restrictions that software must consider. In this process the designer not only concentrates in understanding the necessities, goals and certainties of the interested users but also in changing them into software devices. This process is known as development cycle and it is carried out until the software covers all the requirements of the involved users. This study describes how the resources of the natural language processing were used in the construction for a solution of semantics recovery of use case document and it also presents the reached findings. For the construction of the solution, it is specified a method that organizes the preparation and recovery works in two phases. The first describes the form how the corpus must be prepared and how the terms used in the preparation phase can be used in the definition of the keys concepts of the domain. The second phase explains how the document recovery is carried out and shows how the described relationships in the ontology are used to improve the results of the recovery. The presented findings reveal the described method in this study is efficient, since it presented a covering of 100% in both tests. Related of measure of precision, that presented an inferior result of 50%, it was compensated by the ranking algorithm that sorted the documents of similar form of the manual classification done by the users. / A engenharia de requisitos trata fundamentalmente de como descobrir, analisar, documentar e verificar as fun??es e restri??es que um software deve contemplar. Neste processo o projetista se concentra em entender as necessidades, metas e convic??es dos interessados e em como transform?-las em artefatos de software. Isso ? conhecido como ciclo de desenvolvimento e ? realizado at? que o software atenda todos os requisitos dos interessados. Este trabalho descreve como os recursos do processamento da l?ngua natural foram utilizados na constru??o de uma solu??o para recupera??o sem?ntica de documentos de caso de uso e apresenta os resultados alcan?ados. Para a constru??o da solu??o, foi especificado um m?todo que organiza os trabalhos de prepara??o e recupera??o em duas fases. A primeira descreve a forma como o corpus deve ser preparado e como os termos utilizados na prepara??o podem ser utilizados na defini??o das palavras-chave do dom?nio. A segunda fase explica como a recupera??o de documentos ? realizada, e mostra como os relacionamentos descritos na ontologia s?o utilizados para melhorar os resultados da recupera??o. Os resultados apresentados mostram que o m?todo descrito neste trabalho ? promissor, visto que ele apresentou cobertura de 100% em ambos os testes. Quanto a medida de precis?o, que apresentou resultado inferior a 50%, o resultado foi compensado pelo algoritmo de ranking que ordenou os documentos de forma similar a classifica??o manual feita pelos usu?rios.
9

Sistema P??blico de Escritura????o Digital - SPED Cont??bil : impactos nas pr??ticas de controle interno e gest??o de riscos de empresas participantes do projeto piloto da Receita Federal

Roseno, Edison 30 May 2012 (has links)
Made available in DSpace on 2015-12-03T18:35:22Z (GMT). No. of bitstreams: 1 Edison_Roseno.pdf: 1302523 bytes, checksum: 3c2d7aac5ffdf47d7543adf1db7fb874 (MD5) Previous issue date: 2012-05-30 / Accounting in Brazil has undergone profound changes with the recent adaptation to international standards and because of the constant process of computerization of accounting and tax imposed by tax legislation, arises in this context called the \"SPED\", Public Digital Bookkeeping System, created by the Federal Government in 2007, to replace manual bookkeeping paper to digital. Once put into operation the system, companies subject to the delivery of these bonds will provide information via digital files to government oversight (City, State and Federal). With the implementation of these projects, companies will experience significant impacts in their practices Internal Control and Risk Management. Against this backdrop, this study aimed to: \"Check in the perception of the interviewees, to what extent were affected practices Internal Controls and Risk Management of three companies participating in the Pilot Project of the Internal Revenue Service in the implementation of SPED Accounting.\" To achieve this qualitative study was undertaken of documentary and bibliographic character. Data were obtained from the three professional companies that participated in the pilot project, collected using an interview script, with analysis of the results assessed by the technique of content analysis. It was found that the main impacts on the deployment layout Accounting SPED were the adaptation of integrated systems and the transition of the Chart of Accounts of the Company with the Chart of Accounts Reference imposed by the government due to the large volume of information generated in the systems. The survey found that companies practiced a policy of internal controls, in order to monitor and control departmental procedures and measured the risks incurred in the implementation of Accounting SPED. As for risk management, it was found that at the time of project implementation SPED Accounting, had not adopted policies to measure and mitigate the flow of information in the consolidated accounting and tax accounting / A Contabilidade brasileira tem passado por profundas altera????es com a recente adequa????o ??s normas internacionais e devido ao constante processo de informatiza????o dos processos cont??beis e fiscais impostos pela legisla????o tribut??ria. Surge neste contexto o chamado \"SPED\", Sistema P??blico de Escritura????o Digital, criado pelo Governo Federal em 2007, para substituir a escritura????o manual em papel para a digital. Uma vez implatado o sistema, as Empresas sujeitas ?? entrega dessas obriga????es fornecer??o informa????es por meio de arquivos digitais aos ??rg??os governamentais de fiscaliza????o (Municipal, Estadual e Federal). Com a implanta????o desses projetos, as empresas sofrer??o significativos impactos em suas pr??ticas de Controle Interno e Gest??o de Riscos. Diante desse cen??rio, a presente pesquisa teve como objetivo: \"Verificar na percep????o dos sujeitos entrevistados, em que medida foram afetadas as pr??ticas de Controles Internos e Gest??o de Riscos de tr??s empresas participantes do Projeto Piloto da Receita Federal na implanta????o do SPED Cont??bil\". Para atingir este objetivo foi realizada pesquisa qualitativa, de carater documental e bibliogr??fico. Os dados foram obtidos junto a profissionais das tr??s empresas que participaram do projeto piloto, coletados por meio de um roteiro de entrevista, com an??lises dos resultados avaliados pela t??cnica de an??lise de conte??do. Constatou-se que os principais impactos na implanta????o ao layout do SPED Cont??bil foram a adapta????o dos sistemas integrados e a transi????o do Plano de Contas da Empresa com o Plano de Contas Referencial imposto pelo Governo, devido ao grande volume de informa????es geradas nos sistemas. A pesquisa constatou que as empresas praticavam a politica de controles internos, com objetivo de fiscalizar e controlar os procedimentos internos dos departamentos e que mensuravam os riscos ocorridos na implanta????o do SPED Cont??bil. Quanto ?? gest??o de riscos, constatou-se que na ??poca da implanta????o do projeto SPED Cont??bil, n??o havia pol??ticas adotadas para mensurar e mitigar os riscos dos fluxos das informa????es cont??beis e fiscais consolidadas na Contabilidade
10

Integra??o da l?gica nebulosa ? recupera??o de informa??o em data warehouse / Fuzzy logic integration to information retrieval in data warehouse

Luz, Robinson 28 June 2005 (has links)
Made available in DSpace on 2016-04-04T18:36:28Z (GMT). No. of bitstreams: 1 Robinson Luz 1.pdf: 1073059 bytes, checksum: 0604a48ed74be248d60095338d576759 (MD5) Previous issue date: 2005-06-28 / This research has as its objective to study the integration of fuzzy logic to data warehouse technologies, having its basis on Information Science theories and practices, it proposes an alternative conceptual model of organization and information retrieval. To develop the model it is described many types of data base in its history file, since its creation up to the data storage known as data warehouse . Regarding the data warehouse , it is showed its architecture, dimension and volatility to show its basis and justify the choice of this kind of database for rendering a comparative study of data recovery using Boolean logic and fuzzy logic . Basic concepts of fuzzy logic , its characteristics, uses and importance to support the decision taking are presented. It is still presented the advantages on using the methods of fuzzy treatment to deal with system that interact with human beings through simulation and thinking. It is presented tests which exemplify the effectiveness degree of data retrieval in data warehouse through Boolean logic and also through fuzzy logic . As a result of this study, it is shown a parameter proposal that will be taken in consideration when integrating the fuzzy logic to data warehouses . / A presente pesquisa tem como objeto de estudo a integra??o da l?gica nebulosa ?s tecnologias de data warehouse . Objetiva, especificamente, propor, com base nas teorias e pr?ticas da Ci?ncia da informa??o, um modelo conceitual alternativo de organiza??o e recupera??o de informa??o.Para o desenvolvimento do modelo s?o descritos diversos tipos de bancos de dados e seu hist?rico, desde sua cria??o at? os armaz?ns de dados chamados data warehouse . Quanto aos data warehouse , s?o expostos sua arquitetura, dimens?es e volatilidade, para fundamentar e justificar a escolha deste tipo de banco de dados para realizar estudo comparativo de recupera??o de dados utilizando-se a l?gica booleana e a l?gica nebulosa . S?o apresentados tamb?m conceitos b?sicos de l?gica nebulosa , suas caracter?sticas, aplica??es e sua import?ncia para auxilio ? tomada de decis?o. S?o apresentadas, ainda, as vantagens do uso de m?todos de tratamento nebuloso para lidar com sistemas que interagem com seres humanos por meio da simula??o de racioc?nios. S?o apresentados testes que exemplificam o grau de efic?cia da recupera??o de dados em data warehouse por meio da l?gica booleana e por meio da l?gica nebulosa . Como resultado do estudo, apresenta-se uma proposta de par?metros que ser?o considerados na integra??o da l?gica difusa aos data warehouses .

Page generated in 0.0922 seconds