• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 388
  • 16
  • 6
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 418
  • 254
  • 83
  • 66
  • 65
  • 61
  • 56
  • 50
  • 50
  • 47
  • 42
  • 39
  • 38
  • 37
  • 35
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Mineração de regras de associação aplicada a dados da Secretaria Municipal de Saúde de Londrina PR / Mining of Association Rules Applied to Londrina´s Health City Department – PR

Silva, Glauco Carlos January 2004 (has links)
Com o grande crescimento dos volumes de dados que as organizações vêm registrando e a diversidade das fontes destes dados, o fato de se aproveitar informações contidas nessas massas de dados se tornou uma necessidade. Surgiu então uma área denominada Descoberta de Conhecimento em Bases de Dados (DCBD). Tal área utiliza alguns modelos, técnicas e algoritmos que realizam operações de extração de conhecimento útil de grandes volumes de dados. Entre as principais técnicas utilizadas para minerar os dados está a de Regras de Associação. A técnica de Regras de Associação se propõe a encontrar todas as associações relevantes entre um conjunto de itens aplicados a outros itens, e utiliza alguns algoritmos para realizar seu objetivo. Este estudo apresenta alguns algoritmos para a aplicação da técnica de Regras de Associação, também, busca abranger um pouco da tecnologia de Data Warehouse, muito útil para que o processo de mineração de dados possa ser realizado com maior sucesso. Neste trabalho são aplicadas técnicas de descoberta de conhecimento na área de saúde, vinculando dados referentes à situação socioeconômica do paciente com os procedimentos que foram realizados nas internações hospitalares a que foi submetido. Devido ao grande número de regras que poderiam se geradas resultantes das inúmeras possibilidades da base de dados, foi construído um protótipo de uma ferramenta para extração de regras de associação, que não só é baseado no suporte e confiança, mas também utiliza os conceitos de lift e improvement os quais ajudam na diminuição de regras triviais. Foram realizadas minerações com a base de dados de pacientes da Secretaria Municipal de Saúde de Londrina-PR, para análise da utilidade dos dados minerados. / The increasing amount of data that organization have been registering and the diversity of data sources have generate the necessity of extract knowledge from this mass of data. Based on this necessity a new area has emerged which is named Knowledge Discovery in Data Base (KDD). In this work apply the association rule mining technique in the public health area, linking social economic situation of patients which were attended in our hospitals. Because of large number of rules that can be produce we developed a prototype of a tool for extract association rules, not only based on support and confidence, but using too the measures lift and improvement in order to reduce the number of rules. Experiments were performed with the “Secretaria Municipal de Saúde de Londrina – PR” database
142

Gerando modelos SCADE a partir de especificações descritas em SCR

ANDRADE, Marcelo Costa Melo de 23 August 2013 (has links)
Submitted by João Arthur Martins (joao.arthur@ufpe.br) on 2015-03-11T19:12:53Z No. of bitstreams: 2 Dissertacao Marcelo de Andrade.pdf: 1169415 bytes, checksum: bbbc84fb17de4321f5fc8b9f6d9cdb6e (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Approved for entry into archive by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-03-13T13:12:01Z (GMT) No. of bitstreams: 2 Dissertacao Marcelo de Andrade.pdf: 1169415 bytes, checksum: bbbc84fb17de4321f5fc8b9f6d9cdb6e (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-13T13:12:01Z (GMT). No. of bitstreams: 2 Dissertacao Marcelo de Andrade.pdf: 1169415 bytes, checksum: bbbc84fb17de4321f5fc8b9f6d9cdb6e (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013-08-23 / Requisitos são um dos principais artefatos no desenvolvimento de um sistema. Para sistemas críticos, os requisitos são artefatos obrigatórios para satisfazer critérios de certificações tais como os descritos no guia de certificação DO-178B. Apesar de sua importância, estes artefatos são geralmente descritos informalmente através de linguagem natural. O uso da linguagem natural propicia a descrição de requisitos ambíguos, incompletos e inconsistentes. Para sanar este problema foi definido o método Software Cost Reduction (SCR), que permite a descrição formal de requisitos de forma precisa e relativamente amigável através do uso de tabelas preenchidas com expressões lógicas. Em particular, de forma a nos aproximarmos ainda mais das tecnologias usadas na indústria de sistemas críticos, neste trabalho nosso SCR é o implementado na ferramenta TTM da suíte T-VEC (um conjunto de ferramentas que suporta a sintaxe de SCR e possibilita a geração de vetores de testes e análise de propriedades), a qual é capaz de gerar casos de teste seguindo o guia DO-178B. Além dos requisitos, a certificação do código implementado também é uma obrigação para sistemas críticos e o uso de SCR somente não garante isso. Enquanto o método SCR auxilia na descrição detalhada de requisitos, o ambiente de desenvolvimento baseado em modelos denominado Safety Critical Application Development Environment (SCADE) auxilia na modelagem de software crítico. SCADE é também usado para gerar código certificado de acordo com o DO-178B. Neste trabalho apresentamos como obter modelos SCADE a partir de especificações descritas em SCR através da aplicação de regras de tradução. Com isto obtemos código certificado a partir de requisitos formais em uma única solução. Para aplicar as regras de forma automática, construímos uma ferramenta tradutora usando o framework Stratego/ XT. Por fim, aplicamos nosso tradutor em dois estudos de caso descritos em SCR. Foi feito uso de uma estratégia de verificação baseada em testes para atestar que os modelos SCADE produzidos por nosso tradutor correspondem às descrições em SCR. A estratégia de verificação consiste em usar T-VEC para gerar vetores de testes de acordo com o critério de cobertura MCDC e então aplicar os testes no código C gerado pelo SCADE. Apesar de nosso tradutor não ser provado correto, podemos argumentar indiretamente que o mesmo preserva as propriedades descritas em SCR nos modelos SCADE gerados automaticamente. Quanto a certificação do tradutor, isto fica a cargo de nosso parceiro industrial Embraer S.A. .
143

A atuação dos agentes ante as rotinas de melhorias contínuas de qualidade : estudo de casos em Pernambuco

MACHADO, Francisco Oliveira 24 February 2014 (has links)
Submitted by Suethene Souza (suethene.souza@ufpe.br) on 2015-03-12T18:59:55Z No. of bitstreams: 2 TESE Francisco Oliveira Machado.pdf: 3432662 bytes, checksum: 28d246489d7ce7c8a4b9cf7267b4b10c (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-12T18:59:55Z (GMT). No. of bitstreams: 2 TESE Francisco Oliveira Machado.pdf: 3432662 bytes, checksum: 28d246489d7ce7c8a4b9cf7267b4b10c (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2014-02-24 / A tese buscou “compreender a adoção e as ações tomadas sobre regras/ferramentas/práticas de melhoria contínua de qualidade em rotinas no processo produtivo em seus aspectos ostensivos e performativos em organizações de manufatura atuantes no setor metal-mecânico e de material elétrico/eletrônico”. Em busca deste objetivo geral, um estudo qualitativo de dois casos foi desenvolvidos em Pernambuco. As evidências foram obtidas por meio de entrevistas por pauta, de observação simples no ambiente de trabalho e de análise documental. Os casos analisados apresentaram resultados distintos. O primeiro apresenta uma solidificação em um sistema de gestão baseado na Manutenção Produtiva Total – TPM – e nos padrões de qualidade oriundos da Organização Internacional de Padronização – ISO. O sistema permite o evidenciar de artefatos e de todos os três papéis agindo sobre as regras, ocasionando melhorias contínuas de qualidade no processo produtivo nesta atuação. O segundo caso, apesar de conter seu sistema de gestão alicerçado na ISO, não tem uma estruturação nos papéis de fazedor, seguidor e supervisor de regras de melhoria contínua no processo produtivo. Em consequência desta situação, evidenciar nas mais diversas fontes de informações, registros e/ou relatos de melhorias de processo, não foi possível. Portanto, a tese de que Agentes que exercem o papel de fazedores, seguidores e/ou supervisores de regras são responsáveis por estabelecer, consolidar e/ou alterar regras e rotinas de melhoria contínua da qualidade, considerando características do ambiente institucional e das ações realizadas em meio à interação no processo produtivo, foi confirmada. Por fim, almeja-se que os achados da tese possam contribuir (1) ao desenvolvimento de pesquisas futuras e (2) à gestão da melhoria contínua de processo produtivo nas organizações. Esta contribuição recai especialmente sobre: (1) o melhor entendimento do papel de “líder” na qualidade e (2) a compreensão das pessoas acerca das regras e rotinas de qualidade, ou seja, em seus aspectos ostensivos.
144

Um sistema de automação para gerenciadoras de risco de transportes rodoviários de cargas

ANDRADE, André Meireles de 14 August 2015 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-04-05T14:38:47Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) ufpe-cin-andremeireles-2015-11-17.pdf: 8981550 bytes, checksum: 80caeed81afc48b30eeb28174f481950 (MD5) / Made available in DSpace on 2016-04-05T14:38:47Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) ufpe-cin-andremeireles-2015-11-17.pdf: 8981550 bytes, checksum: 80caeed81afc48b30eeb28174f481950 (MD5) Previous issue date: 2015-08-14 / CAPEs / CNPq / O alto índice de roubos de cargas e veículos e de acidentes nas rodovias brasileiras tem tornado a negociação de seguros cada vez menos vantajosa para as seguradoras, chegando muitas vezes a inviabilizar esse tipo de negócio, comum a diversos tipos de bens. Como solução, as empresas de gerenciamento de risco surgiram no mercado no intuito de reduzir os custos das seguradoras através da prevenção de roubos e acidentes. No entanto, essas empresas que trabalham com operações complexas e grandes quantidades de dados têm apresentado reincidência de falhas operacionais ocasionadas pela sobrecarga de trabalho manual exigida dos operadores que monitoram os veículos e cargas. Essas falhas geram prejuízos que chegam a desestabilizar esse modelo de negócio. O projeto Unicomm analisou o ambiente de trabalho de uma empresa de gerenciamento de risco e, através do mapeamento dos processos e da representação do conhecimento, informatizou processos e automatizou ações humanas, por meio de um sistema de produção e uso de raciocínio baseado em regras. Os resultados observados mostram que a capacidade de automatização das atividades operacionais dessas empresas pode dar suporte ao refatoramento do modelo de trabalho e ganhos financeiros representativos. / The high rate of theft of cargo and vehicles and accidents on Brazilian highways has made the insurance negotiation increasingly less advantageous for insurers, many coming time to derail this type of business, common to many types of goods. As a solution, the risk management companies appeared on the market in order to reduce the cost of insurance by preventing theft and accidents. However, these companies working with complex operations and large amounts of data have shown recurrence of operational failures caused by manual workload required to operators who monitor the vehicles and cargos. These failures generate losses coming to destabilize this business model. The Unicomm project analyzed the risk management company work environment and, through the mapping of processes and knowledge representation, computerized automated processes and human actions, implementing a production system with rule-based reasoning. Our results show that the automation capability of the operational activities of these businesses can support the refactoring job template and representative financial gains.
145

Mapeando CSP em UML-RT

Messias da Silva Menezes Junior, Manoel 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T15:52:01Z (GMT). No. of bitstreams: 1 license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2008 / A integração de métodos formais com notações semi-formais visuais é uma tendência em engenharia de software. Métodos formais apresentam uma semântica precisa e permitem verificação de propriedades. No entanto, não são considerados intuitivos. Por outro lado, notações semi-formais visuais, como UML, são facilmente integradas no processo de desenvolvimento de software. Assim, métodos formais e semi-formais visuais são complementares. CSP e UML-RT são, respectivamente, exemplos de notação formal e diagramática usados para especificar e projetar sistemas concorrentes e distribuídos. CSP é um método formal no qual processos representam unidades comportamentais que se comunicam através de canais de comunicação, utilizando passagem de mensagem. UML-RT é uma extensão conservativa de UML na qual cápsulas são unidades comportamentais que se comunicam através de portas de comunicação. Portas realizam protocolos os quais especificam os sinais que podem ser enviados e recebidos através de uma porta, e a ordem na qual os sinais podem ser comunicados. Em um trabalho anterior, Ferreira apresentou um conjunto de regras que sistematizam o mapeamento de CSP para UML-RT, mas uma prova formal deste mapeamento não foi apresentada. Assim, para garantir consistência no desenvolvimento de sistemas concorrentes e distribuídos utilizando este mapeamento, a prova formal do mesmo é indispensável, uma vez que não faz sentido o esforço dedicado à especificação do sistema em CSP e a verificação de propriedades e refinamentos, se uma ou mais regras de mapeamento estiverem incorretas. No entanto, UMLRT não possui uma semântica formal padrão. Entre outras propostas de semântica formal, Ramos propõe uma semântica para UML-RT utilizando OhCircus (uma combinação de CSP e Z com características adicionais de orientação a objetos) como modelo semântico. Neste trabalho, é proposta uma variação da semântica de Ramos para UML-RT usando CSP como modelo semântico. Com base nesta semântica, é apresentada a prova do mapeamento de CSP para UML-RT, considerando o modelo de falhas e divergências de CSP. Assim, este trabalho consolida a integração de CSP e UML-RT proposta por Ferreira, no desenvolvimento de sistemas críticos, concorrentes e distribuídos. Um resultado interessante foi observar que, estritamente, as regras propostas por Ferreira não preservam a semântica de CSP, essencialmente com relação a aspectos de terminação dos processos
146

Uma arquitetura de software para descoberta de regras de associação multidimensional, multinível e de outliers em cubos OLAP: um estudo de caso com os algoritmos APriori e FPGrowth

Moreira Tanuro, Carla 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:55:26Z (GMT). No. of bitstreams: 2 arquivo2236_1.pdf: 2979608 bytes, checksum: 3c3ed256a9de67bd5b716bb15d15cb6c (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2010 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / O processo tradicional de descoberta de conhecimento em bases de dados (KDD Knowledge Discovery in Databases) não contempla etapas de processamento multidimensional e multinível (i.e., processamento OLAP - OnLine Analytical Processing) para minerar cubos de dados. Por conseqüência, a maioria das abordagens de OLAM (OLAP Mining) propõe adaptações no algoritmo minerador. Dado que esta abordagem provê uma solução fortemente acoplada ao algoritmo minerador, ela impede que as adaptações para mineração multidimensional e multinível sejam utilizadas com outros algoritmos. Além disto, grande parte das propostas de OLAM para regras de associação não considera o uso de um servidor OLAP e não tira proveito de todo o potencial multidimensional e multinível presentes nos cubos OLAP. Por estes motivos, algum retrabalho (e.g., re-implementação de operações OLAP) é realizado e padrões possivelmente fortes decorrentes de generalizações não são identificados. Diante desse cenário, este trabalho propõe a arquitetura DOLAM (Decoupled OLAM) para mineração desacoplada de regras de associação multidimensional, multinível e de outliers em cubos OLAP. A arquitetura DOLAM deve ser inserida no processo de KDD (Knowledge Discovery in Databases) como uma etapa de processamento que fica entre as etapas de Pré-Processamento e Transformação de Dados. A arquitetura DOLAM define e implementa três componentes: 1) Detector de Outliers, 2) Explorador de Subcubos e 3) Expansor de Ancestrais. A partir de uma consulta do usuário, estes componentes são capazes de, respectivamente: 1) identificar ruídos significativos nas células do resultado; 2) explorar, recursivamente, todas as células do resultado, de forma a contemplar todas as possibilidades de combinações multidimensional e multinível e 3) recuperar todos os antecessores (generalizações) das células do resultado. O componente central da arquitetura é o Expansor de Ancestrais - o único de uso obrigatório. Ressalta-se que, a partir desses componentes, o processamento OLAM fica desacoplado do algoritmo minerador e permite realizar descobertas mais abrangentes, as quais, por conseqüência, podem retornar padrões potencialmente mais fortes. Como prova de conceito, foi realizado um estudo de caso com dados reais de uma empresa de micro-crédito. O estudo de caso foi implementado em Java, fez uso do servidor OLAP Mondrian e utilizou as implementações dos algoritmos para mineração de regras de associação APriori e FP-Growth do pacote de software Weka
147

Mineração de dados aplicada à celeridade processual do tribunal de contas do estado de Pernambuco (TCE-PE)

Uilma Rodrigues dos Santos de Sousa, Maria 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:56:38Z (GMT). No. of bitstreams: 2 arquivo2958_1.pdf: 2624002 bytes, checksum: 513ebfc26b253d09c042e76312480f61 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2010 / A celeridade processual das Cortes de Decisão indica grau de desenvolvimento das nações. A morosidade processual, por sua vez, pode ser usada para medir o seu nível de subdesenvolvimento, uma vez que causa prejuízos sociais, ao erário e, mais especificamente, ao cidadão que é parte em um processo. No Brasil, trata-se de um problema real, de larga escala, cuja solução ainda não foi investigada usando as técnicas de mineração de dados, conforme demonstra a pesquisa realizada em todos os 33 (trinta e três) Tribunais de Contas nacionais. Este trabalho investiga a aplicação de mineração de dados como metodologia de tecnologia da informação para apoio à solução do problema da morosidade processual e do retrabalho, que resultam em aumento dos estoques de processos nas Cortes de Decisão. As bases de dados foram integradas, os dados foram transformados, o conhecimento foi extraído e o desempenho dos modelos avaliado. Para extração do conhecimento, foram utilizadas técnicas de Inteligência Artificial, tradicionalmente aceitas: Regras de Classificação, para a descrição das condições que influenciam o problema e, Redes Neurais Artificiais, para a construção dos classificadores. A qualidade da solução desenvolvida e sua aceitação pelos especialistas no domínio mostraram a viabilidade de utilizar Mineração de Dados para apoio à decisão gerencial na administração do estoque de processos dos Tribunais de Contas. Para o estudo de caso foram utilizados os dados do Tribunal de Contas do Estado de Pernambuco
148

Gerando acompanhamento rítmico automático para violão : estudo de caso do Cyber-João

Leal de Melo Daltia, Marcio January 2004 (has links)
Made available in DSpace on 2014-06-12T15:59:04Z (GMT). No. of bitstreams: 2 arquivo4827_1.pdf: 1875080 bytes, checksum: 09ee6a6168bda66551c83bd5e401ac9c (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2004 / Apesar de seu potencial uso em programas de acompanhamento e composição musicais, a geração automática de ritmo não tem sido muito discutida na literatura de computação musical. Essa tarefa é bastante difícil de modelar devido ao pouco conhecimento formal sobre essa dimensão musical: os músicos explicam suas escolhas rítmicas em alto nível, a partir de critérios abstratos como swing, por exemplo, não sendo capazes de fornecer regras objetivas que elucidem suas decisões em granularidade de notas. Além disso, ao contrário de tarefas como a geração de harmonia, que são facilitadas pela disponibilidade de uma extensa bibliografia em teoria musical, pouco existe sobre ritmos como acompanhamento. De fato, a própria literatura disponível deixa a entender que essa dimensão musical é mais associada à subjetividade. Este trabalho apresenta um sistema que gera acompanhamento rítmico para violão automaticamente. Para minimizar os efeitos da dificuldade de formalização do conhecimento, o sistema faz uso de uma abordagem bastante natural em música, o reuso contextualizado de padrões rítmicos encontrados em performances de músicos de renome. Para isso, foram combinadas duas técnicas de inteligência artificial: raciocínio baseado em casos, para a modelagem da memória musical (associação de padrões rítmicos e o contexto onde devem ser usado) e raciocínio dedutivo baseado em regras, para associar intenções abstratas às características contextuais dos padrões. Como estudo de caso, foi desenvolvido o Cyber-João, um programa capaz de gerar acompanhamento rítmico para Bossa Nova encadeando e adaptando padrões rítmicos encontrados em gravações clássicas de João Gilberto. Por fim, o modelo do Cyber-João foi comparado empiricamente com algumas outras abordagens implementadas para a resolução do problema, demonstrando um desempenho bastante satisfatório
149

Mecanismos explicativos para RNAs como extração de conhecimento

CAMPOS, Paulemir Gonçalves January 2005 (has links)
Made available in DSpace on 2014-06-12T16:01:00Z (GMT). No. of bitstreams: 2 arquivo7132_1.pdf: 2088995 bytes, checksum: aa5d2a0c53668dd8ebc5d10ae3ada3a2 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2005 / As Redes Neurais Artificiais (RNAs), um dos principais modelos de computação em Inteligência Artificial (IA), vêm sendo largamente utilizadas nas diversas abordagens de previsão do comportamento dos dados, por exemplo, em processamento de sinais, reconhecimento de padrões, aproximação de função e também previsão de séries temporais. Isto porque as RNAs englobam muitas características desejáveis como boa capacidade de generalização, não linearidade, multivariáveis, não paramétricas, dentro de um esquema de implementação relativamente eficiente em termos de velocidade e exigência de memória computacional. Apesar do grande uso de RNAs para resolver vários tipos de problemas apresentando bom desempenho, o usuário geralmente quer entender como e porque a rede obteve uma dada saída em relação à entrada que lhe foi apresentada. Ou seja, a incapacidade de explicar como e porque a rede gera suas respostas é uma das principais críticas às RNAs, principalmente quando aplicadas em sistemas onde a segurança na operação seja um aspecto importante, tais como problemas de controle de usinas nucleares, controle do sistema de navegação de aeronaves, auxílio a cirurgias médicas, sistemas de diagnóstico médico e detecção de falhas mecânicas. Isto se deve ao fato do conhecimento está armazenado na topologia, nos pesos e quando usado no bias da rede, o que evidentemente dificulta a compreensão pelo usuário de como a rede encontrou a solução para um determinado problema. Segundo a literatura, a forma mais usual de se resolver esta deficiência é a partir da rede treinada extrair regras do tipo Se/Então. Note que, tais regras são bem mais aceitáveis pelos usuários por serem muito parecidas com a forma de representar o raciocínio humano. Logo, trata-se de uma maneira bastante plausível de se justificar as saídas apresentadas pela rede. Portanto, o objetivo principal deste trabalho é fazer um estudo comparativo entre diversos algoritmos, incluindo os quatro aqui propostos (destacando-se o Literal e o ProRulext), para extração de regras de redes MLP (Multilayer Perceptron) aplicadas à problemas de classificação de padrões e de previsão de séries temporais verificando qual(is) o(s) método(s) que obtém o conjunto de regras mais conciso e representativo das redes treinadas em cada um destes problemas
150

A fraude fiscal de origem das mercadorias no Mercosul: um estudo do caso brasileiro

Maria Tomaz Ribeiro Ramos, Joaquina 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T17:20:43Z (GMT). No. of bitstreams: 2 arquivo591_1.pdf: 430877 bytes, checksum: 5aa34f8c70c9dbb07bfc87fade231cce (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2010 / Secretaria da Receita Federal / O presente trabalho constitui um estudo sobre as regras de origem das mercadorias, direcionado para o Regime de Origem aplicado pelo MERCOSUL e a identificação e quantificação das infrações fiscais de origem ocorridas nas importações brasileiras efetuadas no âmbito desse Acordo, avaliando-se as conseqüências para a economia nacional das fraudes fiscais praticadas e sugerindo-se medidas que otimizem sua repressão. Nessa perspectiva, inicialmente discorre-se sobre as normas de origem, seus fundamentos e estrutura, destacando-se sua importância na execução de acordos preferenciais de comércio para, em seguida, abordar-se os Regimes de Origem adotados pelos principais blocos econômicos internacionais, destacando-se o Regime de Origem do MERCOSUL. A seguir, explana-se sobre a fiscalização e o controle aduaneiros das importações em questão, identificam-se e quantificam-se as infrações fiscais de origem praticadas e analisam-se suas repercussões na economia brasileira para, finalmente, apresentar sugestões que possam otimizar a atividade da fiscalização federal promovida pela Aduana

Page generated in 0.031 seconds