Spelling suggestions: "subject:"regras"" "subject:"negras""
141 |
Mineração de regras de associação aplicada a dados da Secretaria Municipal de Saúde de Londrina PR / Mining of Association Rules Applied to Londrina´s Health City Department – PRSilva, Glauco Carlos January 2004 (has links)
Com o grande crescimento dos volumes de dados que as organizações vêm registrando e a diversidade das fontes destes dados, o fato de se aproveitar informações contidas nessas massas de dados se tornou uma necessidade. Surgiu então uma área denominada Descoberta de Conhecimento em Bases de Dados (DCBD). Tal área utiliza alguns modelos, técnicas e algoritmos que realizam operações de extração de conhecimento útil de grandes volumes de dados. Entre as principais técnicas utilizadas para minerar os dados está a de Regras de Associação. A técnica de Regras de Associação se propõe a encontrar todas as associações relevantes entre um conjunto de itens aplicados a outros itens, e utiliza alguns algoritmos para realizar seu objetivo. Este estudo apresenta alguns algoritmos para a aplicação da técnica de Regras de Associação, também, busca abranger um pouco da tecnologia de Data Warehouse, muito útil para que o processo de mineração de dados possa ser realizado com maior sucesso. Neste trabalho são aplicadas técnicas de descoberta de conhecimento na área de saúde, vinculando dados referentes à situação socioeconômica do paciente com os procedimentos que foram realizados nas internações hospitalares a que foi submetido. Devido ao grande número de regras que poderiam se geradas resultantes das inúmeras possibilidades da base de dados, foi construído um protótipo de uma ferramenta para extração de regras de associação, que não só é baseado no suporte e confiança, mas também utiliza os conceitos de lift e improvement os quais ajudam na diminuição de regras triviais. Foram realizadas minerações com a base de dados de pacientes da Secretaria Municipal de Saúde de Londrina-PR, para análise da utilidade dos dados minerados. / The increasing amount of data that organization have been registering and the diversity of data sources have generate the necessity of extract knowledge from this mass of data. Based on this necessity a new area has emerged which is named Knowledge Discovery in Data Base (KDD). In this work apply the association rule mining technique in the public health area, linking social economic situation of patients which were attended in our hospitals. Because of large number of rules that can be produce we developed a prototype of a tool for extract association rules, not only based on support and confidence, but using too the measures lift and improvement in order to reduce the number of rules. Experiments were performed with the “Secretaria Municipal de Saúde de Londrina – PR” database
|
142 |
Gerando modelos SCADE a partir de especificações descritas em SCRANDRADE, Marcelo Costa Melo de 23 August 2013 (has links)
Submitted by João Arthur Martins (joao.arthur@ufpe.br) on 2015-03-11T19:12:53Z
No. of bitstreams: 2
Dissertacao Marcelo de Andrade.pdf: 1169415 bytes, checksum: bbbc84fb17de4321f5fc8b9f6d9cdb6e (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Approved for entry into archive by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-03-13T13:12:01Z (GMT) No. of bitstreams: 2
Dissertacao Marcelo de Andrade.pdf: 1169415 bytes, checksum: bbbc84fb17de4321f5fc8b9f6d9cdb6e (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-13T13:12:01Z (GMT). No. of bitstreams: 2
Dissertacao Marcelo de Andrade.pdf: 1169415 bytes, checksum: bbbc84fb17de4321f5fc8b9f6d9cdb6e (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Previous issue date: 2013-08-23 / Requisitos são um dos principais artefatos no desenvolvimento de um sistema. Para
sistemas críticos, os requisitos são artefatos obrigatórios para satisfazer critérios de
certificações tais como os descritos no guia de certificação DO-178B. Apesar de sua
importância, estes artefatos são geralmente descritos informalmente através de linguagem
natural. O uso da linguagem natural propicia a descrição de requisitos ambíguos,
incompletos e inconsistentes. Para sanar este problema foi definido o método Software
Cost Reduction (SCR), que permite a descrição formal de requisitos de forma precisa e
relativamente amigável através do uso de tabelas preenchidas com expressões lógicas. Em
particular, de forma a nos aproximarmos ainda mais das tecnologias usadas na indústria
de sistemas críticos, neste trabalho nosso SCR é o implementado na ferramenta TTM da
suíte T-VEC (um conjunto de ferramentas que suporta a sintaxe de SCR e possibilita a
geração de vetores de testes e análise de propriedades), a qual é capaz de gerar casos de
teste seguindo o guia DO-178B. Além dos requisitos, a certificação do código implementado
também é uma obrigação para sistemas críticos e o uso de SCR somente não garante
isso. Enquanto o método SCR auxilia na descrição detalhada de requisitos, o ambiente
de desenvolvimento baseado em modelos denominado Safety Critical Application Development
Environment (SCADE) auxilia na modelagem de software crítico. SCADE é
também usado para gerar código certificado de acordo com o DO-178B.
Neste trabalho apresentamos como obter modelos SCADE a partir de especificações
descritas em SCR através da aplicação de regras de tradução. Com isto obtemos código
certificado a partir de requisitos formais em uma única solução. Para aplicar as regras
de forma automática, construímos uma ferramenta tradutora usando o framework Stratego/
XT. Por fim, aplicamos nosso tradutor em dois estudos de caso descritos em SCR. Foi
feito uso de uma estratégia de verificação baseada em testes para atestar que os modelos
SCADE produzidos por nosso tradutor correspondem às descrições em SCR. A estratégia
de verificação consiste em usar T-VEC para gerar vetores de testes de acordo com o
critério de cobertura MCDC e então aplicar os testes no código C gerado pelo SCADE.
Apesar de nosso tradutor não ser provado correto, podemos argumentar indiretamente
que o mesmo preserva as propriedades descritas em SCR nos modelos SCADE gerados
automaticamente. Quanto a certificação do tradutor, isto fica a cargo de nosso parceiro
industrial Embraer S.A. .
|
143 |
A atuação dos agentes ante as rotinas de melhorias contínuas de qualidade : estudo de casos em PernambucoMACHADO, Francisco Oliveira 24 February 2014 (has links)
Submitted by Suethene Souza (suethene.souza@ufpe.br) on 2015-03-12T18:59:55Z
No. of bitstreams: 2
TESE Francisco Oliveira Machado.pdf: 3432662 bytes, checksum: 28d246489d7ce7c8a4b9cf7267b4b10c (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-12T18:59:55Z (GMT). No. of bitstreams: 2
TESE Francisco Oliveira Machado.pdf: 3432662 bytes, checksum: 28d246489d7ce7c8a4b9cf7267b4b10c (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Previous issue date: 2014-02-24 / A tese buscou “compreender a adoção e as ações tomadas sobre regras/ferramentas/práticas de melhoria contínua de qualidade em rotinas no processo produtivo em seus aspectos ostensivos e performativos em organizações de manufatura atuantes no setor metal-mecânico e de material elétrico/eletrônico”. Em busca deste objetivo geral, um estudo qualitativo de dois casos foi desenvolvidos em Pernambuco. As evidências foram obtidas por meio de entrevistas por pauta, de observação simples no ambiente de trabalho e de análise documental. Os casos analisados apresentaram resultados distintos. O primeiro apresenta uma solidificação em um sistema de gestão baseado na Manutenção Produtiva Total – TPM – e nos padrões de qualidade oriundos da Organização Internacional de Padronização – ISO. O sistema permite o evidenciar de artefatos e de todos os três papéis agindo sobre as regras, ocasionando melhorias contínuas de qualidade no processo produtivo nesta atuação. O segundo caso, apesar de conter seu sistema de gestão alicerçado na ISO, não tem uma estruturação nos papéis de fazedor, seguidor e supervisor de regras de melhoria contínua no processo produtivo. Em consequência desta situação, evidenciar nas mais diversas fontes de informações, registros e/ou relatos de melhorias de processo, não foi possível. Portanto, a tese de que Agentes que exercem o papel de fazedores, seguidores e/ou supervisores de regras são responsáveis por estabelecer, consolidar e/ou alterar regras e rotinas de melhoria contínua da qualidade, considerando características do ambiente institucional e das ações realizadas em meio à interação no processo produtivo, foi confirmada. Por fim, almeja-se que os achados da tese possam contribuir (1) ao desenvolvimento de pesquisas futuras e (2) à gestão da melhoria contínua de processo produtivo nas organizações. Esta contribuição recai especialmente sobre: (1) o melhor entendimento do papel de “líder” na qualidade e (2) a compreensão das pessoas acerca das regras e rotinas de qualidade, ou seja, em seus aspectos ostensivos.
|
144 |
Um sistema de automação para gerenciadoras de risco de transportes rodoviários de cargasANDRADE, André Meireles de 14 August 2015 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-04-05T14:38:47Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
ufpe-cin-andremeireles-2015-11-17.pdf: 8981550 bytes, checksum: 80caeed81afc48b30eeb28174f481950 (MD5) / Made available in DSpace on 2016-04-05T14:38:47Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
ufpe-cin-andremeireles-2015-11-17.pdf: 8981550 bytes, checksum: 80caeed81afc48b30eeb28174f481950 (MD5)
Previous issue date: 2015-08-14 / CAPEs / CNPq / O alto índice de roubos de cargas e veículos e de acidentes nas rodovias brasileiras
tem tornado a negociação de seguros cada vez menos vantajosa para as
seguradoras, chegando muitas vezes a inviabilizar esse tipo de negócio, comum a
diversos tipos de bens. Como solução, as empresas de gerenciamento de risco
surgiram no mercado no intuito de reduzir os custos das seguradoras através da
prevenção de roubos e acidentes. No entanto, essas empresas que trabalham com
operações complexas e grandes quantidades de dados têm apresentado
reincidência de falhas operacionais ocasionadas pela sobrecarga de trabalho
manual exigida dos operadores que monitoram os veículos e cargas. Essas falhas
geram prejuízos que chegam a desestabilizar esse modelo de negócio. O projeto
Unicomm analisou o ambiente de trabalho de uma empresa de gerenciamento de
risco e, através do mapeamento dos processos e da representação do
conhecimento, informatizou processos e automatizou ações humanas, por meio de
um sistema de produção e uso de raciocínio baseado em regras. Os resultados
observados mostram que a capacidade de automatização das atividades
operacionais dessas empresas pode dar suporte ao refatoramento do modelo de
trabalho e ganhos financeiros representativos. / The high rate of theft of cargo and vehicles and accidents on Brazilian highways has
made the insurance negotiation increasingly less advantageous for insurers, many
coming time to derail this type of business, common to many types of goods. As a
solution, the risk management companies appeared on the market in order to reduce
the cost of insurance by preventing theft and accidents. However, these companies
working with complex operations and large amounts of data have shown recurrence
of operational failures caused by manual workload required to operators who monitor
the vehicles and cargos. These failures generate losses coming to destabilize this
business model. The Unicomm project analyzed the risk management company work
environment and, through the mapping of processes and knowledge representation,
computerized automated processes and human actions, implementing a production
system with rule-based reasoning. Our results show that the automation capability of
the operational activities of these businesses can support the refactoring job template
and representative financial gains.
|
145 |
Mapeando CSP em UML-RTMessias da Silva Menezes Junior, Manoel 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T15:52:01Z (GMT). No. of bitstreams: 1
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2008 / A integração de métodos formais com notações semi-formais visuais é uma tendência em engenharia
de software. Métodos formais apresentam uma semântica precisa e permitem verificação
de propriedades. No entanto, não são considerados intuitivos. Por outro lado, notações
semi-formais visuais, como UML, são facilmente integradas no processo de desenvolvimento
de software. Assim, métodos formais e semi-formais visuais são complementares.
CSP e UML-RT são, respectivamente, exemplos de notação formal e diagramática usados
para especificar e projetar sistemas concorrentes e distribuídos. CSP é um método formal no
qual processos representam unidades comportamentais que se comunicam através de canais
de comunicação, utilizando passagem de mensagem. UML-RT é uma extensão conservativa
de UML na qual cápsulas são unidades comportamentais que se comunicam através de portas
de comunicação. Portas realizam protocolos os quais especificam os sinais que podem ser
enviados e recebidos através de uma porta, e a ordem na qual os sinais podem ser comunicados.
Em um trabalho anterior, Ferreira apresentou um conjunto de regras que sistematizam o mapeamento
de CSP para UML-RT, mas uma prova formal deste mapeamento não foi apresentada.
Assim, para garantir consistência no desenvolvimento de sistemas concorrentes e distribuídos
utilizando este mapeamento, a prova formal do mesmo é indispensável, uma vez que não faz
sentido o esforço dedicado à especificação do sistema em CSP e a verificação de propriedades e
refinamentos, se uma ou mais regras de mapeamento estiverem incorretas. No entanto, UMLRT
não possui uma semântica formal padrão. Entre outras propostas de semântica formal,
Ramos propõe uma semântica para UML-RT utilizando OhCircus (uma combinação de CSP e
Z com características adicionais de orientação a objetos) como modelo semântico.
Neste trabalho, é proposta uma variação da semântica de Ramos para UML-RT usando CSP
como modelo semântico. Com base nesta semântica, é apresentada a prova do mapeamento de
CSP para UML-RT, considerando o modelo de falhas e divergências de CSP. Assim, este trabalho
consolida a integração de CSP e UML-RT proposta por Ferreira, no desenvolvimento de
sistemas críticos, concorrentes e distribuídos. Um resultado interessante foi observar que, estritamente,
as regras propostas por Ferreira não preservam a semântica de CSP, essencialmente
com relação a aspectos de terminação dos processos
|
146 |
Uma arquitetura de software para descoberta de regras de associação multidimensional, multinível e de outliers em cubos OLAP: um estudo de caso com os algoritmos APriori e FPGrowthMoreira Tanuro, Carla 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:55:26Z (GMT). No. of bitstreams: 2
arquivo2236_1.pdf: 2979608 bytes, checksum: 3c3ed256a9de67bd5b716bb15d15cb6c (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2010 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / O processo tradicional de descoberta de conhecimento em bases de dados (KDD
Knowledge Discovery in Databases) não contempla etapas de processamento
multidimensional e multinível (i.e., processamento OLAP - OnLine Analytical
Processing) para minerar cubos de dados. Por conseqüência, a maioria das abordagens
de OLAM (OLAP Mining) propõe adaptações no algoritmo minerador. Dado que esta
abordagem provê uma solução fortemente acoplada ao algoritmo minerador, ela impede
que as adaptações para mineração multidimensional e multinível sejam utilizadas com
outros algoritmos. Além disto, grande parte das propostas de OLAM para regras de
associação não considera o uso de um servidor OLAP e não tira proveito de todo o
potencial multidimensional e multinível presentes nos cubos OLAP. Por estes motivos,
algum retrabalho (e.g., re-implementação de operações OLAP) é realizado e padrões
possivelmente fortes decorrentes de generalizações não são identificados.
Diante desse cenário, este trabalho propõe a arquitetura DOLAM (Decoupled
OLAM) para mineração desacoplada de regras de associação multidimensional,
multinível e de outliers em cubos OLAP. A arquitetura DOLAM deve ser inserida no
processo de KDD (Knowledge Discovery in Databases) como uma etapa de
processamento que fica entre as etapas de Pré-Processamento e Transformação de
Dados. A arquitetura DOLAM define e implementa três componentes: 1) Detector de
Outliers, 2) Explorador de Subcubos e 3) Expansor de Ancestrais. A partir de uma
consulta do usuário, estes componentes são capazes de, respectivamente: 1) identificar
ruídos significativos nas células do resultado; 2) explorar, recursivamente, todas as
células do resultado, de forma a contemplar todas as possibilidades de combinações
multidimensional e multinível e 3) recuperar todos os antecessores (generalizações) das
células do resultado. O componente central da arquitetura é o Expansor de Ancestrais -
o único de uso obrigatório. Ressalta-se que, a partir desses componentes, o
processamento OLAM fica desacoplado do algoritmo minerador e permite realizar
descobertas mais abrangentes, as quais, por conseqüência, podem retornar padrões
potencialmente mais fortes. Como prova de conceito, foi realizado um estudo de caso
com dados reais de uma empresa de micro-crédito. O estudo de caso foi implementado
em Java, fez uso do servidor OLAP Mondrian e utilizou as implementações dos
algoritmos para mineração de regras de associação APriori e FP-Growth do pacote de
software Weka
|
147 |
Mineração de dados aplicada à celeridade processual do tribunal de contas do estado de Pernambuco (TCE-PE)Uilma Rodrigues dos Santos de Sousa, Maria 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:56:38Z (GMT). No. of bitstreams: 2
arquivo2958_1.pdf: 2624002 bytes, checksum: 513ebfc26b253d09c042e76312480f61 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2010 / A celeridade processual das Cortes de Decisão indica grau de desenvolvimento das
nações. A morosidade processual, por sua vez, pode ser usada para medir o seu nível de
subdesenvolvimento, uma vez que causa prejuízos sociais, ao erário e, mais especificamente,
ao cidadão que é parte em um processo. No Brasil, trata-se de um problema real, de larga
escala, cuja solução ainda não foi investigada usando as técnicas de mineração de dados,
conforme demonstra a pesquisa realizada em todos os 33 (trinta e três) Tribunais de Contas
nacionais.
Este trabalho investiga a aplicação de mineração de dados como metodologia de
tecnologia da informação para apoio à solução do problema da morosidade processual e do
retrabalho, que resultam em aumento dos estoques de processos nas Cortes de Decisão. As
bases de dados foram integradas, os dados foram transformados, o conhecimento foi extraído
e o desempenho dos modelos avaliado. Para extração do conhecimento, foram utilizadas
técnicas de Inteligência Artificial, tradicionalmente aceitas: Regras de Classificação, para a
descrição das condições que influenciam o problema e, Redes Neurais Artificiais, para a
construção dos classificadores.
A qualidade da solução desenvolvida e sua aceitação pelos especialistas no domínio
mostraram a viabilidade de utilizar Mineração de Dados para apoio à decisão gerencial na
administração do estoque de processos dos Tribunais de Contas. Para o estudo de caso foram
utilizados os dados do Tribunal de Contas do Estado de Pernambuco
|
148 |
Gerando acompanhamento rítmico automático para violão : estudo de caso do Cyber-JoãoLeal de Melo Daltia, Marcio January 2004 (has links)
Made available in DSpace on 2014-06-12T15:59:04Z (GMT). No. of bitstreams: 2
arquivo4827_1.pdf: 1875080 bytes, checksum: 09ee6a6168bda66551c83bd5e401ac9c (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2004 / Apesar de seu potencial uso em programas de acompanhamento e
composição musicais, a geração automática de ritmo não tem sido muito
discutida na literatura de computação musical. Essa tarefa é bastante difícil
de modelar devido ao pouco conhecimento formal sobre essa dimensão
musical: os músicos explicam suas escolhas rítmicas em alto nível, a partir
de critérios abstratos como swing, por exemplo, não sendo capazes de
fornecer regras objetivas que elucidem suas decisões em granularidade de
notas. Além disso, ao contrário de tarefas como a geração de harmonia, que
são facilitadas pela disponibilidade de uma extensa bibliografia em teoria
musical, pouco existe sobre ritmos como acompanhamento. De fato, a
própria literatura disponível deixa a entender que essa dimensão musical é
mais associada à subjetividade.
Este trabalho apresenta um sistema que gera acompanhamento rítmico para
violão automaticamente. Para minimizar os efeitos da dificuldade de
formalização do conhecimento, o sistema faz uso de uma abordagem
bastante natural em música, o reuso contextualizado de padrões rítmicos
encontrados em performances de músicos de renome. Para isso, foram
combinadas duas técnicas de inteligência artificial: raciocínio baseado em
casos, para a modelagem da memória musical (associação de padrões
rítmicos e o contexto onde devem ser usado) e raciocínio dedutivo baseado
em regras, para associar intenções abstratas às características contextuais
dos padrões.
Como estudo de caso, foi desenvolvido o Cyber-João, um programa capaz
de gerar acompanhamento rítmico para Bossa Nova encadeando e adaptando
padrões rítmicos encontrados em gravações clássicas de João Gilberto. Por
fim, o modelo do Cyber-João foi comparado empiricamente com algumas
outras abordagens implementadas para a resolução do problema,
demonstrando um desempenho bastante satisfatório
|
149 |
Mecanismos explicativos para RNAs como extração de conhecimentoCAMPOS, Paulemir Gonçalves January 2005 (has links)
Made available in DSpace on 2014-06-12T16:01:00Z (GMT). No. of bitstreams: 2
arquivo7132_1.pdf: 2088995 bytes, checksum: aa5d2a0c53668dd8ebc5d10ae3ada3a2 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2005 / As Redes Neurais Artificiais (RNAs), um dos principais modelos de computação
em Inteligência Artificial (IA), vêm sendo largamente utilizadas nas diversas abordagens de
previsão do comportamento dos dados, por exemplo, em processamento de sinais,
reconhecimento de padrões, aproximação de função e também previsão de séries temporais.
Isto porque as RNAs englobam muitas características desejáveis como boa capacidade de
generalização, não linearidade, multivariáveis, não paramétricas, dentro de um esquema de
implementação relativamente eficiente em termos de velocidade e exigência de memória
computacional.
Apesar do grande uso de RNAs para resolver vários tipos de problemas
apresentando bom desempenho, o usuário geralmente quer entender como e porque a rede
obteve uma dada saída em relação à entrada que lhe foi apresentada. Ou seja, a incapacidade
de explicar como e porque a rede gera suas respostas é uma das principais críticas às RNAs,
principalmente quando aplicadas em sistemas onde a segurança na operação seja um aspecto
importante, tais como problemas de controle de usinas nucleares, controle do sistema de
navegação de aeronaves, auxílio a cirurgias médicas, sistemas de diagnóstico médico e
detecção de falhas mecânicas. Isto se deve ao fato do conhecimento está armazenado na
topologia, nos pesos e quando usado no bias da rede, o que evidentemente dificulta a
compreensão pelo usuário de como a rede encontrou a solução para um determinado
problema. Segundo a literatura, a forma mais usual de se resolver esta deficiência é a partir da
rede treinada extrair regras do tipo Se/Então. Note que, tais regras são bem mais aceitáveis
pelos usuários por serem muito parecidas com a forma de representar o raciocínio humano.
Logo, trata-se de uma maneira bastante plausível de se justificar as saídas apresentadas pela
rede.
Portanto, o objetivo principal deste trabalho é fazer um estudo comparativo entre
diversos algoritmos, incluindo os quatro aqui propostos (destacando-se o Literal e o
ProRulext), para extração de regras de redes MLP (Multilayer Perceptron) aplicadas à
problemas de classificação de padrões e de previsão de séries temporais verificando qual(is)
o(s) método(s) que obtém o conjunto de regras mais conciso e representativo das redes
treinadas em cada um destes problemas
|
150 |
A fraude fiscal de origem das mercadorias no Mercosul: um estudo do caso brasileiroMaria Tomaz Ribeiro Ramos, Joaquina 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T17:20:43Z (GMT). No. of bitstreams: 2
arquivo591_1.pdf: 430877 bytes, checksum: 5aa34f8c70c9dbb07bfc87fade231cce (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2010 / Secretaria da Receita Federal / O presente trabalho constitui um estudo sobre as regras de origem das mercadorias,
direcionado para o Regime de Origem aplicado pelo MERCOSUL e a identificação e
quantificação das infrações fiscais de origem ocorridas nas importações brasileiras efetuadas
no âmbito desse Acordo, avaliando-se as conseqüências para a economia nacional das fraudes
fiscais praticadas e sugerindo-se medidas que otimizem sua repressão. Nessa perspectiva,
inicialmente discorre-se sobre as normas de origem, seus fundamentos e estrutura,
destacando-se sua importância na execução de acordos preferenciais de comércio para, em
seguida, abordar-se os Regimes de Origem adotados pelos principais blocos econômicos
internacionais, destacando-se o Regime de Origem do MERCOSUL. A seguir, explana-se
sobre a fiscalização e o controle aduaneiros das importações em questão, identificam-se e
quantificam-se as infrações fiscais de origem praticadas e analisam-se suas repercussões na
economia brasileira para, finalmente, apresentar sugestões que possam otimizar a atividade da
fiscalização federal promovida pela Aduana
|
Page generated in 0.0479 seconds