Spelling suggestions: "subject:"duplicates"" "subject:"duplicata""
1 |
Analise de capital de giro com vistas ao planejamento financeiro de curto prazo com especial consideração a existencia de sazonalidade nas vendasMartins Rodriguez, Alejandro January 1992 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnologico / Made available in DSpace on 2016-01-08T17:44:39Z (GMT). No. of bitstreams: 0
Previous issue date: 1992 / As principais decisões referentes à administração do Capital de Giro (níveis de ativos circulantes e formas de financiamento destes) são função, essencialmente, das hipóteses de trabalho. Uma consideração superficial destas, pode levar a decisões incorretas se consideradas dentro do contexto normativo da administração financeira. Este trabalho se propõe a: (1) analisar a Administração de Capital de Giro sob a hipótese característica de sazonalidade nas vendas, num meio ambiente financeiro inflacionário e instável. (2) estruturar as diferentes variáveis envolvidas no processo de geração e escolha de alternativas. Inicialmente, são abordados diferentes conceitos básicos referentes a administração do Capital de Giro. Posteriormente é analisada à influência da sazonalidade nas vendas sobre as diferentes contas componentes dos ativos e passivos circulantes. Na continuação são analisados os principais tipos de riscos presentes nas diferentes decisões. Finalmente, é abordado o problema do planejamento financeiro de curto prazo, segundo a finalidade manifesta no ponto (2).
|
2 |
Redução de assimetria de informação no mercado de crédito com duplicatasBonelli, Matheus Fortes 05 1900 (has links)
Submitted by Matheus Fortes Bonelli (mfbonelli@gmail.com) on 2018-05-10T17:08:18Z
No. of bitstreams: 1
dissertacao_matheus_vfinal 20180504.pdf: 1822759 bytes, checksum: 919f9b54d955ad46d65a80d54a2f6d15 (MD5) / Rejected by Simone de Andrade Lopes Pires (simone.lopes@fgv.br), reason: Boa tarde Matheus,
Para que possamos aprovar seu trabalho são necessários alguns ajustes conforme norma ABNT/APA.
Seguir a ESTRUTURA abaixo:
Capa (obrigatório) - (FUNDAÇÃO GET”U”LIO VARGAS NÃO TEM ACENTO)
Contracapa (obrigatório) – Correto.
Ficha catalográfica (obrigatório) - Correto.
Folha de aprovação (obrigatório) - Correto
- DEDICATÓRIA
- AGRADECIMENTOS (A PALAVRA AGRADECIMENTO DEVE SER MAIUSCULO/NEGRITO E CENTRALIZADO)
- RESUMO (A PALAVRA RESUMO DEVE SER MAIUSCULO/NEGRITO E CENTRALIZADO): espaçamento simples (150 a 500 palavras), com palavras-chave (obrigatório).
- ABSTRACT (A PALAVRA ABSTRACT DEVE SER MAIUSCULO/NEGRITO E CENTRALIZADO) em língua estrangeira.
A numeração só pode aparecer a partir da introdução, antes não pode.
Após os ajustes você deve submete-lo novamente para analise e aprovação.
Qualquer dúvida estamos à disposição,
Atenciosamente,
Simone de Andrade Lopes Pires
SRA
on 2018-05-10T20:42:58Z (GMT) / Submitted by Matheus Fortes Bonelli (mfbonelli@gmail.com) on 2018-05-10T21:14:44Z
No. of bitstreams: 2
dissertacao_matheus_vfinal 20180504.pdf: 1822759 bytes, checksum: 919f9b54d955ad46d65a80d54a2f6d15 (MD5)
dissertacao_matheus_vfinal 20180510.pdf: 1822289 bytes, checksum: df5576ca3d2e314dff5d002b339c29cf (MD5) / Rejected by Simone de Andrade Lopes Pires (simone.lopes@fgv.br), reason: Boa Noite Matheus,
Segue algumas alterações que ainda são necessárias para aprovação do trabalho:
1º - Pagina do resumo não vai título do trabalho, vai somente a palavra RESUMO em letra maiúscula no centro. Excluir o tema do TA
2º - Pagina do ABSTRACT não vai título do trabalho, vai somente a palavra ABSTRACT em letra maiúscula no centro. Excluir o tema do TA.
Se ficar na dúvida há um modelo na pagina 17 e 18 das normas ABNT enviada por e-mail.
3º - Pagina de agradecimentos vem antes do RESUMO.
Acredito que com estas alterações, o trabalho será aprovado.
Atenciosamente,
Simone de Andrade Lopes Pires
Secretaria de Registros Acadêmicos
on 2018-05-10T23:32:02Z (GMT) / Submitted by Matheus Fortes Bonelli (mfbonelli@gmail.com) on 2018-05-11T13:08:30Z
No. of bitstreams: 1
dissertacao_matheus_vfinal 20180511.pdf: 1821920 bytes, checksum: 749b23e245f55beec786ee2a7e5180e3 (MD5) / Approved for entry into archive by Simone de Andrade Lopes Pires (simone.lopes@fgv.br) on 2018-05-11T17:23:37Z (GMT) No. of bitstreams: 1
dissertacao_matheus_vfinal 20180511.pdf: 1821920 bytes, checksum: 749b23e245f55beec786ee2a7e5180e3 (MD5) / Approved for entry into archive by Suzane Guimarães (suzane.guimaraes@fgv.br) on 2018-05-11T17:57:36Z (GMT) No. of bitstreams: 1
dissertacao_matheus_vfinal 20180511.pdf: 1821920 bytes, checksum: 749b23e245f55beec786ee2a7e5180e3 (MD5) / Made available in DSpace on 2018-05-11T17:57:36Z (GMT). No. of bitstreams: 1
dissertacao_matheus_vfinal 20180511.pdf: 1821920 bytes, checksum: 749b23e245f55beec786ee2a7e5180e3 (MD5)
Previous issue date: 2018-05 / Esse estudo aborda a assimetria de informação presente no mercado de crédito com duplicatas no Brasil. Foi analisado um conjunto de dados obtidos de uma empresa que desenvolveu uma ferramenta que permite a consulta de informações sobre o documento fiscal das transações comerciais junto às Secretarias de Fazenda estaduais, a formalização da documentação da operação de crédito, e o controle de unicidade dos títulos de crédito. Com o resultado, o estudo propõe indicadores que podem ser integrados aos processos de concessão de crédito dos agentes financeiros, como forma de melhorar a qualidade de suas carteiras de crédito, reduzir a necessidade de garantias adicionais, aumentar o volume de crédito disponível e permitir redução do spread das operações com estes títulos. Foram analisadas 129.381 notas fiscais eletrônicas de 3.459 empresas, que realizaram operações com 240 agentes financeiros, que resultaram em 171.249 duplicatas somando um valor de R$ 633 milhões. A consulta das notas fiscais eletrônicas retornou 12 diferentes tipos de eventos que informam qualquer ato relacionado por um agente envolvido na transação comercial, que foram combinados com os dados de valor, data de emissão, data de envio para desconto, prazo de pagamento e efetivação da operação de crédito. Os resultados sugerem que é possível utilizar as datas de emissão e envio, valor e prazo de pagamento como variáveis que explicam alguns eventos de cancelamento de Nota Fiscal, permitindo indicar maior ou menor segurança para o documento fiscal que serve de lastro para a duplicata. A análise também mostrou que o retorno do evento de cancelamento reduz em 29% as chances da efetivação de operação de crédito, enquanto o retorno dos eventos de ciência ou confirmação aumentam essas chances em 4%. O estudo contribui por trazer uma perspectiva de redução da seleção adversa, resultando em melhora do ambiente de crédito, principalmente para pequenas e médias empresas, tradicionalmente alijadas do processo de concessão de crédito dos agentes financeiros, em um cenário onde há recente mudança de legislação sobre o tema. / This study addresses the information asymmetry present in Brazilian trade receivable’s credit market, analyzing a set of data obtained from a company that developed a tool that allows checking the information of the commercial transactions’ invoice on the Departament of Taxation and Finance’s (Secretaria da Fazenda) database, the credit document’s formalization and receivable’s uniqueness control. With the result, the study proposes indicators that can be integrated to the processes financial agents’ credit granting, as a way to improve the quality of their loan portfolios, reduce the need for additional guarantees, increase the credit volume available and allow spread reduction. A total of 129,381 electronic invoices were analyzed from 3,459 companies, which carried out operations with 240 financial agents, resulting in 171,249 trade receivables and totaling R$ 633 million. By checking electronic invoices, I obtain 12 different types of events that inform any related act by an agent involved in the commercial transaction, which were combined with the data of value, date of issue, date of discount, payment term and effectiveness of the transaction. The results suggest that it is possible to use the dates of issuance and discount of invoices, value and payment deadline as variables that explain the cancellation of the invoice, which may indicate greater or smaller security to the invoice that serves as collateral for a trade receivable. The analysis also showed that the return of the cancellation event reduces 29% the chances of a credit operation, while the return of science or confirmation events increases those chances by 4%. The study contributes to the reduction of adverse selection, resulting in an improvement in the credit environment, especially for small and medium-sized companies, traditionally left out of the process of granting credit, in a scenario where there is a recent legal change on this subject.
|
3 |
Removing DUST using multiple alignment of sequencesRodrigues, Kaio Wagner Lima, 92991221146 21 September 2016 (has links)
Submitted by Kaio Wagner Lima Rodrigues (kaiowagner@gmail.com) on 2018-08-23T05:45:00Z
No. of bitstreams: 3
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
kaio-tese.pdf: 3615178 bytes, checksum: dc547b203670c1159f46136e021a4825 (MD5)
kaio-folha-de-aprovacao.jpg: 3343904 bytes, checksum: b00e5c4807f5a7e10eddc2eed2de5f12 (MD5) / Approved for entry into archive by Secretaria PPGI (secretariappgi@icomp.ufam.edu.br) on 2018-08-23T19:08:57Z (GMT) No. of bitstreams: 3
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
kaio-tese.pdf: 3615178 bytes, checksum: dc547b203670c1159f46136e021a4825 (MD5)
kaio-folha-de-aprovacao.jpg: 3343904 bytes, checksum: b00e5c4807f5a7e10eddc2eed2de5f12 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2018-08-24T13:43:58Z (GMT) No. of bitstreams: 3
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
kaio-tese.pdf: 3615178 bytes, checksum: dc547b203670c1159f46136e021a4825 (MD5)
kaio-folha-de-aprovacao.jpg: 3343904 bytes, checksum: b00e5c4807f5a7e10eddc2eed2de5f12 (MD5) / Made available in DSpace on 2018-08-24T13:43:58Z (GMT). No. of bitstreams: 3
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
kaio-tese.pdf: 3615178 bytes, checksum: dc547b203670c1159f46136e021a4825 (MD5)
kaio-folha-de-aprovacao.jpg: 3343904 bytes, checksum: b00e5c4807f5a7e10eddc2eed2de5f12 (MD5)
Previous issue date: 2016-09-21 / FAPEAM - Fundação de Amparo à Pesquisa do Estado do Amazonas / A large number of URLs collected by web crawlers correspond to pages with duplicate or near-duplicate contents. These duplicate URLs, generically known as DUST (Different URLs with Similar Text), adversely impact search engines since crawling, storing and using such data imply waste of resources, the building of low quality rankings and poor user experiences. To deal with this problem, several studies have been proposed to detect and remove duplicate documents without fetching their contents. To accomplish this, the proposed methods learn normalization rules to transform all duplicate URLs into the same canonical form. This information can be used by crawlers to avoid fetching DUST.
A challenging aspect of this strategy is to efficiently derive the minimum set of rules that achieve larger reductions with the smallest false positive rate. As most methods are based on pairwise analysis, the quality of the rules is affected by the criterion used to select the examples and the availability of representative examples in the training sets. To avoid processing large numbers of URLs, they employ techniques such as random sampling or by looking for DUST only within sites, preventing the generation of rules involving multiple DNS names. As a consequence of these issues, current methods are very susceptible to noise and, in many cases, derive rules that are very specific. In this thesis, we present a new approach to derive quality rules that take advantage of a multi-sequence alignment strategy. We demonstrate that a full multi-sequence alignment of URLs with duplicated content, before the generation of the rules, can lead to the deployment of very effective rules. Experimental results demonstrate that our approach achieved larger reductions in the number of duplicate URLs than our best baseline in two different web collections, in spite of being much faster. We also present a distributed version of our method, using the MapReduce framework, and demonstrate its scalability by evaluating it using a set of 7.37 million URLs. / Um grande número de URLs obtidas por coletores corresponde a páginas com
conteúdo duplicado ou quase duplicado, conhecidas em Inglês pelo acrônimo
DUST, que pode ser traduzido como Diferentes URLs com Texto Similar. DUST
são prejudiciais para sistemas de busca porque ao serem coletadas, armazenadas
e utilizadas, contribuem para o desperdício de recursos, a criação de rankings
de baixa qualidade e, consequentemente, uma experiência pior para o usuário.
Para lidar com este problema, muita pesquisa tem sido realizada com intuito
de detectar e remover DUST antes mesmo de coletar as URLs. Para isso, esses
métodos se baseiam no aprendizado de regras de normalização que transformam
todas as URLs com conteúdo duplicado para uma mesma forma canônica. Tais regras podem ser
então usadas por coletores com o intuito de reconhecer e ignorar DUST.
Para isto, é necessário derivar, de forma eficiente, um conjunto mínimo de
regras que alcance uma grande taxa de redução com baixa incidência de
falsos-positivos. Como a maioria dos métodos propostos na literatura é baseada
na análise de pares, a qualidade das regras é afetada pelo critério usado para
selecionar os exemplos de pares e a disponibilidade de exemplos representativos
no treino. Para evitar processar um número muito alto de exemplos, em geral,
são aplicadas técnicas de amostragem ou a busca por DUST é limitada apenas a
sites, o que impede a geração de regras que envolvam diferentes nomes de DNS.
Como consequência, métodos atuais são muito suscetíveis a ruído e, em muitos
casos, derivam regras muito específicas. Nesta tese, é proposta uma nova
técnica para derivar regras, baseada em uma estratégia de alinhamento
múltiplo de sequências. Em particular, mostramos que um alinhamento prévio das
URLs com conteúdo duplicado contribui para uma melhor generalização, o que
resulta na geração de regras mais efetivas. Através de experimentos em duas
diferentes coleções extraídas da Web, observa-se que a técnica proposta,
além de ser mais rápida, filtra um número maior de URLs duplicadas.
Uma versão distribuída do método, baseada na arquitetura MapReduce,
proporciona a possibilidade de escalabilidade para coleções com dimensões
compatíveis com a Web.
|
Page generated in 0.0508 seconds