• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 35
  • 2
  • 2
  • Tagged with
  • 39
  • 39
  • 33
  • 33
  • 10
  • 10
  • 10
  • 7
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Modelo para tomada de decisão na escolha de sistema de tratamento de esgoto sanitário / A decision making model for choosing sewage treatment systems

Sonia Valle Walter Borges de Oliveira 10 November 2004 (has links)
A escolha do sistema de tratamento de esgoto sanitário a ser instalado em uma cidade pode tornar-se uma difícil decisão, uma vez que diversas variáveis interferem em seu custo e em sua qualidade ambiental. Este trabalho pretende mostrar a possibilidade de se usar técnicas da análise de decisão para a escolha do sistema de tratamento de esgoto sanitário de forma ecológica e econômica, como árvore de decisão e análise de sensibilidade. Para a avaliação dos sistemas, foi desenvolvido um modelo com oito alternativas, compostas de processos biológicos anaeróbios – Reator Anaeróbio de Manta de Lodo e Lagoa Anaeróbia – seguidos de aeróbios – Lodos Ativados, Lagoa Facultativa, Filtro Biológico Percolador e Lagoa Aerada com Lagoa de Decantação. O modelo elabora o dimensionamento das unidades de tratamento e, a partir desses dados, a estimativa de custo de cada sistema. O custo total de cada alternativa foi composto por itens de implantação, operação e manutenção. O modelo foi avaliado para quatro casos de populações distintas, apresentando variação nas alternativas mais indicadas para cada um. A análise de sensibilidade se mostrou eficaz em identificar as alternativas mais significativas no custo total dos sistemas. Os resultados encontrados indicam, de maneira promissora, que o modelo poderá auxiliar a escolha de sistemas de tratamento, bem como seu pré-dimensionamento, com base em características peculiares à sua localidade. / The selection of the wastewater treatment system to be installed in a city can be a difficult decision, once several variables interfere in its cost and in its environmental quality. This study intends to show the possibility of using techniques of decision analysis to select the wastewater treatment system in an ecological and economical way, as decision tree and sensitivity analysis. For the evaluation of systems, a model was developed with eight alternatives, composed of anaerobic biological process - Upflow Anaerobic Sludge Blanket and Anaerobic Pond - followed by aerobic process – Activated-Sludge, Facultative Pond, Trickling Filter and Aerated Lagoon with Sedimentation Basin. The model elaborates the treatment units dimensioning and cost estimation of each system, based on dimensioning data. The total cost of each alternative was composed by construction, operation and maintenance items. The model was evaluated using four cases of different populations, presenting variation in the most suitable alternatives for each one. The sensitivity analysis was shown effective in identifying the most significant alternatives in the total cost of the systems. The results indicate, in a promising way , that the model will be able to help the choice of treatment systems, as well as its pre-dimensioning, based in local peculiar characteristics.
12

Tratamento de imprecisão na geração de árvores de decisão

Lopes, Mariana Vieira Ribeiro 03 March 2016 (has links)
Submitted by Ronildo Prado (ronisp@ufscar.br) on 2017-08-08T20:30:11Z No. of bitstreams: 1 DissMVRL.pdf: 2179441 bytes, checksum: 3c4089c4b24a3d98521f8561c6f2c515 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-08-08T20:30:33Z (GMT) No. of bitstreams: 1 DissMVRL.pdf: 2179441 bytes, checksum: 3c4089c4b24a3d98521f8561c6f2c515 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-08-08T20:30:39Z (GMT) No. of bitstreams: 1 DissMVRL.pdf: 2179441 bytes, checksum: 3c4089c4b24a3d98521f8561c6f2c515 (MD5) / Made available in DSpace on 2017-08-08T20:31:24Z (GMT). No. of bitstreams: 1 DissMVRL.pdf: 2179441 bytes, checksum: 3c4089c4b24a3d98521f8561c6f2c515 (MD5) Previous issue date: 2016-03-03 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Inductive Decision Trees (DT) are mechanisms based on the symbolic paradigm of machine learning which main characteristics are easy interpretability and low computational cost. Though they are widely used, the DTs can represent problems with just discrete or continuous variables. However, for some problems, the variables are not well represented in this way. In order to improve DTs, the Fuzzy Decision Trees (FDT) were developed, adding the ability to deal with fuzzy variables to the Inductive Decision Trees, making them capable to deal with imprecise knowledge. In this text, it is presented a new algorithm for fuzzy decision trees induction. Its fuzification method is applied during the induction and it is inspired by the C4.5’s partitioning method for continuous attributes. The proposed algorithm was tested with 20 datasets from UCI repository (LICHMAN, 2013). It was compared with other three algorithms that implement different solutions to classification problem: C4.5, which induces an Inductive Decision Tree, FURIA, that induces a Rule-based Fuzzy System and FuzzyDT, which induces a Fuzzy Decision Tree where the fuzification is done before tree’s induction is performed. The results are presented in Chapter 4. / As Árvores de Decisão Indutivas (AD) são um mecanismo baseado no paradigma simbólico do Aprendizado de Máquina que tem como principais características a fácil interpretabilidade e baixo custo computacional. Ainda que sejam amplamente utilizadas, as ADs são limitadas à representação de problemas cujas variáveis são do tipo discreto ou contínuo. No entanto, para alguns tipos de problemas, pode haver variáveis que não são bem representadas por estes formatos. Diante deste contexto, foram criadas as Árvores de Decisão Fuzzy (ADF), que adicionam à interpretabilidade das Árvores de Decisão Indutivas, a capacidade de lidar com variáveis fuzzy, as quais representam adequadamente conhecimentos imprecisos. Neste texto, apresentamos o trabalho desenvolvido durante o mestrado, que tem como principal resultado um novo algoritmo para indução de Árvores de Decisão Fuzzy, cujo método de fuzificação dos atributos contínuos é realizado durante a indução da árvore e foi inspirado no método de particionamento de atributos contínuos adotado pelo C4.5. Para validação do algoritmo, foram realizados testes com 20 conjuntos de dados do repositório UCI (LICHMAN, 2013) e o algoritmo foi comparado com outros três algoritmos que abordam o problema de classificação por meio de técnicas diferentes: o C4.5 que induz uma Árvore de Decisão Indutiva, o FURIA, que induz um Sistema Fuzzy Baseado em Regras, porém não segue a estrutura de árvore e o FuzzyDT que induz uma Árvore de Decisão fuzzy realizando a fuzificação dos atributos contínuos antes da indução da árvore. Os resultados dos experimentos realizados são apresentados e discutidos no Capítulo 4 deste texto.
13

Algoritmo para indução de árvores de classificação para dados desbalanceados / Algorithm for induction of classification trees for unbalanced data

Cláudio Frizzarini 21 November 2013 (has links)
As técnicas de mineração de dados, e mais especificamente de aprendizado de máquina, têm se popularizado enormemente nos últimos anos, passando a incorporar os Sistemas de Informação para Apoio à Decisão, Previsão de Eventos e Análise de Dados. Por exemplo, sistemas de apoio à decisão na área médica e ambientes de \\textit{Business Intelligence} fazem uso intensivo dessas técnicas. Algoritmos indutores de árvores de classificação, particularmente os algoritmos TDIDT (Top-Down Induction of Decision Trees), figuram entre as técnicas mais comuns de aprendizado supervisionado. Uma das vantagens desses algoritmos em relação a outros é que, uma vez construída e validada, a árvore tende a ser interpretada com relativa facilidade, sem a necessidade de conhecimento prévio sobre o algoritmo de construção. Todavia, são comuns problemas de classificação em que as frequências relativas das classes variam significativamente. Algoritmos baseados em minimização do erro global de classificação tendem a construir classificadores com baixas taxas de erro de classificação nas classes majoritárias e altas taxas de erro nas classes minoritárias. Esse fenômeno pode ser crítico quando as classes minoritárias representam eventos como a presença de uma doença grave (em um problema de diagnóstico médico) ou a inadimplência em um crédito concedido (em um problema de análise de crédito). Para tratar esse problema, diversos algoritmos TDIDT demandam a calibração de parâmetros {\\em ad-hoc} ou, na ausência de tais parâmetros, a adoção de métodos de balanceamento dos dados. As duas abordagens não apenas introduzem uma maior complexidade no uso das ferramentas de mineração de dados para usuários menos experientes, como também nem sempre estão disponíveis. Neste trabalho, propomos um novo algoritmo indutor de árvores de classificação para problemas com dados desbalanceados. Esse algoritmo, denominado atualmente DDBT (Dynamic Discriminant Bounds Tree), utiliza um critério de partição de nós que, ao invés de se basear em frequências absolutas de classes, compara as proporções das classes nos nós com as proporções do conjunto de treinamento original, buscando formar subconjuntos com maior discriminação de classes em relação ao conjunto de dados original. Para a rotulação de nós terminais, o algoritmo atribui a classe com maior prevalência relativa no nó em relação à prevalência no conjunto original. Essas características fornecem ao algoritmo a flexibilidade para o tratamento de conjuntos de dados com desbalanceamento de classes, resultando em um maior equilíbrio entre as taxas de erro em classificação de objetos entre as classes. / Data mining techniques and, particularly, machine learning methods, have become very popular in recent years. Many decision support information systems and business intelligence tools have incorporated and made intensive use of such techniques. Top-Down Induction of Decision Trees Algorithms (TDIDT) appear among the most popular tools for supervised learning. One of their advantages with respect to other methods is that a decision tree is frequently easy to be interpreted by the domain specialist, precluding the necessity of previous knowledge about the induction algorithms. On the other hand, several typical classification problems involve unbalanced data (heterogeneous class prevalence). In such cases, algorithms based on global error minimization tend to induce classifiers with low error rates over the high prevalence classes, but with high error rates on the low prevalence classes. This phenomenon may be critical when low prevalence classes represent rare or important events, like the presence of a severe disease or the default in a loan. In order to address this problem, several TDIDT algorithms require the calibration of {\\em ad-hoc} parameters, or even data balancing techniques. These approaches usually make data mining tools more complex for less expert users, if they are ever available. In this work, we propose a new TDIDT algorithm for problems involving unbalanced data. This algorithm, currently named DDBT (Dynamic Discriminant Bounds Tree), uses a node partition criterion which is not based on absolute class frequencies, but compares the prevalence of each class in the current node with those in the original training sample. For terminal nodes labeling, the algorithm assigns the class with maximum ration between the relative prevalence in the node and the original prevalence in the training sample. Such characteristics provide more flexibility for the treatment of unbalanced data-sets, yielding a higher equilibrium among the error rates in the classes.
14

Algoritmo para indução de árvores de classificação para dados desbalanceados / Algorithm for induction of classification trees for unbalanced data

Frizzarini, Cláudio 21 November 2013 (has links)
As técnicas de mineração de dados, e mais especificamente de aprendizado de máquina, têm se popularizado enormemente nos últimos anos, passando a incorporar os Sistemas de Informação para Apoio à Decisão, Previsão de Eventos e Análise de Dados. Por exemplo, sistemas de apoio à decisão na área médica e ambientes de \\textit{Business Intelligence} fazem uso intensivo dessas técnicas. Algoritmos indutores de árvores de classificação, particularmente os algoritmos TDIDT (Top-Down Induction of Decision Trees), figuram entre as técnicas mais comuns de aprendizado supervisionado. Uma das vantagens desses algoritmos em relação a outros é que, uma vez construída e validada, a árvore tende a ser interpretada com relativa facilidade, sem a necessidade de conhecimento prévio sobre o algoritmo de construção. Todavia, são comuns problemas de classificação em que as frequências relativas das classes variam significativamente. Algoritmos baseados em minimização do erro global de classificação tendem a construir classificadores com baixas taxas de erro de classificação nas classes majoritárias e altas taxas de erro nas classes minoritárias. Esse fenômeno pode ser crítico quando as classes minoritárias representam eventos como a presença de uma doença grave (em um problema de diagnóstico médico) ou a inadimplência em um crédito concedido (em um problema de análise de crédito). Para tratar esse problema, diversos algoritmos TDIDT demandam a calibração de parâmetros {\\em ad-hoc} ou, na ausência de tais parâmetros, a adoção de métodos de balanceamento dos dados. As duas abordagens não apenas introduzem uma maior complexidade no uso das ferramentas de mineração de dados para usuários menos experientes, como também nem sempre estão disponíveis. Neste trabalho, propomos um novo algoritmo indutor de árvores de classificação para problemas com dados desbalanceados. Esse algoritmo, denominado atualmente DDBT (Dynamic Discriminant Bounds Tree), utiliza um critério de partição de nós que, ao invés de se basear em frequências absolutas de classes, compara as proporções das classes nos nós com as proporções do conjunto de treinamento original, buscando formar subconjuntos com maior discriminação de classes em relação ao conjunto de dados original. Para a rotulação de nós terminais, o algoritmo atribui a classe com maior prevalência relativa no nó em relação à prevalência no conjunto original. Essas características fornecem ao algoritmo a flexibilidade para o tratamento de conjuntos de dados com desbalanceamento de classes, resultando em um maior equilíbrio entre as taxas de erro em classificação de objetos entre as classes. / Data mining techniques and, particularly, machine learning methods, have become very popular in recent years. Many decision support information systems and business intelligence tools have incorporated and made intensive use of such techniques. Top-Down Induction of Decision Trees Algorithms (TDIDT) appear among the most popular tools for supervised learning. One of their advantages with respect to other methods is that a decision tree is frequently easy to be interpreted by the domain specialist, precluding the necessity of previous knowledge about the induction algorithms. On the other hand, several typical classification problems involve unbalanced data (heterogeneous class prevalence). In such cases, algorithms based on global error minimization tend to induce classifiers with low error rates over the high prevalence classes, but with high error rates on the low prevalence classes. This phenomenon may be critical when low prevalence classes represent rare or important events, like the presence of a severe disease or the default in a loan. In order to address this problem, several TDIDT algorithms require the calibration of {\\em ad-hoc} parameters, or even data balancing techniques. These approaches usually make data mining tools more complex for less expert users, if they are ever available. In this work, we propose a new TDIDT algorithm for problems involving unbalanced data. This algorithm, currently named DDBT (Dynamic Discriminant Bounds Tree), uses a node partition criterion which is not based on absolute class frequencies, but compares the prevalence of each class in the current node with those in the original training sample. For terminal nodes labeling, the algorithm assigns the class with maximum ration between the relative prevalence in the node and the original prevalence in the training sample. Such characteristics provide more flexibility for the treatment of unbalanced data-sets, yielding a higher equilibrium among the error rates in the classes.
15

Mapeamento digital de solos: Metodologias para atender a demanda por informação espacial em solos / Digital soil mapping: Methods to meet the demand for soil spatial information

Caten, Alexandre Ten 07 November 2011 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Soil has increasingly being recognized as having an important role in ecosystems as well as for food production and global climate regulation. For this reason, the demand for relevant and updated information on soil is increasing. Digital Soil Mapping (DSM) provides this information at different spatial resolution with associated quality indicators. The aim of this study was to analyze the main methodological approaches used for DSM of soil classes through a literature review of national researches and to propose procedures for data analysis in DSM projects of soil classes. The use of DSM techniques for mapping soil classes in Brazil is recent, the first publication on this subject occurred only in 2006. Among the predictive functions, logistic regressions is the predominantly used technique. Quality evaluation of the predictive models employed error matrix and kappa index in most cases. The use of wavelet transform proved to be a methodology of great potential for analyzing the spatial resolution of terrain attributes maximum variability. The proposed methodology of data exclusion for environmental covariates located too near at the border of soil classes polygons has enabled the generation of less complex and more accurate Decision Tree (DT) models. It was also shown that the amount of data required for DT model training is between five and 15% of the total data set. Collected field observations indicated a predicted accuracy close to 70% for DT models produced by those sampling densities. / O solo é cada vez mais reconhecido como tendo um importante papel nos ecossistemas, assim como para a produção de alimentos e regulação do clima global. Por esse motivo, a demanda por informações relevantes e atualizadas em solos está em uma crescente. O Mapeamento Digital de Solos (MDS) possibilita gerar essas informações demandadas em diferentes resoluções espaciais e com indicadores de qualidade associados. O objetivo deste estudo foi analisar as principais abordagens metodológicas utilizadas nos mapeamentos digitais de classes de solos através de uma revisão de literatura dos trabalhos nacionais, assim como propor procedimentos para a análise dos dados a serem utilizados em projetos de mapeamento digital de classes de solos. O emprego de técnicas de MDS para o mapeamento de classes de solos é recente no país, a primeira publicação nesse sentido ocorreu apenas em 2006. Entre as funções preditivas utilizadas predomina o emprego da técnica de regressões logísticas. Quanto à avaliação da qualidade dos modelos preditivos o emprego da matriz de erros e do índice kappa têm sido os procedimentos mais usuais. O emprego da transformada wavelet mostrou-se como uma metodologia de grande potencial para a análise da resolução espacial de máxima variabilidade de atributos de terreno a serem usados em projetos de MDS. A metodologia proposta de exclusão dos dados oriundos de covariáveis ambientais localizadas na bordas dos polígonos de solos possibilitou a geração de modelos por Árvore de Decisão (AD) menos complexos e mais precisos. Assim como o volume de dados necessários para o treinamento de modelos preditivos por AD está entre cinco e 15% do conjunto total de dados como mostrou este estudo. Observações coletadas a campo indicaram uma acurácia dos mapas preditos próxima a 70% para os modelos oriundos dessas densidades de amostragem.
16

Avaliação Econômica de Causas Judiciais Sob a Ótica de um Investimento

SILVA, Jaqueline Matias da 21 August 2015 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-04-01T14:52:00Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação - Jaqueline.pdf: 1157808 bytes, checksum: c1a431269eb9aaf8e39b976349f5746a (MD5) / Made available in DSpace on 2016-04-01T14:52:00Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação - Jaqueline.pdf: 1157808 bytes, checksum: c1a431269eb9aaf8e39b976349f5746a (MD5) Previous issue date: 2015-08-21 / CNPq / Em geral, as decisões sobre investimentos em negócios caracterizam-se pelo tratamento de problemas não estruturados, requisitando um alto nível de conhecimento conceitual por parte do decisor. Assim como todos os gestores, os profissionais da área jurídica têm de lidar com a natureza crítica dos riscos e das incertezas no processo de tomada de decisão. A atividade advocatícia caracteriza-se, em termos econômico-financeiros, por receitas imprevisíveis, de montante e de tempo, que devem cobrar despesas e custos fixos inadiáveis. Desta forma, a tomada de decisão está condicionada à otimização do uso dos recursos, o que exige a consideração dos investimentos e benefícios envolvidos. Diante do exposto, a proposta deste trabalho é sugerir um modelo que visa à estruturação do processo de análise de investimentos e de tomada de decisão com relação ao financiamento de causas judiciais. Os métodos utilizados para estruturação do modelo foram a Árvore de Decisão e a Simulação Monte Carlo, estabelecendo um processo de análise da viabilidade econômica, que permita aos escritórios de advocacia ou prestadores de serviços judiciários a análise da variabilidade do fluxo de caixa ao longo de um processo judicial, analisar o resultado econômico do investimento através de uma distribuição de probabilidade, bem como obter uma medida de risco que auxilie o decisor na tomada de decisão. A partir do desenvolvimento do modelo e de sua aplicação, foi possível perceber que o método é capaz de responder sobre a viabilidade econômica de causas judiciais, bem como de fornecer informações acerca dos benefícios e dos riscos de se tomar determinada decisão, tendo em vista o retorno de uma causa judicial como tendo sido subsidiado pelo prestador de serviços advocatícios. / In general, decisions on business investment characterized by the treatment of unstructured problems, require a high level of conceptual knowledge by the decision maker. Like all managers, legal professionals have to deal with the critical nature of the risks and uncertainties in the decision-making process. The attorney-client activity is characterized, in economic and financial terms, unpredictable income, amount and time, they should charge expenses and unavoidable fixed costs. Thus, decision making is subject to optimal use of resources, which requires consideration of investments and benefits involved. Given the above, the purpose of this paper is to suggest a model that aims to structure the analysis process of investment and decision-making with regard to funding for legal cases. The methods used to structure the model were Decision Trees and the Monte Carlo simulation, establishing a process of analysis of the economic viability, allowing law firms or judicial service providers to analyze the variability of cash flows over a court case, analyze the economic result of the investment by a probability distribution, as well as get a risk measure that helps the decision maker in decision making. From the development of the model and its application, it was revealed that the method is able to answer the economic viability of legal proceedings and to provide information about the benefits and risks of taking certain decision, having seen the return of a court case to have been subsidized legal services provider.
17

Reconhecimento automático de aves de nomes onomatopéicos utilizando árvore de decisão / Automatic recognition of birds with onomatopoeic names using decision tree

Brito Junior, Celio Seixo de 30 January 2013 (has links)
Submitted by Luciana Ferreira (lucgeral@gmail.com) on 2015-04-10T14:28:02Z No. of bitstreams: 2 Disserteção - Célio Seixo de Brito Júnior - 2013.pdf: 6241241 bytes, checksum: 873e968701f03e30aeeb7118fdba6660 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2015-04-10T14:35:11Z (GMT) No. of bitstreams: 2 Disserteção - Célio Seixo de Brito Júnior - 2013.pdf: 6241241 bytes, checksum: 873e968701f03e30aeeb7118fdba6660 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2015-04-10T14:35:11Z (GMT). No. of bitstreams: 2 Disserteção - Célio Seixo de Brito Júnior - 2013.pdf: 6241241 bytes, checksum: 873e968701f03e30aeeb7118fdba6660 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2013-01-30 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / This work proposes a methodology for automatically determining characteristics, classification and recognition of birds from onomatopoeic names based on analysis of spectrograms of vocalizations of these birds. The filtering and segmentation of the signals are made automatically. Segmentation, which is the separation of the bird vocalization in regions of sound and silence, is performed with the centroid and energy characteristics of the signals. The filtering is made using filters generated using wavelet transform and Chebyshev filters. The recognition of birds is made from a decision tree, constructed automatically based on the following features: entropy, ZCR, centroid, energy, spectral flux, rollof frequency, minimum frequency, maximum frequency and the frequency of greater intensity of the spectrum. / O presente trabalho propõe uma metodologia de determinação automática de características, classificação e reconhecimento de aves de nomes onomatopéicos baseada na análise dos espectrogramas das vocalizações dessas aves. A filtragem e a segmentação dos sinais são feitas automaticamente. A segmentação, que é a separação da vocalização da ave em regiões de som e silêncio, é realizada com as características centroide e energia dos sinais. A filtragem é feita com filtros gerados utilizando transformada wavelet e filtros Chebyshev. O reconhecimento das aves é feito a partir de uma árvore de decisão, construída automaticamente com base nas seguintes características: entropia, ZCR, centróide, energia, fluxo espectral, frequência rolloff, frequência mínima, frequência máxima e frequência de maior intensidade do espectro.
18

Otimização do processo decisório na área de supply chain com o uso da ferramenta da árvore de decisão

Romero, Rafael Longhi 05 March 2012 (has links)
Made available in DSpace on 2016-03-15T19:32:35Z (GMT). No. of bitstreams: 1 Rafael Longhi Romero.pdf: 3525593 bytes, checksum: 616faacf0965bab3e6af7b3724d6ec9f (MD5) Previous issue date: 2012-03-05 / Due to the fact that we are all subject to make subjective decisions that may undermine the financial health of an organization, the focus of this work consisted in building a decisionmaking model based on decision tree method applicable to everyday decisions of a company,with the goal not only to minimize subjectivity as well as to trace the process. The study was conducted by analyzing data from decisions taken by the department of supply Chain for a company of hidden identity, the choice of suppliers of ingredients for the most significant for this company. For both assigned and estimated the probability of occurrence of supplier change considering each ingredient according to the historical study. taking into account some factors that impact the Supply Chain area, such as: product price, distance from the supplier's production to the company`s facility, the payment terms and the product packaging, this last informed when there was an improvement in the operation. The objective was achieved once we reach a ratio of 81% correlation between the subjective decisions taken and decisions made using this tool for the cases tested. You could say that the model did not have its 100% ratio since although all factors guided the decision maker to choose the best choice but the organizational culture averse to change damaged this change. Other studies in various areas are needed to validate this technique, but for the Supply Chain area this technique has been validated, taking into account actual cases, which approximates the practical means of academia. It should be noted that the model developed has been used in practice in the area of supply chain management of the company in question. / Devido ao fato de estarmos sujeitos a tomar decisões subjetivas e que podem prejudicar a saúde financeira de uma organização, o foco deste trabalho consistiu na construção de um modelo decisório baseado no método de árvore de decisão aplicável a decisões cotidianas de uma empresa, com o objetivo não só de minimizar a subjetividade como também de permitir a rastreabilidade do processo.O trabalho foi desenvolvido analisando-se os dados de decisões tomadas pelo departamento de Supply Chain de uma empresa de identidade oculta, na escolha de fornecedores de ingredientes mais significativos para a mesma. Para tanto, foram atribuídas e estimadas as probabilidades de ocorrência troca de fornecedores para ingredientes diversos de acordo com o histórico estudado, levando-se em conta alguns fatores que impactam a área de supply chain, como por exemplo: preço do produto, distância do fornecedor a unidade produtiva, prazo de pagamento e embalagem do produto, esta última quando houve melhora na operação. O objetivo do trabalho foi atingido uma vez que chegou-se a uma relação de 81% de correlação entre as decisões tomadas de forma subjetiva e as decisões tomadas com o uso desta ferramenta em relação aos casos testados. A explicação para o fato de o modelo não ter sua relação de 100%,muito embora todos os fatores direcionassem o decisor a melhor escolha, deve-se a cultura organizacional da empresa que é avessa a mudança prejudicando assim a troca. Estudos em outras áreas se fazem necessários para validar o uso desta técnica, mas para a área de Supply Chain essa técnica foi validada, levando em consideração casos reais. Por fim, vale me Cabe observar que o modelo desenvolvido vem sendo utilizado na prática na área de supply chain da empresa em questão.
19

Fatores determinantes na análise de crédito da indústria multinacional agrícola de grande porte

Oliveira, Rodrigo Cavaliere 27 February 2015 (has links)
Made available in DSpace on 2016-03-15T19:32:53Z (GMT). No. of bitstreams: 1 Rodrigo Cavaliere Oliveiraprot.pdf: 2617774 bytes, checksum: a0072ccf4589c966207ba25cecb3c1e5 (MD5) Previous issue date: 2015-02-27 / This master thesis examines the importance of the agricultural sector to the Brazilian economy and the particularities in place in Brazil putting credit risk in perspective, how agricultural multinationals perform their credit analysis, which credit models use and which variables are considered more important for good discrimination between good customers and bad customers, in other words, predict with some degree of accuracy customers who will be performing their payments on time and which ones will default. In this context was tested three statistical methods to confirm the theory for this sector and it was compared the accuracy of the results between them, two parametric techniques, logistic regression and discriminant analysis and a third non-parametric, decision trees - CART. The three methods were suitable, with a good explanatory power, especially decision trees and logistic regression. The qualitative variables showed high explanatory power and important for good credit analysis. Among the quantitative variables, liquidity ratios, debt to equity and average payment period stood out as good discriminatory variables for credit purposes / Este estudo visou analisar a importância do setor agrícola para economia brasileira e as particularidades presentes no Brasil sob a ótica de risco de crédito, como as multinacionais agrícolas efetuam suas análises de crédito, que modelos utilizam e quais variáveis são consideradas mais importantes para uma boa discriminação entre clientes bons e clientes ruins, ou seja, prever com certo grau de acurácia os clientes que serão adimplentes e inadimplentes. Nesse contexto foram testados três modelos estatísticos para confirmar a teoria para esse setor e foram comparados os resultados de acerto entre eles. Duas técnicas paramétricas, regressão logística e análise de discriminante, e uma não paramétrica, árvore de decisão CART. Os três modelos se mostraram adequados, com um bom poder explicativo, com um destaque maior para árvore de decisão e regressão logística. As variáveis qualitativas mostraram alto poder explicativos e importantes para uma boa análise de crédito. Dentre as variáveis quantitativas, índices de liquidez, endividamento e prazo médio de pagamento se destacaram como boas discriminadoras de crédito
20

Metodologia baseada em medidas dispersas de tensão e árvores de decisão para localização de faltas em sistemas de distribuição modernos / Methodology based on dispersed voltage measures and decision trees for fault location in modern distribution systems

Araújo, Marcel Ayres de 06 October 2017 (has links)
Nos sistemas de distribuição, a grande ramificação, radialidade, heterogeneidade, dinâmica das cargas e demais particularidades, impõem dificuldades à localização de faltas, representando um desafio permanente na busca por melhores indicadores de continuidade e confiabilidade no fornecimento de energia elétrica. A regulação incisiva dos órgãos do setor, a penetração de geração distribuída e a tendência de modernização trazida pelas redes inteligentes, demandam detalhados estudos para readequação dos sistemas elétricos a conjuntura atual. Neste contexto, esta tese propõe o desenvolvimento de uma metodologia para localização de faltas em sistemas de distribuição empregando a capacidade dos medidores inteligentes de monitoramento e de aquisição de tensão em diferentes pontos da rede elétrica. A abordagem proposta baseia-se na estimação, por ferramentas de aprendizado de máquina, das impedâncias de sequência zero e positiva entre os pontos de alocação dos medidores inteligentes e de ocorrência de falta, e do estado de sensibilização destes medidores frente a correntes de falta. Assim, calculando-se as respectivas distâncias elétricas em função das impedâncias estimadas e definidas as direções das mesmas em relação a topologia da rede, busca-se identificar o ponto ou área com maior sobreposição de distâncias elétricas como o local ou a região de maior probabilidade da falta em relação aos medidores inteligentes. Para tanto, faz-se uso combinado de ferramentas convencionais e inteligentes pela aplicação dos conceitos de análise de sistemas elétricos, diagnóstico dos desvios de tensão, e classificação de padrões por meio da técnica de aprendizado de máquina denominada Árvore de Decisão. Os resultados obtidos pela aplicação desta metodologia demonstram que o uso de informações redundantes fornecidas pelos medidores inteligentes minimiza os erros de estimação. Além disso, para a maior parte dos casos testados o erro absoluto máximo de localização da falta se concentra entre 200 m e 1000 m, o que reduz a busca pelo local de ocorrência da falta pelas equipes de manutenção da rede elétrica. / In distribution systems, the dense branching, radial pattern, heterogeneity, dynamic of the loads, and other characteristics create several difficulties in defining the fault location, representing a great challenge in the search for better continuity and reliability indicators of the electrical energy supply. The intense government regulations, the increasing use of distributed generation, and the trend towards modernization via smart grids require a detailed study in order to upgrade the current systems. In this context, this thesis proposes a methodology development for fault location in distribution systems with the use of smart meters monitors and the acquisition of voltage at different points in the electrical network. The proposed method is based on the estimation, using machine learning, of the state of awareness of smart meters across the fault currents and of the zero and positive sequence impedance between the location of these meters and of the fault occurrence. Therefore, by calculating the electrical distances as a function of the estimated impedances and defining its the direction in relation to the network topology, the point/region with the biggest superposition of the electrical distances can be assigned as the point/region with the highest probability of fault occurrence in relation to the smart probes. For this purpose, a machine learning technique named decision tree is used to apply concept analyses to the electrical systems, diagnosis of voltage deviations, and pattern recognition of the electrical systems. The results obtained by the application of this methodology demonstrate that the use of redundant information provided by the smart meters minimizes estimation errors. In addition, for most of the cases tested, the maximum absolute error of the fault location is concentrated between 200 m and 1000 m, which reduces the search for the fault location by the maintenance teams of the electrical network.

Page generated in 0.4411 seconds