• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 43653
  • 584
  • 484
  • 368
  • 329
  • 329
  • 296
  • 258
  • 74
  • 70
  • 30
  • 16
  • 14
  • 13
  • 12
  • Tagged with
  • 4683
  • 3875
  • 2666
  • 2187
  • 2082
  • 2012
  • 1944
  • 1733
  • 1709
  • 1534
  • 1359
  • 1303
  • 1234
  • 1219
  • 1192
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Métodos estatísticos para classificação de massas em mamografias

Alcântara, Rafaela Souza 14 December 2015 (has links)
Submitted by Diogo Barreiros (diogo.barreiros@ufba.br) on 2017-06-02T17:34:16Z No. of bitstreams: 1 template-msc.pdf: 7779839 bytes, checksum: 3727636ba3903e44e4de17aefcf68481 (MD5) / Approved for entry into archive by Uillis de Assis Santos (uillis.assis@ufba.br) on 2017-06-07T18:25:00Z (GMT) No. of bitstreams: 1 template-msc.pdf: 7779839 bytes, checksum: 3727636ba3903e44e4de17aefcf68481 (MD5) / Made available in DSpace on 2017-06-07T18:25:00Z (GMT). No. of bitstreams: 1 template-msc.pdf: 7779839 bytes, checksum: 3727636ba3903e44e4de17aefcf68481 (MD5) / O câncer de mama é considerado a segunda neoplasia responsável por mais mortes em mulheres no mundo. Para a prevenção e redução desse número, a mamografia de screening é o exame mais utilizado para detecção de nódulos em estágios iniciais. A partir desse exame, o radiologista pode analisar as anomalias e a partir disso desenvolver um diagnóstico. Para aumentar a acurácia dos resultados obtidos a partir das imagens de mamografia, estão sendo desenvolvidos softwares de auxílio à diagnóstico computer-aided diagnosis capazes de automatizar o processo de análise da imagem e extrair informações relevantes para a classificação dos nódulos presentes nos exames. Esse trabalho apresenta duas novas metodologias para extração de features e classificação de massas e não-massas,s a partir da Entropia de Tsallis extraídas através da matriz de co-ocorrência (GLCM) e através da matriz de valores singulares (SVD) da imagem de mamografia, alcançando uma acurácia máxima de 91.3% / Breast cancer has been considered the second neoplasia responsible for women’s death in the last few years. To prevent and to reduce these statistics, screening mammography has been used as the most important exam to detect nodules on initial stages. From this exam, the radiologist can analyze anomalies and to provide some diagnostic. To improve the results accuracy rate from mammography images, computer-aided diagnosis softwares have been developed with the ability to automate the image analyses processing and to extract relevant information for mass classifications on screening exams. This work presents two new methodologies for feature extraction for mass and non-mass classification, based on Tsallis entropy calculated from gray level cooccurrence matrix (GLCM) and from singular value decomposition (SVD), reaching the best accuracy rate of 91.3%.
42

Estatística básica aplicada à administração judiciária

Aguiar Neto, Ruy Rosado January 2009 (has links)
Submitted by Pedro Mizukami (pedro.mizukami@fgv.br) on 2010-03-09T18:07:28Z No. of bitstreams: 1 DMPPJ - RUY ROSADO DE AGUIAR NETO.pdf: 1024769 bytes, checksum: d67cbeb98dd44f86f5d6902e9b4683c6 (MD5) / Approved for entry into archive by Pedro Mizukami(pedro.mizukami@fgv.br) on 2010-03-09T18:14:53Z (GMT) No. of bitstreams: 1 DMPPJ - RUY ROSADO DE AGUIAR NETO.pdf: 1024769 bytes, checksum: d67cbeb98dd44f86f5d6902e9b4683c6 (MD5) / Made available in DSpace on 2010-03-09T18:14:54Z (GMT). No. of bitstreams: 1 DMPPJ - RUY ROSADO DE AGUIAR NETO.pdf: 1024769 bytes, checksum: d67cbeb98dd44f86f5d6902e9b4683c6 (MD5) / A partir da Constituição de 1988, houve crescimento expressivo na busca pela prestação jurisdicional, mas sem acréscimo proporcional na estrutura judiciária e sem a adequada alteração do sistema processual. O descompasso provocou o congestionamento da maioria dos órgãos judiciais. Atualmente, a morosidade é o problema mais grave enfrentado pelo Poder Judiciário brasileiro. Dentre as suas várias causas, somente as que têm relação com o modo de prestação do serviço podem ser enfrentadas internamente. Nesse contexto, a modernização da administração judiciária, baseada em informação estatística de qualidade, é a solução que se mostra viável. No Rio Grande do Sul, o aprimoramento do sistema de coleta de dados é condição indispensável para que o Tribunal de Justiça disponha de estatísticas adequadas de medição da produtividade individual e de indicadores de desempenho da instituição. A capacitação dos magistrados em técnicas estatísticas básicas também se faz necessária, a fim de que as informações fornecidas pelo sistema possam ser interpretadas corretamente, em benefício da administração do Poder Judiciário.
43

Transmutação estatística em 2+1 dimensões

Foerster, Angela January 1989 (has links)
Uma teoria em 2+1 dimensões de partículas escalares carregadas acopladas com um campo Abeliano de gauge e com o termo de Chern-Simons na ação é canonicamente quantizada no gauge de Coulomb e no gauge super-axial. Mostra-se que a tranformação que conecta estes dois gauges é singular. Então, encontra-se que as excitações no gauge super-axial obedecem uma estatística fracionária. Mostra-se que este efeito não aparece quando o termo convencional está presente na ação. / A 2+1 dimensional theory of charged scalar particles coupled to an Abelian gauge field with the Chern-Simons term in the action is canonically quantized in the Coulomb and superaxial gauges. The gauge transformation linking these two gauges is shown to be singular. Then, the superaxial gauge excitations are found to obey fractional statistics. We demonstrate that this effect does not arise when the conventional term is present in the action.
44

Um modelo conceitual para bancos de dados estatisticos

Takaoka, Hiroo January 1983 (has links)
Tese (doutorado) - Universidade de São Paulo. Faculdade de Economia e Administração, Departamento de Administração / Made available in DSpace on 2013-07-15T20:37:52Z (GMT). No. of bitstreams: 0
45

Modelos matemáticos em dinâmica de populações e estatísticas

Silva, Rodrigues da Silva January 1982 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Florianópolis, 1981. / Made available in DSpace on 2013-12-05T19:24:40Z (GMT). No. of bitstreams: 1 202022.pdf: 641587 bytes, checksum: 86b71f44d004a50da2c41b47637de586 (MD5) Previous issue date: 1982
46

Ambiente colaborativo para ensino de estatística com o SESTAT

Noal, Renato Bica January 2002 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-19T15:35:07Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-26T01:33:51Z : No. of bitstreams: 1 184343.pdf: 1738151 bytes, checksum: 26b35e402994e9e2956500a578f4be51 (MD5) / O termo Trabalho Colaborativo Suportado por Computador (CSCW) designa a modalidade de ensino - aprendizagem que procura, através da formação de grupos, promover a troca de conhecimentos e valorizar a interação entre alunos e entre alunos e educadores através do desenvolvimento de um trabalho conjunto que visa alcançar objetivos pré-definidos. Em torno dessa idéia surge o objetivo do trabalho que é a modelagem e implementação de um ambiente colaborativo para Ensino à Distância Suportado por Computador, utilizando o SEstat (Sistema Especialista para Apoio ao Ensino de Estatística) como ambiente de aprendizagem. O ambiente explora a tecnologia de Sistemas Distribuídos como elementos essenciais na arquitetura de uma aplicação para suporte ao trabalho colaborativo sobre o protocolo TCP/IP (Transfer Control Protocol / Internet Protocol).
47

Um modelo para o ensino de controle estatístico da qualidade

Reis, Marcelo Menezes January 2001 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção / Made available in DSpace on 2012-10-18T07:09:43Z (GMT). No. of bitstreams: 1 180272.pdf: 2834911 bytes, checksum: 172dfbf6e469f22c9680c2a900a8c005 (MD5) / O Controle Estatístico da Qualidade -CEQ (constituído por Controle Estatístico de Processos, Estudos de Capabilidade de Processos, Inspeção por Amostragem e Planejamento de Experimentos) compreende um conjunto de ferramentas muito importantes para aobtenção, manutenção e melhoria da Qualidade de produtos e serviços produzidos por uma organização. Por esse motivo é imprescindível que suas técnicas sejam corretamente aplicadas, pois a Avaliação da Qualidade é crucial para a organização e o CEQ é parte importante não somente da Avaliação, mas também do processo de melhoria da Qualidade. Não obstante sua importância, o CEQ vem sendo empregado de forma inadequada em muitas empresas. Como o CEQ é ensinado nos mais diversos cursos técnicos e superiores, bem como nos setores de treinamento das empresas, possivelmente a abordagem utilizada não é totalmente apropriada, por causar o mau uso das técnicas envolvidas. O objetivo deste trabalho é tornar o ensino de CEQ realmente efetivo, através da elaboração de um modelo para o ensino do CEQ que capacite os egressos a aplicarem corretamente as técnicas. O modelo incorpora uma aplicação computacional, com uma abordagem baseada na Inteligência Artificial, que tem obtido bons resultados em aplicações educacionais. Para desenvolver o modelo foram feitos os diagnósticos da atual forma como o CEQ é empregado nas empresas, e de como está sendo ensinado nas instituições de ensino e dentro das próprias empresas. A partir desses resultados foram definidos os conceitos a serem incluídos no modelo, e o detalhamento da abordagem de Inteligência Artificial que será utilizada na aplicação computacional. A aplicação computacional tem características de um Sistema Tutorial Inteligente, e o protótipo foi implementado inicialmente para os conceitos de Controle Estatístico de Processos e Estudos de Capabilidade de Processos.
48

Modelagem estatística do frete da madeira no Uruguai

Simões, Danilo [UNESP] 14 July 2011 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:31:33Z (GMT). No. of bitstreams: 0 Previous issue date: 2011-07-14Bitstream added on 2014-06-13T19:41:52Z : No. of bitstreams: 1 simoes_d_dr_botfca.pdf: 463496 bytes, checksum: 26b29e8c6325fc121ffd6357aee8b96e (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / A dificuldade para estimar o frete da madeira é decorrente da grande quantidade de fatores que abrangem a operação de transporte. A magnitude dos valores econômicos envolvidos impõe a necessidade de empregar procedimentos que expressem as condições reais da operação e, que possibilitem identificar as principais covariáveis explicativas do frete. Assim sendo, pelo fato do frete apresentar uma distribuição assimétrica faz-se necessário utilizar um teste estatístico paramétrico. Neste estudo testou-se a hipótese de que o frete da madeira poderia ser estimado por meio do conceito de Modelo Linear Generalizado. Para isso f oi utilizada a distribuição de probabilidade gama por ser mais robusta à variabilidade e possibilitar a incorporação da assimetria. Os objetivos deste estudo foram propor a estimativa do custo operacional das Combinações de Veículos de Carga por meio do método contábil e aprimorar o processo d e decisão do frete da madeira com a utilização de metodologia estatística, utilizando covariáveis explicativas. Confirmando a hipótese desse estudo, o Modelo Linear Generalizado, com resposta gama e função de ligação logarítmica, é apropriado para estimar o frete da madeira, sob a condição de que sejam validados modelos estatísticos específicos p ara cada povoamento florestal. A identificação das covariáveis que explicam o frete da madeira permite a otimização do uso das Combinações de Veículos de Carga e, consequentemente a minimização do frete da madeira / The difficulty in estimating timber freight is results from numerous factors that include the transport operation. The magnitude of economic values involved necessitates employing procedures that express the real operational conditions and enable identification of the principal explanatory covariates for freight. Thus, given the fact that freight presents an asymmetric distribution, it is necessary to utilize a parametric statistical test. The present study tested the hypothesis that the timber freight may be estimated through the concept of the Generalized Linear Model. For this a probability gamma distribution was employed on account of being more robust to variability and enabling the incorporation of asymmetry. This study aimed to propose an operational cost estimate of combinations of cargo vehicles by the accounting method and to improve the timber-freight decision-making process by use of a statistical methodology, using explanatory covariates. Confirming the hypothesis of this stud y, the Generalized Linear Model, with gamma response and logarithmic link function, is appropriate to estimate the timber freight under the condition that specific statistical models are validated for each forest settlements. The identification of covariates that explain the timber freight permits optimization of the use of combinations of cargo vehicles and, consequently the minimization of timber freight
49

Modelagem estatística para gestão de carteira de clientes

Brevi, Flaviane Peccin 13 March 2013 (has links)
Resumo: O setor de telecomunicações brasileiro entrou num processo contínuo de expansão após as privatizações que ocorreram na década de 1990. Com esse processo, entraram nesse mercado novos competidores e novas tecnologias. Isso foi benéfico para o consumidor, que atualmente tem mais opções de escolha de prestadoras do serviço. Por outro lado, as empresas que oferecem esse serviço precisam quantificar as probabilidades de esses clientes pagarem pelo serviço prestado. Nesse contexto, este trabalho tem por objetivos mapear as variáveis que podem ser consideradas fatores de risco para inadimplência, construir um modelo preditivo para estimar a probabilidade de pagamento das faturas mensais e avaliar a possibilidade da implantação desse modelo num sistema automático de decisão. Para o desenvolvimento dos modelos, foram considerados 43.339 clientes da empresa em estudo, que contrataram os serviços entre janeiro e dezembro de 2007. Esses clientes foram acompanhados por doze meses para avaliar sua performance quanto ao pagamento de suas faturas mensais. Dessa forma, a amostra foi dividida em dois grupos, denominados bons e maus. Clientes bons são aqueles que, durante os doze meses, atingiram no máximo cinco dias em atraso, no total de 23.095 clientes. Maus são aqueles que atingiram 90 dias ou mais de atraso para pagamento de pelo menos uma fatura no período observado, no total de 20.244 clientes. Os clientes que tiveram atraso maior que cinco dias em alguma das faturas, mas não atingiram noventa dias de atraso foram classificados como indeterminados e não fazem parte da amostra em estudo. Com o objetivo de segmentar a amostra em grupos homogêneos, antes de desenvolver o modelo preditivo, foi aplicada a Análise de Cluster. Por meio dessa metodologia, não foi possível obter agrupamentos de clientes. Isso se deve à homogeneidade do grupo em estudo, que gera alta concentração num único cluster. Para obter os modelos preditivos que estimam a probabilidade de pagamento, foi utilizada a Regressão Logística. As variáveis preditoras foram consideradas no modelo por duas formas: a primeira utilizando variáveis dummies; a segunda, o WOE (Weight of Evidence). Em ambas as formas de ajuste do modelo, foram identificados fatores de risco semelhantes, tais como parcelamento, alertas de fraude, altos valores de fatura e baixos históricos de pagamentos, clientes novos, tipo de produto contratado e perfil de consumo. Além desses, algumas regiões podem ser apontadas como fatores de risco, identificadas por meio de CEP, cidade e estado.
50

Análise estatística do modelo de Nelson e Siegel

Brocco, Marcelo Bertini 21 March 2013 (has links)
Made available in DSpace on 2016-06-02T20:06:07Z (GMT). No. of bitstreams: 1 5090.pdf: 2622386 bytes, checksum: efb13371116d8185c23b86079eb4237c (MD5) Previous issue date: 2013-03-21 / Financiadora de Estudos e Projetos / The present paper studies the yield curve, an important tool for financial decisions, due to its fundamental role in the implementation and evaluation of monetary policies by the central banks. It also shows market perspectives in relation to the future development of interest rates, inflation and economical activities. Using an adequate model and a reasoned assessment of its parameters enables us to adjust the curve as far as possible to the real curve and hence obtain most precise and trustful results. These results were acquired by studying a model which was developed in 1987 by Nelson and Siegel and used to draw up the yield curve. Considering the model s limitations, diferent methods were used to attain the estimated parameters, such as Ordinary Least Squares, Maximum Likelihood and Bayesian Inference in the static version. The Nelson-Siegel model is widely used in Brazil and in the rest of the world, due to its economical idea, easy implementation and eficient adjustment into diferent formats that the yield curve is able to deal with. By considering the restrictions of the model, we found estimations for the parameters of the model safer than other and besides, the main point of this work is an estimation form of parameters of time together with others parameters of the model without considering one fixed value for it. / O objeto de estudo deste trabalho é a curva de taxas de juros, uma importante ferramenta utilizada em decisões financeiras, pois desempenha um papel fundamental na implementação e avaliação de políticas monetárias pelos bancos centrais. Assim sendo, indica as expectativas do mercado quanto ao comportamento futuro das taxas de juros, inflação e atividade econômica. A utilização de um bom modelo e uma boa estimação dos parâmetros do mesmo nos permite representar a curva ajustada o mais próximo da curva real, dessa forma, conseguimos encontrar resultados mais precisos e confiáveis. Neste trabalho estudamos o modelo utilizado para construção das curvas de taxas de juros desenvolvido em 1987 por Nelson e Siegel (1987) e métodos, considerando as restrições do modelo, para obtermos as estimativas dos parâmetros (Mínimos Quadrados Ordinários, Máxima Verossimilhança e Inferência Bayesiana) na vers~ao estática. O modelo de Nelson e Siegel apresenta grande aplicação tanto no Brasil quanto no restante do mundo, pois ele apresenta como características seu caráter parcimonioso nos parâmetros, sua fácil implementação e ajuste eficiente nos diversos formatos que a curva de taxas de juros pode assumir. Por considerarmos as restrições do modelo, encontramos estimativas para os parâmetros do modelo mais seguras e além disso, como principal contribuição deste trabalho, temos uma forma de estimação do parâmetro de tempo conjuntamente com os demais parâmetros do modelo, sem considerar apenas um valor fixo para ele.

Page generated in 0.0883 seconds