• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 156
  • 73
  • 73
  • 73
  • 73
  • 73
  • 5
  • Tagged with
  • 156
  • 156
  • 131
  • 127
  • 125
  • 39
  • 29
  • 24
  • 23
  • 21
  • 21
  • 20
  • 20
  • 19
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Inferência bayesiana para testes acelerados "step-stress" com dados de falha sob censura e distribuição Gama /

Chagas, Karlla Delalibera. January 2018 (has links)
Orientador: Fernando Antonio Moada / Banca: Mario Hissamitsu Tarumoto / Banca: Jorge Alberto Achcar / Resumo: Neste trabalho iremos realizar uma abordagem sobre a modelagem de dados que advém de um teste acelerado. Consideraremos o caso em que a carga de estresse aplicada foi do tipo "step-stress". Para a modelagem, utilizaremos os modelos step-stress simples e múltiplo sob censura tipo II e censura progressiva tipo II, e iremos supor que os tempos de vida dos itens em teste seguem uma distribuição Gama. Além disso, também será utilizado o modelo step-stress simples sob censura tipo II considerando a presença de riscos competitivos. Será realizada uma abordagem clássica, por meio do método de máxima verossimilhança e uma abordagem Bayesiana usando prioris não-informativas, para estimar os parâmetros dos modelos. Temos como objetivo realizar a comparação dessas duas abordagens por meio de simulações para diferentes tamanhos amostrais e utilizando diferentes funções de perda (Erro Quadrático, Linex, Entropia), e através de estatísticas verificaremos qual desses métodos se aproxima mais dos verdadeiros valores dos parâmetros. / Abstract: In this work, we will perform an approach to data modeling that comes from an accelerated test. We will consider the case where the stress load applied was of the step-stress type. For the modeling, we will use the simple and multiple step-stress models under censorship type II and progressive censorship type II, and we will assume that the lifetimes of the items under test follow a Gamma distribution. In addition, the simple step-stress model under censorship type II will also be used considering the presence of competitive risks. A classical approach will be performed, using the maximum likelihood method and a Bayesian approach using non-informative prioris, to estimate the parameters of the models. We aim to compare these two approaches by simulations for different sample sizes and using different loss functions (Quadratic Error, Linex, Entropy), and through statistics, we will check which of these approaches is closer to the true values of the parameters. / Mestre
82

Construção de uma escala para avaliação da pro ciência em conteúdos matemáticos básicos

Rossi, Paola Rocchi [UNESP] 29 May 2015 (has links) (PDF)
Made available in DSpace on 2015-12-10T14:22:39Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-05-29. Added 1 bitstream(s) on 2015-12-10T14:28:48Z : No. of bitstreams: 1 000854440.pdf: 1290373 bytes, checksum: 5abcbf552648394b7f42040ff1f449f4 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Este trabalho apresenta uma aplicação da Teoria da Resposta ao Item (TRI), mais especi camente do modelo logístico unidimensional de três parâmetros, para a construção de uma escala para medir pro ciência em conteúdos matemáticos básicos. Os itens que compõem o instrumento de avaliação foram elaborados a partir de uma Matriz de Refer ência construída com base nas matrizes do Sistema de Avaliação da Educação Básica (SAEB). Os temas abordados incluem espaço e forma, grandezas e medidas, número e funções, envolvendo álgebra e funções. A calibração dos parâmetros e a estimação das pro ciências foram feitas utilizando abordagem bayesiana. Os resultados mostraram que a maioria dos itens propostos permite avaliar a pro ciência do ingressante, sendo nove entre os trinta e dois que compuseram a prova, classi cados como itens âncoras. No entanto, novos itens precisam ser incluídos para que em parte da escala as habilidades sejam melhor estimadas / This article o ers an application of the Item Response Theory (IRT), more speci cally, of the one-dimensional logistic model of three parameters, for the construction of a scale to measure pro ciency in basic mathematical content. The items making up the evaluation tool were developed from a Reference Matrix based on matrices of the Basic Education and Evaluation System (SAEB). The topics include space and form, quantities and measures, number and functions involving algebra and functions. The calibration of parameters and estimation of pro ciencies were carried out using the Bayesian approach. The results showed that most of the proposed items enable evaluation of entrant pro ciency, nine of the thirty-two making up the test being classi ed as anchor items. However, new items need to be included so that the scale of skills can be better estimated
83

Estudos teóricos e numéricos de escoamentos com escorregamento

Viezel, Caroline [UNESP] 05 May 2015 (has links) (PDF)
Made available in DSpace on 2015-12-10T14:23:03Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-05-05. Added 1 bitstream(s) on 2015-12-10T14:29:17Z : No. of bitstreams: 1 000854404.pdf: 2088993 bytes, checksum: 27755a6a32edbefb5a8292b206c46e82 (MD5) / Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Neste trabalho são apresentados os resultados dos estudos teórico e numérico de escoamentos Newtoniano e viscoelástico Poiseuille com base no modelo sPTT (simplified Phan-Thien-Tanner ), considerando uma velocidade de escorregamento na parede descrita pela lei de escorregamento Navier-linear. No estudo teórico foi exposta a solução analítica para o referido problema de escoamentos incompressíveis e isotérmicos. As contribuições numéricas deste trabalho são a extensão da metodologia apresentada em [33] para escoamentos com escorregamento na parede. Nessa extensão, os escoamentos com escorregamento poderão ser de fluidos Newtonianos ou viscoelásticos, entretanto, a implementação foi adaptada e verificada apenas para escoamentos confinados. Nos estudos numéricos, será apresentada a estratégia de imposição da velocidade de escorregamento na parede, a qual depende da derivada da velocidade e, adicionalmente no caso viscoelástico, da componente cisalhante do tensor extra-tensão. Outras pequenas, porém importantes, alterações necessárias em decorrência da condição slip também são destacadas. No contexto numérico, a solução analítica será empregada para a verificação da implementação numérica, possibilitando apresentar as análises de convergência da solução numérica para a solução analítica / In this work we present theoretical and numerical results by studying Newtonian and viscoelastic Poiseuille flow based on sPTT model (simplified Phan-Thien-Tanner ), considering a slip velocity on the wall described by the Navier-linear slip law. The theoretical study aims to expose an analytical solution for the problem mencioned above about incompressible and isothermal flow. The numerical contributions of this work is the extension of the methodology presented in [33] to flows under slip wall condition. In this extension, the flows are either Newtonian or viscoelastic fluids; however, an implementation has only been adapted and verified for confined flows. In the numerical studies will be presented a strategy for imposing the slip velocity on the wall, which depends on the derivative of the velocy and additionally, in the viscoelastic case, the shear component of the extra-stress tensor. Other small, but important, changes due to the wall slip condition will also be highlighted. In numeric context, the analytical solution will be used to verify the numerical implementation, what enables presenting the convergence analysis of the numerical solution to the analytical solution
84

Modelos de fração de cura de mistura e não-mistura na distribuição Weibull Modificada Generalizada

Oliveira, Eduardo Cardoso de [UNESP] 21 September 2015 (has links) (PDF)
Made available in DSpace on 2015-12-10T14:23:16Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-09-21. Added 1 bitstream(s) on 2015-12-10T14:29:31Z : No. of bitstreams: 1 000855207.pdf: 7936694 bytes, checksum: b225b1cc2df9b592c18f65e0e768d973 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / A análise de sobrevivência é uma das áreas da estatística com grande aplicabilidade em diversas áreas, especialmente em medicina, que é aplicada quando se pretende analisar um fenômeno em relação ao tempo transcorrido entre um evento inicial, no qual o indivíduo entra em um estado particular, e um evento nal que modi ca este estado. Uma particularidade na análise de dados de sobrevivência é a presença de dados censurados. Em muitas aplicações pode-se observar um grande número de indivíduos censurados, em geral à direita. Esse fato pode indicar que, em parte dos indivíduos em estudo, o evento de interesse nunca acontecerá, ou seja, pode se ter uma fração da população que é imune (ou que se cura). Neste caso, é importante estudar a proporção de pacientes que permanecem curados e analisar os efeitos das covariáveis, não só sobre o tempo de sobrevivência, como também sobre a fração de cura. Modelos para análise de dados com proporção de curados são frequentemente chamados de modelos com fração de cura. Em um estudo experimental que exista uma proporção substancial de indivíduos que não falhem ao nal do experimento, não faz sentido considerar tais índivíduos como observações censuradas vindas da mesma população daqueles que haviam morrido...
85

Existência e concentração de soluções para uma equação de schrödinger estacionária

Padovani Ederli, Jonas Antonio [UNESP] 22 July 2015 (has links) (PDF)
Made available in DSpace on 2016-03-07T19:21:03Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-07-22. Added 1 bitstream(s) on 2016-03-07T19:23:52Z : No. of bitstreams: 1 000857621.pdf: 507681 bytes, checksum: 1a8f4ea9fc5be64c127c53f523bb3fce (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Nesse trabalho estudamos resultados de existência e concentração de soluções positivas para uma equação de Schrödinger estacionária não-linear, quando um parâmetro tende a zero. Mais especi camente, provamos que quando o parâmetro tende a zero, a sequência de soluções obtidas possui um ponto de máximo que tende a se concentrar em torno de um ponto de mínimo global do potencial. A técnica utilizada consiste na utilização de métodos variacionais para comparar as soluções obtidas com a solução de um problema limite que envolve o valor de mínimo do potencial / In this work we study some results about existence and concentration of positive solutions for a nonlinear stationary version of the Schrödinger equation, as a parameter goes to zero. More speci cally, we prove that the sequence of solutions have a maximum points which concentrate around the global minimum of the potential, as a parameter goes to zero. The technique used relies on variational methods to compare the solutions with the solution of a limit problem which have information on the minimum of the potential
86

Detecção de impressões digitais fraudulentas utilizando padrões mapeados localmente em multiescala

Contreras, Rodrigo Colnago [UNESP] 24 June 2015 (has links) (PDF)
Made available in DSpace on 2016-04-01T17:54:37Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-06-24. Added 1 bitstream(s) on 2016-04-01T18:00:16Z : No. of bitstreams: 1 000859900.pdf: 2706841 bytes, checksum: c8b1e34b4c89efb3744103a6232bf244 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Aplicações que fazem uso de reconhecimento de impressões digitais estão presentes em muitos contextos do dia a dia, por exemplo, transações em caixas automáticos, registro eletrônico de ponto em empresas e, desde 2008, no processo eleitoral brasileiro. A comparação entre impressões digitais geralmente é feita com base nas posições relativas de pequenos padrões conhecidos como minúcias. Estudos científicos recentes demonstram a possibilidade de confecção de impressões digitais sintéticas, que apresentam a cópia das minúcias presentes em um dedo autêntico, a partir de materiais simples como massa de modelar, silicone, cola de madeira, dentre outros. Diante do perigo iminente de fraude em sistemas biométricos, surgiu uma nova linha de pesquisa: a detecção de impressões digitais fraudulentas (spoofs). Atualmente, estão presentes na literatura alguns métodos capazes de amenizar este problema, mas este ainda é um problema em aberto. O presente trabalho concentra-se na detecção de impressões digitais fraudulentas utilizando técnicas de processamento de imagens e reconhecimento de padrões. A principal contribuição desse estudo é uma nova técnica com a qual as falsificações são detectadas a partir da análise de micropadrões espaciais extraídos das impressões digitais. Além disso, é desenvolvida neste trabalho a versão multiescala do micropadrão espacial conhecido como Padrão Mapeado Localmente (Local Mapped Pattern - LMP). Os experimentos conduzidos mostraram que, através da técnica proposta, é possível alcançar uma detecção com performances superiores aos resultados encontrados no estado da arte na literatura científica especializada / Applications which use fingerprint recognition are present in many contexts of everyday life, for example, transactions at ATMs, electronic registration point in companies and, since 2008, in the Brazilian electoral process. The fingerprint matching is usually made based on the relative positions of small patterns known as minutiae. Recent scientific researches show the possibility of making synthetic fingerprints, which have a copy of these minutiae in an authentic finger, from simple materials such as play dough, silicone, wood glue, among others. Faced with the imminent danger of fraud in biometric systems, a new line of research emerged: the detection of fake fingerprints (spoofs). Currently, they are in the literature some methods to minimize this problem, but this is still an open problem. The present study focuses on the detection of fake fingerprints using image processing and pattern recognition techniques. The main contribution of this study is a new technique with which the fakes one are detected from the analysis of spatial micro patterns extracted from the fingerprints. Moreover, it is developed in this work, the multi-scale version of the space micro pattern known as Local Mapped Pattern (LMP). The experiments carried out have shown that through the proposed technique, it is possible to achieve a higher detection performances with the results found state of the art in the specialized literature
87

Um estudo sobre a equação de Schrödinger biharmônica

Sousa, Heloísa Lopes de [UNESP] 07 March 2015 (has links) (PDF)
Made available in DSpace on 2015-06-17T19:34:31Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-03-07. Added 1 bitstream(s) on 2015-06-18T12:48:41Z : No. of bitstreams: 1 000831658.pdf: 1830056 bytes, checksum: 3210c34fc6aebd29c87e24549ab48d45 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Neste trabalho teórico em Equações Diferenciais Parciais Elípticas, estudamos uma versão estacionária da equação de Schrödinger não-linear biharmônica. O objetivo principal versa sobre resultados de existência e concentração de soluções não-triviais, quando um parâmetro tende a zero. São utilizados métodos variacionais para estudar existência das soluções fracas não-triviais com hipóteses sobre o pontecial e sobre a não-linearidade / In this theoretical work in Elliptic Partial Di erential Equations, we study a stationary version of the biharmonic nonlinear Schrödinger equation. The main objective aims existence results and concentration of nontrivial solutions when a parameter tends to zero. Variational methods are used to study the existence of the weak nontrivial solutions under certain assumptions on the potential and the nonlinearity
88

Múltiplas visões coordenadas: uma técnica de coordenação com o apoio de ontologias

Prates, Jorge Marques [UNESP] January 2014 (has links) (PDF)
Made available in DSpace on 2015-09-17T15:24:11Z (GMT). No. of bitstreams: 0 Previous issue date: 2014. Added 1 bitstream(s) on 2015-09-17T15:48:15Z : No. of bitstreams: 1 000844167.pdf: 2501220 bytes, checksum: 397fa1521d2930b3d0beeab1918f0811 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / A exploração de múltiplas visões de conjuntos de dados pode auxiliar no processo de descoberta de associações ocultas entre os elementos desses conjuntos. O emprego de uma técnica de coordenação permite associar esses elementos em visões distintas. Normalmente, técnicas de coordenação que mapeiam os elementos apenas considerando os atributos dos dados limitam a descoberta de associações entre os elementos visuais. Neste trabalho é apresentada a técnica Semantic Coordination, um mecanismo de coordenação que utiliza ontologias para associar elementos de dados com base nos mapeamentos fornecidos pela semântica. Com isso, a visualização exploratória pode se beneficiar da representação semântica para criar os mapeamentos, pois são estabelecidas associações entre os elementos visuais além das existentes pela relação dos dados. Também, são apresentados e analisados os resultados de dois estudos de caso, aplicando a Semantic Coordination e técnicas tradicionais na exploração de coleções textuais. Após a análise, os resultados obtidos mostram que o mecanismo de coordenação proposto estende o processo de exploração de múltiplas visões de conjuntos de dados, em comparação a técnicas de coordenação tradicionais / Exploring multiple views of data sets can provide assistance on discovering unforeseen associations among their elements. Employing a coordination technique creates associations among elements across related views. Usually, the coordination process uses a mapping among data elements, that are constrained by using data attributes, which is a constraint to user exploration process (only linked data can be usually associated). In this work it is presented Semantic Coordination, a mechanism that applies ontologies to link data elements based on mappings provided by semantic. Representing the underlying data into ontology, the exploratory visualization can be benefited from a semantic representation to create the mappings, what might be helpful to establish associations on multiple views. Also, it is shown the results of two case studies applying the Semantic Coordination and traditional techniques on exploring text collections. The analysis of the obtained results, have shown the proposed coordination mechanism improves the exploration using multiple views, in comparison with traditional techniques
89

Extração de dados de produtos em páginas de comércio eletrônico

Godoy, Lucas Antonio Toledo [UNESP] 26 February 2015 (has links) (PDF)
Made available in DSpace on 2015-09-17T15:25:27Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-02-26. Added 1 bitstream(s) on 2015-09-17T15:48:49Z : No. of bitstreams: 1 000845512.pdf: 922039 bytes, checksum: ae1c7c5433430f62ddcd53db3868589a (MD5) / A extração de dados em páginas Web é um imp ortante problema que começou a ganhar força a partir da metade da década de 90. Um dos sub domínios dessa categoria de extração de dados p ossui como fo co os pro dutos em páginas de vendas online, dada a riqueza de informações disponibilizadas pelas lojas de e-commerce, ou comércio eletrônico, em seus portais de vendas. A extração dos dados dos produtos contidos nessas páginas, como nomes e preços, permite a criação de uma grande variedade de outras ferramentas que façam uso de tais dados com o objetivo de fornecer uma interpretação semântica a eles, como comparações entre preços praticados por diferentes lojas ou análises de hábitos de consumo. Diversas abordagens têm sido empregadas para se chegar à correta extração dos dados de interesse das páginas, fazendo uso de uma gama variada de técnicas para alcançarem seus objetivos, sendo que a técnica de Tree Matching apresenta grande destaque devido aos bons resultados. Este trabalho teve como objetivo implementar e avaliar o uso da técnica de Tree Matching para a extração de dados de produtos, especificamente o nome do produto, seu preço e, porventura, o preço promocional, em páginas de comércio eletrônico, a fim de determinar sua aplicabilidade a um sistema comercial. Foram propostas melhorias ao processo de extração com a finalidade de reduzir o tempo de resposta e aumentar a acurácia do algoritmo Generalized Simple Tree Matching. Resultados experimentais demonstraram uma precisão na extração dos dados de produtos na ordem de 93.6% sobre as páginas contidas na base Ecommerce DB e um ganho médio no tempo de resposta na ordem de 36% quando as páginas são reduzidas pelos métodos propostos neste trabalho / Web data extraction is an imp ortant issue which started b ecoming a strong line of study in the mid 90s. A sub domain of that category of study is the pro duct data extraction from online sales pages, given the wealth of information provided by stores through their websites. Data extraction of pro ducts contained in these kind of pages, like pro duct name and prices, enables the creation of a wide variety of other to ols that are able to use such data in order to provide a semantic interpretation to them, such as prices comparison among different stores and consumption habits analysis. Several approaches have b een applied to reach the target data extraction from Web pages. These approaches, in turn, use a wide range of techniques to reach their goals, and Tree Matching technique has great prominence due to its go o d results. This dissertation aimed to implement and evaluate the Tree Matching technique for the extraction of pro duct data, sp ecifically the pro duct name, its price and, p erhaps, the promotional price, on e-commerce pages, in order to determine its applicability to a commercial system. Improvements have b een prop osed to the extraction pro cess in order to reduce the resp onse time and increase the accuracy of the Generalized Simple Tree Matching algorithm. Experimental results demonstrated that the extraction process got an accuracy of about 93.6% on pages contained in Ecommerce Database and an average gain in response time of about 36% when the pages were reduced by the methods proposed in this study
90

Análise Bayesiana de dados composicionais na presença de covariáveis

Shimizu, Taciana Kisaki Oliveira [UNESP] 24 February 2014 (has links) (PDF)
Made available in DSpace on 2014-08-13T14:50:48Z (GMT). No. of bitstreams: 0 Previous issue date: 2014-02-24Bitstream added on 2014-08-13T18:00:27Z : No. of bitstreams: 1 000759735.pdf: 5936644 bytes, checksum: 2a76b56febeeca13c37e5729a1d4df30 (MD5) / Dados composicionais consistem em vetores conhecidos como composições cujos componentes são positivos e definidos no intervalo (0,1) representando proporções ou frações de um “todo”. A soma desses componentes deve ser igual a um. Os dados composicionais estão presentes em diferentes áreas, como na geologia, ecologia, economia, medicina entre muitas outras. Desta forma há um grande interesse em novas abordagens de modelar dados composicionais. Neste estudo, introduzimos as transformações logaritmo da razão (alr) e Box-Cox em modelos usados para dados composicionais, assumindo erros normais não correlacionados. O objetivo principal deste trabalho é aplicar métodos Bayesianos para estes modelos utilizando os métodos padrões de Monte Carlo via Cadeias de Markov (MCMC) para simular amostras da posteriori conjunta de interesse. Nós aplicamos a metodologia proposta em dois conjuntos de dados, sendo que um deles é sobre um experimento de medidas repetidas na qual introduzimos uma variável de efeito aleatório para capturar a dependência para os dados longitudinais e, além disso, a introdução de dois efeitos aleatórios extras no modelo. Estes resultados de modelagem podem ser de grande interesse em trabalhos aplicados que lidam com conjuntos de dados composicionais. / Compositional data consist of known compositions vectors whose components are positive and defined in the interval (0,1) representing proportions or fractions of a “whole”. The sum of these components must be equal to one. Compositional data is present in different areas, as in ecology, economy, medicine among many others. In this way, there is a great interest in new modeling approaches for compositional data. In this study we introduced additive log-ratio (alr) and Box-Cox transformations models used for compositional data, under uncorrelated normal errors. The main objective of this project is to apply Bayesian methods to these models using standard Markov Chain Monte Carlo (MCMC) methods to simulate samples of the joint posterior of interest. We apply the proposed methodology in two data sets, whereas one of them is about an experiment of repeated measures where we introduced a random effect variable to capture the dependence for the longitudinal data and also the introduction of two extra random effects in the model. These modeling results could be of great interest in the applied work dealing with compositional data sets.

Page generated in 0.0617 seconds