• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 51
  • 25
  • 10
  • 8
  • 7
  • 2
  • 2
  • 1
  • Tagged with
  • 119
  • 119
  • 17
  • 16
  • 14
  • 13
  • 12
  • 12
  • 10
  • 10
  • 9
  • 9
  • 9
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

A physics-based statistical random telegraph noise model / Um modelo estatistico e fisicamente baseado para o minimo RTN

Silva, Maurício Banaszeski da January 2016 (has links)
O Ruído de Baixa Frequência (LFN), tais como o ruído flicker e o Random Telegraph Noise (RTN), são limitadores de performance em muitos circuitos analógicos e digitais. Para transistores diminutos, a densidade espectral de potência do ruído pode variar muitas ordens de grandeza, impondo uma séria limitação na performance do circuito e também em sua confiabilidade. Nesta tese, nós propomos um novo modelo de RTN estatístico para descrever o ruído de baixa frequência em MOSFETs. Utilizando o modelo proposto, pode-se explicar e calcular o valor esperado e a variabilidade do ruído em função das polarizações, geometrias e dos parâmetros físicos do transistor. O modelo é validado através de inúmeros resultados experimentais para dispositivos com canais tipo n e p, e para diferentes tecnologias CMOS. É demonstrado que a estatística do ruído LFN dos dispositivos de canal tipo n e p podem ser descritos através do mesmo mecanismo. Através dos nossos resultados e do nosso modelo, nós mostramos que a densidade de armadilhas dos transistores de canal tipo p é fortemente dependente do nível de Fermi, enquanto para o transistor de tipo n a densidade de armadilhas pode ser considerada constante na energia. Também é mostrado e explicado, através do nosso modelo, o impacto do implante de halo nas estatísticas do ruído. Utilizando o modelo demonstra-se porque a variabilidade, denotado por σ[log(SId)], do RTN/LFN não segue uma dependência 1/√área; e fica demonstrado que o ruído, e sua variabilidade, encontrado em nossas medidas pode ser modelado utilizando parâmetros físicos. Além disso, o modelo proposto pode ser utilizado para calcular o percentil do ruído, o qual pode ser utilizado para prever ou alcançar certo rendimento do circuito. / Low Frequency Noise (LFN) and Random Telegraph Noise (RTN) are performance limiters in many analog and digital circuits. For small area devices, the noise power spectral density can easily vary by many orders of magnitude, imposing serious threat on circuit performance and possibly reliability. In this thesis, we propose a new RTN model to describe the statistics of the low frequency noise in MOSFETs. Using the proposed model, we can explain and calculate the Expected value and Variability of the noise as function of devices’ biases, geometry and physical parameters. The model is validated through numerous experimental results for n-channel and p-channel devices from different CMOS technology nodes. We show that the LFN statistics of n-channel and p-channel MOSFETs can be described by the same mechanism. From our results and model, we show that the trap density of the p-channel device is a strongly varying function of the Fermi level, whereas for the n-channel the trap density can be considered constant. We also show and explain, using the proposed model, the impact of the halo-implanted regions on the statistics of the noise. Using this model, we clarify why the variability, denoted by σ[log(SId)], of RTN/LFN doesn't follow a 1/√area dependence; and we demonstrate that the noise, and its variability, found in our measurements can be modeled using reasonable physical quantities. Moreover, the proposed model can be used to calculate the percentile quantity of the noise, which can be used to predict or to achieve certain circuit yield.
72

Prédétermination des hauteurs de départ d'avalanches. Modélisation combinée statistique-mécanique / Evaluation of avalanche release depths. Combined statistical-mechanical modeling

Gaume, Johan 30 October 2012 (has links)
La prédétermination de la hauteur de départ des avalanches représente un défi majeur pour l'évaluation du risque en montagne. Cette hauteur constitue en effet un ingrédient d'entrée important des procédures de zonage et de cartographie du risque. Dans cette thèse, nous présentons un formalisme rigoureux dans lequel les distributions de hauteur de départ d'avalanche sont exprimées à travers un couplage des facteurs mécaniques et météorologiques. Le critère de stabilité du système plaque - couche fragile est étudié en utilisant une analyse mécanique par éléments finis prenant en compte l'hétérogénéité spatiale des propriétés mécaniques. Considérant qu'une avalanche ne peut se produire que si la hauteur de chute de neige dépasse une hauteur critique correspondant au critère de stabilité, les distributions de hauteur de départ obtenues à partir du modèle mécanique sont couplées avec la distribution des chutes de neige extrêmes sur 3 jours. Nous montrons que ce modèle couplé est capable de reproduire des données de terrain de 369 avalanches naturelles de plaque à La Plagne (France). Non seulement la queue de la distribution en loi puissance, correspondant à des épaisseurs de plaque élevées, mais aussi le corps de la distribution pour les plaques moins épaisses, sont bien reproduits par le modèle. Les avalanches petites à moyennes semblent être essentiellement contrôlées par la mécanique, tandis que les grosses avalanches et l'exposant de la loi puissance associé, sont influencés par un couplage mécanique - météorologique fort. Par ailleurs, nous démontrons que la distribution obtenue est fortement dépendante de l'espace, et, en utilisant les processus max-stables permettant une interpolation spatiale rigoureuse, notre modèle couplé est utilisé pour obtenir des cartes de hauteur de départ d'avalanche pour différentes périodes de retour sur l'ensemble des Alpes françaises. / The evaluation of avalanche release depth distributions represents a major challenge for hazard management in mountaineous regions. This depth constitutes an important input ingredient of hazard mapping procedures. This PhD thesis presents a rigorous formalism in which these distributions are expressed through a coupling of mechanical and meteorological factors. The stability criterion of a layered snowpack is investigated using a finite-element analysis accounting for the spatial heterogeneity of weak-layer mechanical properties. Considering that an avalanche can occur only if the snowfall depth exceeds a critical value corresponding to a stability criterion, release depth distributions obtained from the mechanical model are coupled with the distribution of 3-day extreme snowfalls. We show that this coupled model is able to reproduce field data from 369 natural slab avalanches in La Plagne (France). Not only the power-law tail of the distribution, corresponding to large slab depths, but also the core of the distribution for shallow slab depths, are well represented. Small to medium-sized avalanches appear to be controlled mainly by mechanics, whereas large avalanches and the associated power-law exponent, are influenced by a strong mechanical-meteorological coupling. Finally, we demonstrate that the obtained distribution is strongly space dependent, and, using max-stables processes allowing a rigorous spatial interpolation, our coupled model is used to obtain release depth maps for given return periods in the whole French Alps.
73

Competitividade e inovação tecnológica na cadeia agroindustrial de fécula de mandioca no Brasil. / Competitiveness and technological innovation in the cassava starch agro-industrial chain in Brazil.

Carlos Estevão Leite Cardôso 28 August 2003 (has links)
O estudo tem como objetivo diagnosticar a competitividade da cadeia de produção agroindustrial de fécula de mandioca, enfatizando o segmento de produção de matéria-prima e os determinantes do processo de inovação tecnológica. Especificamente, pretende-se identificar quais as principais restrições para melhorar a competitividade da cadeia; calcular um indicador de competitividade que relacione as variações de preços do produto e dos insumos, assim como as decisões estratégicas de políticas públicas e privadas; determinar como os investimentos em tecnologia têm influenciado os níveis de competitividade do segmento agrícola e identificar quais fatores explicam e determinam a trajetória tecnológica implementada na cadeia. Para atingir esses objetivos, utilizou-se um instrumental que permite realizar predições quantitativas dos efeitos da adoção de políticas públicas e de decisões gerenciais internas às firmas que atuam na cadeia. Essas predições foram baseadas num indicador de competitividade fundamentado no conceito de quase-renda, o qual foi estimado por meio de um modelo lógite ordenado. No estudo dos aspectos relacionados à tecnologia, além das abordagens que privilegiam os sinais de mercados, utilizaram-se aquelas que reconhecem a importância do caráter sistêmico e interdependente dos fatores determinantes da decisão de inovar. Com base nos resultados, pode-se concluir que a cadeia ainda não está suficientemente capacitada e organizada para transformar as potencialidades identificadas em verdadeiras oportunidades de mercado. Têm concorrido para isso a trajetória tecnológica seguida e o desempenho econômico observado no segmento agrícola. Esse segmento apresentou-se marginalmente competitivo, ou seja, a quase-renda gerada não foi suficiente para remunerar os fatores de produção específicos, utilizados no processo de produção, pelo menos no nível do custo de oportunidade considerado. Os principais fatores e condicionantes que estão restringindo a competitividade relacionam-se aos aspectos do lado da demanda; a limitações tecnológicas, tanto do segmento agrícola como do de processamento e a fatores estruturais e sistêmicos. As possibilidades de melhorar a competitividade vinculam-se a ações do lado da receita, ou seja, aumentos na produtividade média e/ou nos preços. Embora a capacidade de os produtores intervirem, de forma isolada, na trajetória dos preços seja mais remota, os resultados alcançados sinalizam que a variável preço assuma maior relevância no processo. Portanto, as políticas que reduzem a instabilidade nos preços são as mais seguras como estratégia de intervenção. Nesse sentido, a adoção de relações mais harmoniosas, que valorizem a forte dependência entre os elos da cadeia, promoverá ganhos competitivos. Quanto aos determinantes da trajetória tecnológica, destacam-se: as características intrínsecas da cultura, que lhe conferem rusticidade e adaptabilidade a condições ambientais adversas; a possibilidade de utilizar fatores de produção de baixo custo de oportunidade; o grau de apropriabilidade dos retornos dos investimentos em geração de tecnologia; o fato de ser uma cultura sobre a qual a quantidade de pesquisa ainda é relativamente baixa; os limites impostos pelo paradigma tecnológico vigente; o nível de demanda interna por mandioca e derivados, que ainda vem sendo atendido por uma oferta praticamente associada aos sistemas de produção tradicionais e a inexistência de grupos de interesse vinculados ao setor mandioqueiro. / This study is aimed at determining the cassava starch agro-industrial production chain competitiveness with special attention to the raw material production segment and the factors leading to technological innovation processes. It is specifically intended to identify the main constraints on gains in the production chain competitiveness, to compute a competitiveness index which relates the product’s price and the production costs, as well as public and private policy strategies, to determine how investments in technology have influenced the agricultural segment competitiveness, and to identify which factors explain and determine the production chain technological background. In order to meet these objectives, we used tools that allow quantitative predictions to evaluate the effects of public policies and companies’ internal managerial decisions. Such predictions were based on a competitiveness index underpinned by the quasi-rent concept computed through an ordered logit model. In the study of the technological aspects, besides the approaches that are based mainly on market signals, we considered the systemic and interdependent importance of factors leading to the decision to innovate. Results show that the production chain is not sufficiently able and organized to change the identified potentialities into real market opportunities, and the technological trajectory and economic performance of the agricultural segment have contributed to such a panorama. The agricultural segment showed to be marginally competitive, that is, the quasi-rent generated did not offset specific production factors, at least at the opportunity cost level considered. The main factors and conditions restricting competitiveness are related to characteristics related to the demand side, to technological constraints, not only in the agricultural segment, but also in processing, and to structural and systemic factors. Potential improvements in competitiveness are linked to actions on the revenue side, that is, in average productivity and/or prices. Although the possibility of individual growers interfering in price trajectories is remote, results indicate that the variable price should have greater relevance in the process. Therefore, policies that reduce price instabilities are the safest intervention strategies. Consequently, the adoption of more harmonious relationships, which value a strong interdependence of the chain links, will generate gains in competitiveness. The technological trajectory determining factors that stand out are the crop’s intrinsic characteristics of rusticity and adaptability to adverse environmental conditions, the possibility of using production factors of low opportunity cost, the suitable payoff level of investments in technology, the relatively little research carried out on the crop, the limits imposed by the technological paradigm, the standard domestic demand for cassava and its by-products, which has been satisfied by a supply almost completely associated to traditional production systems, and the non-existence of interest groups linked to the cassava sector.
74

A physics-based statistical random telegraph noise model / Um modelo estatistico e fisicamente baseado para o minimo RTN

Silva, Maurício Banaszeski da January 2016 (has links)
O Ruído de Baixa Frequência (LFN), tais como o ruído flicker e o Random Telegraph Noise (RTN), são limitadores de performance em muitos circuitos analógicos e digitais. Para transistores diminutos, a densidade espectral de potência do ruído pode variar muitas ordens de grandeza, impondo uma séria limitação na performance do circuito e também em sua confiabilidade. Nesta tese, nós propomos um novo modelo de RTN estatístico para descrever o ruído de baixa frequência em MOSFETs. Utilizando o modelo proposto, pode-se explicar e calcular o valor esperado e a variabilidade do ruído em função das polarizações, geometrias e dos parâmetros físicos do transistor. O modelo é validado através de inúmeros resultados experimentais para dispositivos com canais tipo n e p, e para diferentes tecnologias CMOS. É demonstrado que a estatística do ruído LFN dos dispositivos de canal tipo n e p podem ser descritos através do mesmo mecanismo. Através dos nossos resultados e do nosso modelo, nós mostramos que a densidade de armadilhas dos transistores de canal tipo p é fortemente dependente do nível de Fermi, enquanto para o transistor de tipo n a densidade de armadilhas pode ser considerada constante na energia. Também é mostrado e explicado, através do nosso modelo, o impacto do implante de halo nas estatísticas do ruído. Utilizando o modelo demonstra-se porque a variabilidade, denotado por σ[log(SId)], do RTN/LFN não segue uma dependência 1/√área; e fica demonstrado que o ruído, e sua variabilidade, encontrado em nossas medidas pode ser modelado utilizando parâmetros físicos. Além disso, o modelo proposto pode ser utilizado para calcular o percentil do ruído, o qual pode ser utilizado para prever ou alcançar certo rendimento do circuito. / Low Frequency Noise (LFN) and Random Telegraph Noise (RTN) are performance limiters in many analog and digital circuits. For small area devices, the noise power spectral density can easily vary by many orders of magnitude, imposing serious threat on circuit performance and possibly reliability. In this thesis, we propose a new RTN model to describe the statistics of the low frequency noise in MOSFETs. Using the proposed model, we can explain and calculate the Expected value and Variability of the noise as function of devices’ biases, geometry and physical parameters. The model is validated through numerous experimental results for n-channel and p-channel devices from different CMOS technology nodes. We show that the LFN statistics of n-channel and p-channel MOSFETs can be described by the same mechanism. From our results and model, we show that the trap density of the p-channel device is a strongly varying function of the Fermi level, whereas for the n-channel the trap density can be considered constant. We also show and explain, using the proposed model, the impact of the halo-implanted regions on the statistics of the noise. Using this model, we clarify why the variability, denoted by σ[log(SId)], of RTN/LFN doesn't follow a 1/√area dependence; and we demonstrate that the noise, and its variability, found in our measurements can be modeled using reasonable physical quantities. Moreover, the proposed model can be used to calculate the percentile quantity of the noise, which can be used to predict or to achieve certain circuit yield.
75

Estimativas de parâmetros genéticos e de ambiente para medidas repetidas de produção de leite e de gordura em bovinos das raças Sindi e Guzerá

CRUZ, George Rodrigo Beltrão da 19 March 2007 (has links)
Submitted by (edna.saturno@ufrpe.br) on 2017-04-12T15:42:49Z No. of bitstreams: 1 George Rodrigo Beltrao da Cruz.pdf: 669412 bytes, checksum: 22996127ce4d96954b1d70d4a176af45 (MD5) / Made available in DSpace on 2017-04-12T15:42:49Z (GMT). No. of bitstreams: 1 George Rodrigo Beltrao da Cruz.pdf: 669412 bytes, checksum: 22996127ce4d96954b1d70d4a176af45 (MD5) Previous issue date: 2007-03-19 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / The objective of this research was to identify the mathematical function that best fits the lactation curve of Guzerá and Sindi cattle. 840 lactations records (467 – Guzerá, 373 – Sindi) were used from animals raised at Carnauba ranch, in the town of Taperoá, Paraíba. Milk production yield was recorded in 35 days intervals, between the years of 1986 and 2004. Six mathematical functions were used to perform fit to the mean curve and individual lactations: the Polynomial Inverse function (FPI), Hyperbolic lineal (FLH), Gamma incomplete (FGI), Quadratic Logarithmic (FQL), Lineal (FL) and Quadratic (FQ) were fitted using interactive processes through Non-lineal regression. The criteria used to verify the fit quality for each function were: Fitted determination coefficient (Ra 2 ), percent of deviation between the total production observed and estimated, and percent of typical curves. Residual distribution graphics were used only to evaluate the mean curve fit. In the mean curve, the values of Ra 2 were more than 0,93 in all functions. Good fits were obtained based on Ra 2 >0,80, respectively in 61,4% and 66.7% of the lactations fitted by FPI and FGI functions for Guzerá cattle. For Sindi cattle, these values were 57,2% and 50,0%, respectively, showing good quality of fit. FPI and FGI were closest to the production oscillations throughout lactation, even though estimated deviations between total productions were observed and estimated that were similar to the other functions. For mean curve, all functions could be used, because the functions were close. For individual lactations, better estimates of total milk production could be obtained by the FPI and FGI. / Com este trabalho objetivou-se comparar algumas funções matemáticas citadas na literatura, identificar a que melhor descreve a produção de leite e estimar alguns componentes da curva de lactação de vacas Guzerá e Sindi criadas na região semi-árida do Estado da Paraíba. Foram utilizadas 840 lactações (467 - Guzerá; 373 - Sindi) de animais pertencentes à Fazenda Carnaúba, município de Taperoá, Paraíba. O controle leiteiro foi feito em intervalos de 35 dias, no período de 1986 a 2004. O ajuste foi feito para a curva média e para lactações individuais, utilizando-se seis funções matemáticas. As funções Polinomial Inversa (FPI), Linear Hiperbólica (FLH), Gama Incompleta (FGI), Quadrática Logarítmica (FQL), Linear (FL) e Quadrática (FQ) foram ajustadas usando-se processos iterativos por meio de regressão não-linear. Os critérios utilizados para verificar a qualidade do ajuste para cada função foram: coeficiente de determinação ajustado (Ra 2 ), porcentagem de desvios entre as produções totais observadas e estimadas e percentagem de curvas típicas. Os gráficos de distribuição de resíduos foram utilizados apenas para avaliar o ajuste para a curva média. Para a curva média, os valores de Ra 2 foram superiores a 0,93 em todas as funções. Bons ajustes baseados nos Ra 2 >0,80 foram obtidos, respectivamente, para 61,4% e 66,7% das lactações ajustadas pelas funções FPI e FGI para vacas Guzerá. Para vacas Sindi, esses valores foram de 57,2% e 55,0%, respectivamente, indicando boa qualidade no ajuste. Para curva média, todas as funções poderiam ser utilizadas, pois os desvios foram muito próximos. Para as lactações individuais, melhores estimativas dos componentes da curva de lactação poderiam ser obtidos pelas funções FPI e FGI.
76

Análise dos modelos AMMI bivariados / Bivariate AMMI models analysis

Marisol Peña Garcia 03 February 2009 (has links)
E comum encontrar nos ensaios experimentais a analise de dois fatores, cada um com diferente numero de níveis, eles proporcionam uma tabela de dados de dupla entrada. Geralmente a analise destes dados e feita através da analise de variância - ANOVA, cumprindo algumas pressuposições básicas do modelo, mas ha outros estudos nos quais e de grande importância a interação, como e o caso dos estudos de melhoramento genético, em que o objetivo e selecionar genótipos com ótimos desempenhos em diferentes ambientes. A pouca eficiência na analise da interação dos genótipos com os ambientes (GE) da ANOVA pode representar um problema aos melhoristas, que devem tirar proveito dessa interação para os seus estudos. Os modelos aditivos com interação multiplicativa - AMMI, traz vantagens na seleção de genótipos quando comparados com métodos convencionais, pois proporcionam uma melhor analise da interação (GE), alem de permitir combinar componentes aditivos e multiplicativos em um mesmo modelo; estes modelos tem demonstrado ser eficientes na analise quando se tem apenas uma variável resposta, mas quando há mais de uma, ainda n~ao existe um procedimento geral para realizar a analise. O presente trabalho propõe uma metodologia de analise quando se têm modelos AMMI bivariados, realizando analises individuais das variáveis respostas seguidas de uma analise de procrustes, que permite fazer comparações dos resultados obtidos nas analises individuais e finalmente uma confirmação destes resultados através da analise multivariada de variância - MANOVA. Os resultados obtidos permitem concluir que a analises AMMI e procrustes proporcionam uma boa alternativa de analise para os modelos AMMI bivariados. / Is frequently nd in the studies the two way factor analysis, each factor with dierent number of levels, they conform a two way table of data, generally the analysis of the data is made with the analysis of variance - ANOVA, satisfying some assumptions, but there are some studies in which is very important the interaction, like the case of the improvement studies, where the objetive is select genotypes with optimum performance in dierents environments. The poor eciency in the genotypes and environment interaction (GE) analysis of the ANOVA can represents a problem for the researchers, that need to take advantage of the interaction. The additive main eects and multiplicative interactions model - AMMI, give advantages in the selection of genotypes when is compare with traditional methods, because give a better interaction (GE) analysis, also permit combine additive and multiplicative components in the same model, these models have demonstrated be ecient in the analysis with just one response variable but when there is more than one there is not a clear procedure to do the analysis. This work presents a analysis methodology for the bivariate AMMI models, doing individuals analysis in the response variables follow by the procrustes, which permit compare the results of the individuals analysis, and nally a conrmation of theses results with the multivariate analysis of variance - MANOVA. From the results can be concluded that the AMMI and the procrustes analysis give a good alternative for the bivariate AMMI models analysis.
77

Metodologia de análise de sistemas de proteção com controle distribuído através da ferramenta de modelagem e verificação formal estatística / Metodologyfor power system protection abalisys based on statistical model checking

Santos, Felipe Crestani dos 17 November 2017 (has links)
Submitted by Miriam Lucas (miriam.lucas@unioeste.br) on 2018-02-22T14:23:15Z No. of bitstreams: 2 Felipe_Crestani_dos_Santos_2017.pdf: 5495370 bytes, checksum: 82f81445874bba45497cda5c8d784d2f (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-02-22T14:23:15Z (GMT). No. of bitstreams: 2 Felipe_Crestani_dos_Santos_2017.pdf: 5495370 bytes, checksum: 82f81445874bba45497cda5c8d784d2f (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2017-11-17 / The main line of research of this work is the study of approaches for supporting the development and analysis of the Power System Protection. In general, this process is carried out through of a large number of simulations involving various operating scenarios. The main limitation of this technique is the impossibility of coverage of all behavior of the system under analysis. In this context, this work proposes the use of Model Checking as a tool to support the procedure of development of power system protection schemes, principally in the sense of proving the security requirements and temporal deterministic expected behavior. Model Checking is a verification technique that explores exhaustively and automatically all possible system states, checking if this model meets a given specification. This work focuses on this two pillars of the Model Checking: to choose an appropriate modeling formalism for representation of the power system protection and how to describe the specification in temporal-logic for the verification process. With regard to the modeling formalism, the power system protection will be represented by the Hybrid Automata theory, while the verification tool adopted will be Statistical Model Checking, by the UPPAAL STRATEGO toolkit. It is underlined that this work is limited to the modeling of individual components of the power system protection, such that 18 models of the devices and protocols like communication bus (LAN), time synchronization protocol (PTP) and IEC 61850 communication protocols (SV and GOOSE) and Logical Nodes of power system protection, and 13 auxiliaries models, which emules the stochastic behavior to subsidise the verification process. The methodology of modelling adopted guarantees the effective representation of the components behaviour of power system protection. For this, the results of Model Checking process were compared with behavioral requirements defined by standards, conformance testings and paper related to the area. With regard to the contributions of this work, were identified three researches areas that could use the models developed in this work: i) implementation of power system protection schemes; ii) achievement of conformance testing; and iii) indication of the parameterization error of the power protection system scheme. / A linha de pesquisa abordada neste trabalho aponta para o estudo e desenvolvimento de ferramentas que subsidiem a proposição e validação de Sistemas de Proteção de Sistemas de Energia Elétrica. Em geral, este processo é realizado mediante simulações computacionais envolvendo diversos cenários de operação e distúrbios, tendo como principal limitação a impossibilidade de representar todos os caminhos de evolução do sistema em análise. Nesse contexto, propõe-se o emprego da técnica de Modelagem e Verificação Formal como ferramenta de suporte ao projeto, análise e implementação de estratégias de proteção, principalmente no sentido de comprovar se a estratégia atende os requisitos de segurança e comportamento determinístico temporal esperado. Em síntese, o método consiste na verificação de propriedades descritas em lógicas temporais, sob uma abstração apropriada (formalismo) do comportamento do sistema. Esta dissertação possui enfoque nestes dois requisitos: modelagem do sistema de proteção através de um formalismo adequado e tradução dos requisitos do comportamento desejado em propriedades descritas em lógica temporal. Com relação ao formalismo de apoio, a modelagem do sistema de proteção é baseada em uma abstração de Autômatos Temporizados Híbridos. Como ferramenta de validação, adota-se a técnica de Verificação Formal Estatística, através do software UPPAAL STRATEGO. Salienta-se que este trabalho se delimita apenas na modelagem e validação individual dos principais equipamentos de um sistema de proteção, sendo 18 modelos de dispositivos e protocolos como barramentos de comunicação (LAN), protocolo de sincronização de tempo PTP, protocolos de comunicação baseados em IEC 61850 e funções de proteção, e 13 modelos auxiliares que implementam um comportamento estocástico para subsidiar o processo de validação do sistema de proteção. O desenvolvimento dos modelos se deu através de uma abordagem sistemática envolvendo processos de simulação e verificação das propriedades sob o modelo em análise. Através desta metodologia, garante-se que os modelos desenvolvidos representam o comportamento esperado de seus respectivos dispositivos. Para isso, os resultados do processo de verificação foram comparados com requisitos comportamentais definidos por normas, testes de conformidade em equipamentos/protocolos e trabalhos acadêmicos vinculados à área. Com relação às contribuições do trabalho, identificou-se três linhas de pesquisa que podem fazer o uso dos modelos desenvolvidos: i) implementação de novas estratégias de proteção; ii) realização de testes de conformidade em equipamentos externos à rede de autômatos; e iii) indicação de erros de parametrização do sistema de proteção.
78

Groundwater and its response to climate variability and change in cold snow dominated regions in Finland: methods and estimations

Okkonen, J. (Jarkko) 30 November 2011 (has links)
Abstract A conceptual framework was developed to assess how changes in temperature and precipitation affect sub-surface hydrology, groundwater recharge, groundwater quantity and quality. A conceptual and statistical approach was developed to predict groundwater level variations. Daily rainfall, snowmelt and evapotranspiration values were generated with a novel conceptual hydrological model developed in this study. These values were cross-correlated with observed groundwater levels to find representative time lags and significant correlations. A statistical model linking rainfall, snowmelt, evapotranspiration and groundwater level was then developed and validated. The model simulated seasonal variations in groundwater level very accurately. A sequential approach was developed to assess surface water-groundwater interactions. The simulated surface water level estimated with the WSFS model and recharge estimated with CoupModel were linked to the groundwater flow model MODFLOW. Groundwater, surface water and snow samples were collected to study the chemical composition of groundwater in an unconfined esker aquifer in Northern Finland. Concentrations of Ca2+, Cl-, NO3-N and SiO2 and electrical conductivity were determined. Water quality in the main aquifer was found to be similar to that in the perched groundwater. Solute concentrations generally decreased during and immediately after snowmelt periods, indicating the importance of snowmelt input for groundwater quality. In the perched groundwater, NO3-N concentration increased with elevated groundwater level, indicating a nitrogen source on the land surface. The Cl- concentration in groundwater decreased when the surface water level rose higher than groundwater level. According to simulation results for the A1B climate change scenario, groundwater recharge is projected to increase in winter months due to increased snowmelt and decreased soil frost depth. The spring snowmelt peak in late spring will decrease. This will reduce aquifer storage in early spring, increasing the vulnerability to summer droughts. It is projected that flow regimes between unconfined aquifers and surface water may change, affecting water quantity and possibly quality in groundwater systems. / Tiivistelmä Tässä työssä kehitettiin konseptuaalinen viitekehysmalli, jolla voidaan arvioida kuinka muutokset lämpötilassa ja sadannassa vaikuttavat hydrologiaan, pohjaveden muodostumiseen, pohjaveden määrään ja laatuun. Tässä työssä kehitettiin ja yhdistettiin konseptuaalinen ja tilastomatemaattinen regressiomalli, jolla voidaan simuloida pohjaveden pinnankorkeuden muutoksia. Konseptuaalisella mallilla laskettiin päivittäinen sadanta, lumen sulanta ja haihdunta. Havaitut pohjaveden pinnankorkeudet korreloitiin sadannan, lumen sulannan ja haihdunnan kanssa, jotta löydettiin merkitsevät korrelaatiot tyypillisillä viiveillä. Lopuksi tilastollinen regressiomalli, joka yhdistää sadannan, lumen sulannan, haihdunnan ja pohjaveden pinnankorkeuden, kalibroitiin ja validoitiin. Kehitetyllä mallilla onnistuttiin simuloimaan vuodenaikainen pohjaveden pinnankorkeus. Yhdensuuntainen mallinnusmenetelmä kehitettiin arvioimaan pinta- ja pohjaveden vuorovaikutusta. Menetelmässä pintaveden korkeus ja pohjaveden muodostuminen linkitettiin ajan suhteen muuttuvina reunaehtoina pohjavedenvirtauksen mallinnusohjelmaan MODFLOW. Simuloidut pintaveden pinnankorkeudet saatiin Suomen ympäristökeskuksen vesistömallijärjestelmästä ja pohjaveden muodostuminen simuloitiin 1D lämmön- ja aineensiirtomallilla, CoupModel. Pudasjärven Törrönkankaan pohjavesimuodostumasta, Pudasjärvestä, Kivarinjoesta ja lumesta kerättiin näytteet ja niistä määritettiin Ca2+, Cl-, NO3-N ja SiO2 pitoisuudet sekä sähkönjohtavuus. Pitoisuudet pohja- ja salpavedessä olivat hyvin samanlaiset. Pitoisuudet yleisesti pienenivät, kun pohjaveden pinnankorkeus nousi etenkin keväisin lumien sulamisen jälkeen. Ainoastaan salpavedessä NO3-N pitoisuus kasvoi, kun pohjaveden pinnankorkeus nousi. Tämä johtuu todennäköisesti salpaveden yläpuolella olevasta NO3-N lähteestä. Cl- pitoisuus pohjavedessä pieneni, kun pintaveden korkeus nousi korkeammalle kuin pohjavesi. A1B ilmastoskenaariossa pohjaveden muodostumisen ennakoidaan lisääntyvän talvikuukausina. Tämä johtuu lumen sulannan lisääntymisestä ja roudan vähenemisestä. Keväinen lumen sulamisen huippu voi mahdollisesti pienentyä ja johtaa pohjavesivarojen pienentymiseen keväisin. A1B ilmastoskenaariossa pinta- ja pohjaveden vuorovaikutus voi myös muuttua ja siten vaikuttaa pohjaveden määrään ja mahdollisesti myös laatuun.
79

Fotonové silové funkce v jádře 168Er z měření gamma kaskád detektorem DANCE / Photon strength functions in 168Er from multi-step gamma cascade measurement at DANCE

Knapová, Ingrid January 2017 (has links)
Subject of the thesis is study of photon strength functions describing the gamma decay of the nucleus. During last 50 years a number of theoretical models for these quantities were proposed, however, their accuracy is still de- batable and its verification has recently been a subject of intensive experimental and theoretical research. In this work measurement of multi-step gamma cas- cades following the radiative neutron capture on target nucleus 167 Er is used to analyse photon strength functions. The experiment was performed with DANCE calorimeter located in Los Alamos Neutron Scattering Center. The experimen- tal spectra are compared with Monte Carlo simulations of electromagnetic decay using the DICEBOX algorithm, based on assumptions of Extreme Statistical Model. Comparison of experimental and simulated spectra is a fundamental tool for studying correctness of theoretical models of photon strength functions. This study provides information mainly about E1 and M1 photon strength functions, especially properties of the so-called scissor mode are analysed.
80

Atualização dinâmica de modelo de regressão logística binária para detecção de fraudes em transações eletrônicas com cartão de crédito / Dynamic update of binary logistic regression model for fraud detection in electronic credit card transactions

Fidel Beraldi 01 December 2014 (has links)
Com o avanço tecnológico e econômico, que facilitaram o processo de comunicação e aumento do poder de compra, transações com cartão de crédito tornaram-se o principal meio de pagamento no varejo nacional e internacional (Bolton e Hand , 2002). Neste aspecto, o aumento do número de transações com cartão de crédito é crucial para a geração de mais oportunidades para fraudadores produzirem novas formas de fraudes, o que resulta em grandes perdas para o sistema financeiro (Chan et al. , 1999). Os índices de fraudes têm mostrado que transações no comércio eletrônico (e-commerce) são mais arriscadas do que transações presencias em terminais, pois aquelas não fazem uso de processos seguros e eficientes de autenticação do portador do cartão, como utilização de senha eletrônica. Como os fraudadores se adaptam rapidamente às medidas de prevenção, os modelos estatísticos para detecção de fraudes precisam ser adaptáveis e flexíveis para evoluir ao longo do tempo de maneira dinâmica. Raftery et al. (2010) desenvolveram um método chamado Dynamic Model Averaging (DMA), ou Ponderação Dinâmica de Modelos, que implementa um processo de atualização contínuo ao longo do tempo. Nesta dissertação, desenvolvemos modelos DMA no espaço de transações eletrônicas oriundas do comércio eletrônico que incorporem as tendências e características de fraudes em cada período de análise. Também desenvolvemos modelos de regressão logística clássica com o objetivo de comparar as performances no processo de detecção de fraude. Os dados utilizados para tal são provenientes de uma empresa de meios de pagamentos eletrônico. O experimento desenvolvido mostra que os modelos DMA apresentaram resultados melhores que os modelos de regressão logística clássica quando analisamos a medida F e a área sob a curva ROC (AUC). A medida F para o modelo DMA ficou em 58% ao passo que o modelo de regressão logística clássica ficou em 29%. Já para a AUC, o modelo DMA alcançou 93% e o modelo de regressão logística clássica 84%. Considerando os resultados encontrados para os modelos DMA, podemos concluir que sua característica de atualização ao longo do tempo se mostra um grande diferencial em dados como os de fraude, que sofrem mudanças de comportamento a todo momento. Deste modo, sua aplicação se mostra adequada no processo de detecção de transações fraudulentas no ambiente de comércio eletrônico. / Regarding technological and economic development, which made communication process easier and increased purchasing power, credit card transactions have become the primary payment method in national and international retailers (Bolton e Hand , 2002). In this scenario, as the number of transactions by credit card grows, more opportunities are created for fraudsters to produce new ways of fraud, resulting in large losses for the financial system (Chan et al. , 1999). Fraud indexes have shown which e-commerce transactions are riskier than card present transactions, since those do not use secure and efficient processes to authenticate the cardholder, such as using personal identification number (PIN). Due to fraudsters adapt quickly to fraud prevention measures, statistical models for fraud detection need to be adaptable and flexible to change over time in a dynamic way. Raftery et al. (2010) developed a method called Dynamic Model Averaging (DMA), which implements a process of continuous updating over time. In this thesis, we develop DMA models within electronic transactions coming from ecommerce environment, which incorporate the trends and characteristics of fraud in each period of analysis. We have also developed classic logistic regression models in order to compare their performances in the fraud detection processes. The database used for the experiment was provided by a electronic payment service company. The experiment shows that DMA models present better results than classic logistic regression models in respect to the analysis of the area under the ROC curve (AUC) and F measure. The F measure for the DMA was 58% while the classic logistic regression model was 29%. For the AUC, the DMA model reached 93% and the classical model reached 84%. Considering the results for DMA models, we can conclude that its update over time characteristic makes a large difference when it comes to the analysis of fraud data, which undergo behavioral changes continuously. Thus, its application has proved to be appropriate for the detection process of fraudulent transactions in the e-commerce environment.

Page generated in 0.1067 seconds