Spelling suggestions: "subject:"probabilístico"" "subject:"probabilística""
31 |
Estimador e caracterizador de consumo de energia para software embarcadoSilva, Francisco Coelho da 24 March 2011 (has links)
Made available in DSpace on 2015-04-22T22:00:44Z (GMT). No. of bitstreams: 1
Francisco.pdf: 2605316 bytes, checksum: ee1fad3d9d9e7780947fc166b5909203 (MD5)
Previous issue date: 2011-03-24 / The energy consumption in the past years became a very important issue in embedded system projects. The high production and wide application of mobile devices have forced the emergence of various restrictions to this system, such as: weight, size and lifetime of batteries and multiple functionalities. Mobile devices works under limited power source that autonomy and lifetime are directly related to energy consumption of the running applications. These concerns have contributed significantly to include the energy consumption as metric for project quality in embedded systems.
The main goal of this work is to propose metrics, estimative and compare the energy consumption of programs code written in ANSI-C language, based on execution time of embedded systems. In order to support the approach it was improved a tool in algorithm level known as PESTI in multiple scenarios.
It was written a program in ANSI-C language and loaded in processor of the ARM 7 family s. Then, it was added into this program flags to signalize start and stop in order to measure execution time of each track in analysis.
The estimative tool already modified to attribute multiple scenarios, for a program written in ANSI-C and translated into an annotated control flow graph, with tracks assignments of probabilities. This model is probabilistically simulated by using Monte Carlo methodology. The proposed approach was validate carrying out a series of experimental in order to show the viability of the improved tool of estimation and characterization, which together will make the estimates of energy consumption somewhat more feasible.
Validate the proposed approach added;
Compare the results between simulation time and the tool for characterization PESTI with the same hardware platform embedded (ARM7).
The experimental were divided in three steps:
Simulation of the code in the tool PESTI in multiple scenarios;
Characterization of the query code;
Comparison of the characterization tool and PESTI.
The experiments were conducted on:
AMD Turion (tm) II Dual Core Mobile Processor M500, 2.20GHz, 4Gb of RAM;
OS Linux Mint Distribution kernel 2.6.22 32-bit;
11
OS Windows 7 32-bit. / Consumo de energia nos últimos anos tornou-se um aspecto importante em projetos de sistemas embarcados. A produção e utilização em larga escala dos dispositivos móveis tem imposto várias restrições como: peso, tamanho, tempo de vida útil da bateria e funcionalidades complexas. Dispositivos móveis operam sob uma fonte de energia limitada cuja autonomia e tempo de vida útil estão diretamente relacionados ao consumo de energia das aplicações. Estas questões contribuíram para incluir o consumo de energia como métrica de qualidade no projeto de sistemas embarcados.
Este trabalho tem como objetivo propor uma abordagem de medição, estimação e comparação do consumo de energia de código de programas escritos em linguagem ANSI-C, baseados em ensaios de códigos previamente escolhidos com características de consumo de energia e no tempo de execução. Para dar suporte à abordagem, uma ferramenta de estimação chamada PESTI foi estendida para atender múltiplos cenários probabilísticos.
Programas escritos em linguagem ANSI-C são embarcados no processador LPC2148 da família ARM 7. Nesse programa são inseridos flags de sinalização para start e stop, para delimitar o tempo de execução e medirmos o consumo de energia do código. Um hardware chamado de caracterizador de consumo de energia auxiliará na medição em tempo real de execução do código.
A ferramenta de estimação chamada PESTI com características probabilísticas e atribuições para múltiplos cenários probabilísticos é usada para estimar o consumo de energia do programa escrito em ANSI-C.
Validamos a abordagem proposta, executando um conjunto de experimentos mostrando a viabilidade da extensão da ferramenta de estimação e o caracterizador que, em conjunto, viabilizarão as estimativas de consumo de energia no processador alvo.
As atividades realizadas para a execução dos experimentos foram:
Validar a abordagem proposta;
Comparar os resultados medidos e estimados entre a ferramenta PESTI com o caracterizador para a mesma plataforma de hardware embarcada (ARM7).
Os experimentos foram divididos em três passos:
Estimação dos códigos na ferramenta PESTI em simples e múltiplos cenários;
Caracterização do código em questão;
Comparação da caracterização e ferramenta PESTI.
9
Onde os resultados obtidos mostram uma diferença entre os valores estimados e simulados e os resultados medidos.
Os experimentos foram conduzidos sobre:
AMD Turion(tm) II Dual Core Mobile M500, 2.20GHz, 4GB de RAM;
SO Linux Distribuição Mint kernel 2.6.22;
SO de 32 bits Windows 7.
|
32 |
Predição de mortalidade em cirurgia de coronária e/ou valva no InCor: validação de dois modelos externos e comparação com o modelo desenvolvido localmente (InsCor) / Mortality prediction in coronary bypass surgery and/or heart valve surgery at InCor: Validation of two external risk models and comparison to the locally developed model (InsCor)Mejia, Omar Asdrubal Vilca 16 April 2012 (has links)
Objetivo: Novas tendências na avaliação de risco trazem evidências de que modelos externos recalibrados ou remodelados funcionam melhor localmente. O objetivo deste estudo foi validar dois modelos externos e formular um modelo local, comparando-os na predição de mortalidade nos pacientes operados de coronária e/ou valva no InCor-HCFMUSP. Método: Entre 2007 e 2009, 3.000 pacientes foram sequencialmente operados de coronária e/ou valva no InCor-HCFMUSP. No banco de dados, foi realizada a validação dos modelos 2000 Bernstein-Parsonnet (2000BP) e EuroSCORE (ES), mediante testes de calibração e discriminação. O InsCor de 2.000 pacientes foi elaborado mediante a utilização de técnicas de bootstrap. Nos próximos 1.000 pacientes foi realizada a validação interna do modelo, e seu desempenho medido frente ao 2000BP e ES. Resultados: Houve uma diferença significativa na prevalência dos fatores de risco entre as populações do estudo, ES e 2000BP. Na validação externa dos modelos, o ES apresentou uma boa calibração (P=0,596); no entanto, o 2000BP revelou-se inadequado (P=0,047). Na discriminação, a área abaixo da curva ROC revelou-se boa para ambos os modelos, ES (0,79) e 2000BP (0,80). Utilizando a técnica de bootstrap, 10 variáveis: idade >70 anos, sexo feminino, cirurgia associada, infarto do miocárdio <90 dias, reoperação, cirurgia da valva aórtica, cirurgia da valva tricúspide, creatinina <2mg/dl, fração de ejeção <30% e estado pré-operátorio crítico (eventos), foram selecionadas para formulacão do InsCor. Na validação interna do InsCor, a calibração foi adequada, com P=0,184. Na discriminação, a área abaixo da curva ROC foi boa (0,79). Neste grupo, a área abaixo da curva ROC foi de 0,81 e 0,82 para o ES e 2000BP, respectivamente, mostrando-se apropriada para ambos os modelos. Conclusões: O InsCor e o ES tiveram melhor desempenho que o 2000BP em todas as fases da validação; pórem o novo modelo, além de se identificar com os fatores de risco locais, é mais simples e objetivo para a predição de mortalidade nos pacientes operados de coronária e/ou valva no InCor-HCFMUSP / Background: New trends in risk assessment bring evidence that recalibrated or remodeled external models work best locally. The aim of this study was to validate two external models and formulate a local model, comparing them to predict mortality in patients who underwent coronary bypass surgery and/or heart valve surgery at InCor-HCFMUSP. Method Between 2007 and 2009, 3.000 patients were sequentially operated to coronary bypass surgery and/or heart valve surgery at InCor-HCFMUSP. The database was assessment to validate the models 2000 Bernstein-Parsonnet (2000BP) and EuroSCORE (ES) through calibration and discrimination tests. The InsCor of 2,000 patients (2/3 of database) was elaborated using bootstrap techniques. Over the next 1000 patients (1/3 of database) the internal validation of the InsCor was performed and its performance compared against the 2000BP and ES. Results: Significant difference in the prevalence of risk factors was found among the external and study populations (P<0,001). In the external validation of these models, the ES showed good calibration (P = 0.596); however, 2000BP was inadequate (P = 0.047). In discrimination, the area under the ROC curve was good for both models, ES (0.79) and 2000BP (0.80). With the bootstrap technique, 10 variables: age> 70 years, female, CABG + valve surgery, myocardial infarction <90 days, reoperation, aortic valve surgery, tricuspid valve surgery, creatinine <2mg/dl, ejection fraction <30% and critical preoperative state (events) were chosen to formulate the InsCor. In the validation of InsCor, the calibration was appropriate with P = 0.184. In discrimination, the area under the ROC curve was good (0.79). In this group, the area under the ROC curve was 0.81 and 0.82 for ES and 2000BP, respectively, being suitable for both models. Conclusions: The InsCor and ES outperformed the 2000BP at all stages of validation, but the new model, besides identifying itself with the local risk factors, is more simple and objective for the prediction of mortality in patients who underwent coronary bypass surgery and/or heart valve surgery at InCor-HCFMUSP.
|
33 |
ANÁLISE PROBABILÍSTICA DA CONFORMIDADE DE TENSÃO EM REDES DE DISTRIBUIÇÃO CONSIDERANDO A PRESENÇA DE GERAÇÃO DISTRIBUÍDA. / Probabilistic analysis of voltage conformity in distribution networks considering distributed generation presence.VIEIRA, Carlos Henrique da Silva 09 November 2012 (has links)
Submitted by Maria Aparecida (cidazen@gmail.com) on 2017-08-24T15:21:43Z
No. of bitstreams: 1
Carlos Henrique.pdf: 3192728 bytes, checksum: b409baf77eae63d413fff22f89c2f1d9 (MD5) / Made available in DSpace on 2017-08-24T15:21:43Z (GMT). No. of bitstreams: 1
Carlos Henrique.pdf: 3192728 bytes, checksum: b409baf77eae63d413fff22f89c2f1d9 (MD5)
Previous issue date: 2012-11-09 / FAPEMA / Currently, there is growing concern about the Power Quality (PQ) problems due
to: introduction of automation in industrial processes, presence of personal computers and
electronically controlled devices, load equipments with low capacity to withstand small PQ
disturbances and increased perception of residential and industrial consumers with regard to
PQ disturbances. In this context, an important issue with relation to PQ is the voltage
conformity. That is, the adequacy of service voltage to the limits specified by regulatory
agencies. The concern about compliance is due to the following problems caused by sustained
undervoltages and overvoltages: improper or less-efficient equipment operation, tripping of
sensitive loads, overheating of induction motors due to undervoltages, equipment damage or
failure due to overvoltages and higher no-load losses in transformers caused by sustained
overvoltages. Furthermore, there have been various incentives for connection of Distributed
Generation (DG) in distribution networks due to: incentives for the using of electricity
generation based on renewable energy sources and free access of independent energy
producers to transmission and distribution networks owing to deregulation of the electric
sector.
In principle, the voltage profile of a distribution network can be improved with
connection of DG. However, it is possible to notice severe deteriorations in the voltage profile
of distribution networks in DG post-failure scenarios. These failures are caused by problems
in the DG components, such as: cooling system, gears, turbines, etc. During the time period in
which the DG is under repair, active and reactive power supports to correct the voltage profile
are unavailable. Consequently, the voltage profile tends to deteriorate while the DG is
disconnected. In this way, it is important to carry out studies to assess the impact of the DG
installation on the voltage conformity indices considering the following issues: DG
unavailability after an intrinsic failure and load curve. These aspects are subject to
uncertainties due its random nature. Due to this, the most suitable approaches to assess the
impact of uncertainties associated with load fluctuations and DG failures on the voltage
conformity indices are the probabilistic methods. The main advantage of these methods is its
capability to combine severity and probability to truly express the system risk.
The main objective of this dissertation is the development of a method that
models the random behavior of the distribution network in the voltage conformity indices
estimation through the probabilistic methods. Models and techniques to incorporate stochastic
variations in the demand and DG unavailability in voltage conformity indices estimation are
proposed. The technique proposed in this dissertation to carry a Predictive Assessment of
Voltage Conformity (PAVC) is based on the combination of the following techniques: power
flow for radial distribution networks via current summation method, Quasi-Sequential Monte
Carlo Simulation and Fourier analysis of time series.
The PAVC model proposed in this dissertation was tested in 32 buses system. The
results obtained with this system demonstrated that the DG has a great potential to improve
the voltage conformity indices in the distribution network. However, the most significant
improvements in the voltage conformity indices are associated with load points distant from
the substation. Furthermore, it can be observed that the uncertainties associated with DG
failures cause significant variations in the voltage conformity indices. Additionally, a
sensitivity study demonstrated that the voltage conformity indices are worse (better) for
systems where the load is modeled as constant power (impedance). / Atualmente há um interesse crescente com relação a problemas de Qualidade de
Energia Elétrica (QEE) devido a: introdução de automação em processos industriais; presença
de computadores pessoais e dispositivos controlados eletronicamente em instalações
residenciais; equipamentos de carga com baixa capacidade para suportar pequenos distúrbios
de qualidade de energia; e aumento da percepção dos consumidores industriais e residenciais
com relação a distúrbios de QEE. Neste contexto, um aspecto importante com relação a QEE
é a conformidade de tensão da rede de distribuição. Ou seja, a adequação da tensão de
atendimento aos limites especificados pelos órgãos reguladores. A preocupação com a
conformidade de tensão é devido aos seguintes problemas causados por subtensões e
sobretensões sustentadas: operação indevida ou com baixa eficiência dos equipamentos
elétricos dos consumidores; desligamento de cargas sensíveis; aquecimento de motores de
indução devido à subtensões; danos ou falhas em equipamentos devido à sobretensões e
aumento nas perdas em vazio nos transformadores causado pela presença de sobretensões
sustentadas. Além disso, tem havido diversos incentivos para conexão de Geração Distribuída
(GD) na rede de distribuição devido a: incentivo para utilização de sistemas de geração de
energia elétrica baseados em fontes de energia renováveis; e livre acesso dos produtores
independentes de energia às redes de transmissão e distribuição devido a desregulamentação
do setor elétrico.
Em princípio, o perfil de tensão de uma rede de distribuição pode ser melhorado
com a conexão da GD. Contudo é possível observar deteriorações severas no perfil de tensão
de redes de distribuição em cenários pós-falha da GD. Estas falhas são causadas por
problemas nos componentes da GD, tais como: sistema de refrigeração, engrenagens, turbina,
etc. Durante o período de tempo em que a GD está em reparo, o suporte de potência ativa e
reativa da GD, para corrigir o perfil de tensão, está indisponível. Consequentemente, o perfil
de tensão tende a se deteriorar enquanto a GD estiver desconectada. Desta forma, é
importante realizar estudos para avaliar o impacto da instalação da GD nos índices de
conformidade de tensão considerando os seguintes aspectos: indisponibilidade da GD após
uma falha intrínseca e a curva de carga. Estes aspectos estão sujeitos a incertezas devido a sua
natureza aleatória. Devido a isto, as técnicas mais adequadas para avaliar o impacto de
incertezas associadas com flutuações de carga e falhas na GD nos índices de conformidade de tensão são os métodos probabilísticos. A principal vantagem destes métodos é a sua
capacidade para combinar severidade e probabilidade para expressar verdadeiramente o risco
do sistema.
O principal objetivo desta dissertação é o desenvolvimento de um método que
modele o comportamento aleatório da rede de distribuição na estimação dos índices de
conformidade de tensão através de métodos probabilísticos. Modelos e técnicas para
incorporar variações estocásticas na demanda e a indisponibilidade da GD na estimação dos
índices de conformidade de tensão são propostos. A técnica proposta nesta dissertação para
realizar uma Avaliação Preditiva da Conformidade de Tensão (APCT) se baseia na
combinação das seguintes técnicas: fluxo de potência para redes de distribuição radiais via
método de soma de correntes; simulação Monte Carlo Quasi-Sequencial e análise de Fourier
de séries temporais.
O modelo de APCT proposto neste artigo foi testado em um sistema de 32 barras.
Os resultados obtidos neste sistema demonstraram que a GD tem um grande potencial para
melhorar os índices de conformidade de tensão na rede de distribuição. Contudo, as melhorias
mais significativas nos índices de conformidade estão associadas com os pontos de carga mais
distantes da subestação. Além disso, pode-se observar que as incertezas associadas com as
falhas na GD causam variações significativas nos índices de conformidade de tensão.
Adicionalmente, um estudo de sensibilidade demonstrou que os índices de conformidade de
tensão são piores (melhores) para sistemas onde a carga é modelada como potência
(impedância) constante.
|
34 |
AVALIAÇÃO PROBABILÍSTICA DO IMPACTO DA GERAÇÃO DISTRIBUÍDA EÓLICA NOS AFUNDAMENTOS DE TENSÃO DE CURTA DURAÇÃO. / PROBABILISTIC ASSESSMENT OF THE IMPACT OF DISTRIBUTED GENERATION WIND POWER IN THE SHORT TERM VOLTAGE SAGS .SILVA, Tiago Alencar 09 November 2012 (has links)
Submitted by Maria Aparecida (cidazen@gmail.com) on 2017-08-29T13:12:16Z
No. of bitstreams: 1
Tiago Silva.pdf: 3175763 bytes, checksum: 8eba0f17a1a1f6fa2606a5235969987e (MD5) / Made available in DSpace on 2017-08-29T13:12:16Z (GMT). No. of bitstreams: 1
Tiago Silva.pdf: 3175763 bytes, checksum: 8eba0f17a1a1f6fa2606a5235969987e (MD5)
Previous issue date: 2012-11-09 / CNPQ / The Distributed Generation (DG) can improve the power quality indices associated
with Short Duration Voltage Variations (SDVV) due to the reduction in the electric network
loading, which in turn causes an improvement in the pre-fault voltage profile. On the other
hand, the DG can also deteriorates the power quality indices related to SDVV due to the
increasing in the fault currents, which in turns reduce the post-fault voltages. Furthermore, the
assessment of the DG impact on SDVV is more difficult with the presence of renewable
energy resources. This complexity is due to fluctuations in output power caused by stochastic
variations in the primary energy source (sun, wind, tide levels, etc.). Additionally, the
bibliographical review on Predictive Assessment of Short Duration Voltage Variations
(PAVV) revealed that none of the existing methodology considered the impact of fluctuations
in the output power of a wind DG on power quality indices related to SDVV. It was also
noticed that the load variations during the study period are ignored in the papers on SDVV.
The existence of these deficiencies and the governmental incentives for the use of wind
generation motivated this research. The main aim of this dissertation is the development of a
methodology for the PAVV capable of recognizing uncertainties associated with wind DG
and load fluctuations. The modeling of these uncertainties was carried out using NonSequential Monte Carlo Simulation (MCS). The nodal voltages in the fault scenarios
generated by MCS were evaluated using the Admittance Summation Method (ASM) in phase
coordinates. The combination of the MCS with the ASM allowed estimating the following
indices related to SDVV: the expected value of the SARFI (“System Average RMS –
Variation – Frequency Index”) and expected nodal frequency of SDVV. Furthermore, the
probability distributions and box plots of the SARFI index have been obtained. The proposed
method for the PAVV was tested and validated in a test system with 32 buses. The tests
results demonstrated that the DG insertion causes an improvement in the power quality
indices associated with SDVV. Additionally, the substitution of conventional DG by wind DG
cause a small deterioration in the power quality indices related to SDVV due to fluctuations in
the output power of the wind DG. Finally, it was observed that the load fluctuations during
the study period cause significant variations in the SARFI index. / A Geração Distribuída (GD) pode melhorar os índices de qualidade de energia
associados com as Variações de Tensão de Curta Duração (VTCD) devido a redução no
carregamento da rede elétrica, que por sua vez causa uma melhoria no perfil de tensão pré-
falta. Por outro lado, a GD também pode degradar os índices de qualidade de energia
associados com VTCD devido ao aumento nas correntes de falta, que por sua vez reduzem as
tensões pós-falta. Além disso, a avaliação do impacto da DG sobre VTCD é mais difícil com
a presença de fontes de energia renováveis. Esta complexidade se deve as flutuações na
potência de saída causadas pelas variações estocásticas na fonte de energia primária (sol,
vento, níveis de maré, etc.). Adicionalmente, a revisão bibliográfica realizada sobre Avaliação
Preditiva de VTCD (APVT) revelou que nenhuma metodologia existente considerou o
impacto de flutuações na potência de saída de geradores eólicos nos índices de qualidade
referentes às VTCD. Também foi observado que flutuações de carga ao longo do período de
estudo são desconsideradas nos artigos sobre APVT. A existência destas deficiências nos
métodos de APVT e os incentivos governamentais para o uso de geração eólica motivaram
esta pesquisa. O principal objetivo desta dissertação é o desenvolvimento de uma metodologia
para a APVT capaz de reconhecer as incertezas associadas com a GD eólica e flutuações de
carga. A modelagem destas incertezas na APVT foi realizada através do uso da Simulação
Monte Carlo (SMC) não-sequencial. As tensões nodais nos cenários de falta gerados pela
Simulação Monte Carlo (SMC) foram calculadas usando-se o Método de Soma de
Admitância (MSA) em coordenadas de fase. A combinação da SMC com o MSA permitiu
estimar os seguintes índices probabilísticos relacionados com as VTCD: valor esperado do
SARFI (“System Average RMS – Variation – Frequency Index”) e frequência nodal esperada
de VTCD. Além disso, foram obtidas distribuições de probabilidade e diagramas de caixa
associados com o SARFI. O método proposto nesta dissertação para a APVT foi testado em
uma rede de distribuição de 32 barras. Os resultados dos testes mostram que a inserção de GD
causa uma melhoria nos índices de qualidade associados com as VTCD. Adicionalmente, a
substituição de GD convencional por GD eólica causa uma pequena deterioração nos índices
de qualidade referentes às VTCD devido as flutuações na potência de saída da GD eólica.
Finalmente, também foi observado que as flutuações na carga ao longo do período de estudo
causam variações significativas no índice SARFI.
|
35 |
O discurso sobre os conceitos probabilísticos para a escola básicaGoulart, Amari 12 November 2007 (has links)
Made available in DSpace on 2016-04-27T16:58:30Z (GMT). No. of bitstreams: 1
Amauri Goulart.pdf: 670408 bytes, checksum: dae29241a04ef753da9d8f215e0f1f44 (MD5)
Previous issue date: 2007-11-12 / Secretaria da Educação do Estado de São Paulo / The object of our research was to analyze the official speech of the probability
concepts in the Basic School and to verify if this speech gives to the teacher instruments
to work with these concepts, so that the students can learn these concepts in a
significative way. So we analyzed the PCN, PCN+, and the Curricular Orientations for
Middle School and referred questions of probability on the ENEM tests from 1998 to
2007, by the Customary Organization of Yves Chevallard (1995), that gave us
conditions to identify the objectives, suggestions of contents, methods of work and
criteria of evaluation in official documents, and to identify the theoretician-technological
tasks, techniques and speeches, present in the questions of the ENEM. The results had
been compared with some research produced in the scope of the Mathematical Education
that approaches the education and the learning of probability concepts. In general way,
the analysis of the information gotten, allow us to conclude that the official documents
didn t give aid to the teacher and that the ENEM, in certain way, is responsible for
supplying these aiding elements / Nossa pesquisa teve como objetivo analisar o discurso institucional dos conceitos
probabilísticos na Escola Básica e verificar se esse discurso instrumentaliza o professor
para que ele trabalhe com esses conceitos, de forma que, os alunos aprendam esse
conceito de forma significativa. Para isso analisamos os PCN, os PCN+, Orientações
Curriculares para o Ensino Médio e as questões referentes à probabilidade do ENEM de
1998 a 2007, por meio da Organização Praxeológica de Yves Chevallard (1995), o que
nos deu condições de identificar os objetivos, sugestões de conteúdos, métodos de
trabalho e critérios de avaliação nos documentos oficiais, e a identificar as tarefas, as
técnicas e os discursos teórico-tecnológicos, presentes nas questões do ENEM. Os
resultados foram comparados com algumas pesquisas produzidas no âmbito da Educação
Matemática que abordam o ensino e a aprendizagem de conceitos probabilísticos. De
modo geral, a análise das informações obtidas permite-nos concluir que os documentos
oficiais não instrumentalizam o professor e que o ENEM, de certa maneira, é responsável
por fornecer elementos para essa instrumentalização
|
36 |
Analysis and Simulation of Transverse Random Fracture of Long Fibre Reinforced CompositesTrias Mansilla, Daniel 18 April 2005 (has links)
La present tesi proposa una metodología per a la simulació probabilística de la fallada de la matriu en materials compòsits reforçats amb fibres de carboni, basant-se en l'anàlisi de la distribució aleatòria de les fibres. En els primers capítols es revisa l'estat de l'art sobre modelització matemàtica de materials aleatoris, càlcul de propietats efectives i criteris de fallada transversal en materials compòsits.El primer pas en la metodologia proposada és la definició de la determinació del tamany mínim d'un Element de Volum Representatiu Estadístic (SRVE) . Aquesta determinació es du a terme analitzant el volum de fibra, les propietats elàstiques efectives, la condició de Hill, els estadístics de les components de tensió i defromació, la funció de densitat de probabilitat i les funcions estadístiques de distància entre fibres de models d'elements de la microestructura, de diferent tamany. Un cop s'ha determinat aquest tamany mínim, es comparen un model periòdic i un model aleatori, per constatar la magnitud de les diferències que s'hi observen.Es defineix, també, una metodologia per a l'anàlisi estadístic de la distribució de la fibra en el compòsit, a partir d'imatges digitals de la secció transversal. Aquest anàlisi s'aplica a quatre materials diferents.Finalment, es proposa un mètode computacional de dues escales per a simular la fallada transversal de làmines unidireccionals, que permet obtenir funcions de densitat de probabilitat per a les variables mecàniques. Es descriuen algunes aplicacions i possibilitats d'aquest mètode i es comparen els resultats obtinguts de la simulació amb valors experimentals. / This thesis proposes a methodology for the probabilistic simulation of the transverse failure of Carbon Fibre Reinforced Polymers (CFRP) by analyzing the random distribution of the fibres within the composite. First chapters are devoted to the State-of-the-art review on the modelization of random materials, the computation of effective properties and the transverse failure of fibre reinforced polymers.The first step in the proposed methodology is the definition of a Statistical Representative Volume Element (SRVE). This SRVE has to satisfy criteria based on the analysis of the volume fraction, the effective properties, the Hill Condition, the statistics of the stress and strain components, the probability density function of the stress and strain components and the inter-fibre distance statistical distributions. Once this SRVE has been achieved, a comparison between a periodic model and a random model is performed to quantitatively analyze the differences between the results they provide.Also a methodology for the statistical analysis of the distribution of the fibre within the composite from digital images of the transverse section. This analysis is performed for four different materials.Finally, a two-scale computational method for the transverse failure of unidirectional laminae is proposed. This method is able to provide probability density functions of the mechanical variables in the composite. Some applications and possibilities of the method are given and the simulation results are compared with experimental tests.
|
37 |
Aplicação de modelos gráficos probabilísticos computacionais em economiaColla, Ernesto Coutinho 29 June 2009 (has links)
Made available in DSpace on 2010-04-20T20:56:57Z (GMT). No. of bitstreams: 4
Ernesto_Colla.pdf.jpg: 21014 bytes, checksum: 4f059b37f39662752479b4c41e7d0ccd (MD5)
Ernesto_Colla.pdf.txt: 293178 bytes, checksum: bbca88752988b32a6da9e503e9fbe5cf (MD5)
license.txt: 4810 bytes, checksum: 4ca799e651215ccf5ee1c07a835ee897 (MD5)
Ernesto_Colla.pdf: 1784465 bytes, checksum: 7c45a00d36db536ce2c8e1eff4a23b6b (MD5)
Previous issue date: 2009-06-29T00:00:00Z / We develop a probabilistic model using Machine Learning tools to classify the trend of the Brazilian country risk expressed EMBI+ (Emerging Markets Bond Index Plus). The main goal is verify if Machine Learning is useful to build economic models which could be used as reasoning tools under uncertainty. Specifically we use Bayesian Networks to perform pattern recognition in observed macroeconomics and financial data. The results are promising. We get the main expected theoretical relationship between country risk and economic variables, as well as international economic context and market expectations. / O objetivo deste trabalho é testar a aplicação de um modelo gráfico probabilístico, denominado genericamente de Redes Bayesianas, para desenvolver modelos computacionais que possam ser utilizados para auxiliar a compreensão de problemas e/ou na previsão de variáveis de natureza econômica. Com este propósito, escolheu-se um problema amplamente abordado na literatura e comparou-se os resultados teóricos e experimentais já consolidados com os obtidos utilizando a técnica proposta. Para tanto,foi construído um modelo para a classificação da tendência do 'risco país' para o Brasil a partir de uma base de dados composta por variáveis macroeconômicas e financeiras. Como medida do risco adotou-se o EMBI+ (Emerging Markets Bond Index Plus), por ser um indicador amplamente utilizado pelo mercado.
|
38 |
Análise de resíduos em modelos de regressão von Mises. / Analysis of residues in von Mises regression models.LEAL, Grayci-Mary Gonçalves. 10 July 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-07-10T16:48:23Z
No. of bitstreams: 1
GRAYCI-MARY GONÇALVES LEAL - DISSERTAÇÃO PPGMAT 2006..pdf: 956853 bytes, checksum: 4fd52ea4cb6e8e47a91cfe0b76a5c4bb (MD5) / Made available in DSpace on 2018-07-10T16:48:23Z (GMT). No. of bitstreams: 1
GRAYCI-MARY GONÇALVES LEAL - DISSERTAÇÃO PPGMAT 2006..pdf: 956853 bytes, checksum: 4fd52ea4cb6e8e47a91cfe0b76a5c4bb (MD5)
Previous issue date: 2006-04 / Capes / Dados envolvendo medidas angulares estão presentes nas mais diversas áreas do
conhecimento. Para analisá-los é necessário utilizar uma teoria estatística específica e
apropriada, diferente da que utilizamos para dados lineares. Particularmente, quando
o interesse for formular, ajustar e fazer diagnósticos em modelos de regressão, uma
vez que, neste contexto, a natureza da variável deve ser considerada. Neste trabalho,
utilizamos os modelos de regressão von Mises para investigar a associação tipo
circular-linear e apresentamos dois resíduos padronizados que foram obtidos a partir
da componente da função desvio e cujas distribuições de probabilidades podem ser
aproximadas pela distribuição normal padrão, definida para dados lineares. / Datainvolvingangulararepresentinthemostdiverseareasofscience. Toanalyze
them is necessary to introduce an appropriate theory and to study specific and appropriate
statistics as well, different from that we use for linear data. When the interest
is to formulate, to adjust and to make diagnostics on regression models, the nature of
the variables must be considered. In this work, we use the von Mises regression models
to investigate the circular-linear association and discuss two standardized residuals defined from the component of the deviance function whose probability distributions can
be approximated by the normal standard distribution defined for linear data.
|
39 |
Segmentação de placas de esclerose múltipla em imagens de ressonância magnética usando modelos de mistura de distribuições t-Student e detecção de outliersFreire, Paulo Guilherme de Lima 15 February 2016 (has links)
Submitted by Livia Mello (liviacmello@yahoo.com.br) on 2016-09-22T11:50:45Z
No. of bitstreams: 1
DissPGLF.pdf: 2510277 bytes, checksum: ac0bc495fe911118e100ddeeaea3b4d9 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-10-10T14:47:09Z (GMT) No. of bitstreams: 1
DissPGLF.pdf: 2510277 bytes, checksum: ac0bc495fe911118e100ddeeaea3b4d9 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-10-10T14:47:16Z (GMT) No. of bitstreams: 1
DissPGLF.pdf: 2510277 bytes, checksum: ac0bc495fe911118e100ddeeaea3b4d9 (MD5) / Made available in DSpace on 2016-10-10T14:47:24Z (GMT). No. of bitstreams: 1
DissPGLF.pdf: 2510277 bytes, checksum: ac0bc495fe911118e100ddeeaea3b4d9 (MD5)
Previous issue date: 2016-02-15 / Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) / Multiple Sclerosis (MS) is an inflammatory demyelinating (that is, with myelin loss) disease of the Central Nervous System (CNS). It is considered an autoimmune disease in which the immune system wrongly recognizes the myelin sheath of the CNS as an external element and attacks it, resulting in inflammation and scarring (sclerosis) of multiple areas of CNS’s white matter. Multi-contrast magnetic resonance imaging (MRI) has been successfully used in diagnosing and monitoring MS due to its excellent properties such as high resolution and good differentiation between soft tissues. Nowadays, the preferred method to segment MS lesions is the manual segmentation, which is done by specialists with limited help of a computer. However, this approach is tiresome, expensive and prone to error due to inter- and intra-variability between observers caused by low contrast on lesion edges. The challenge in automatic detection and segmentation of MS lesions in MR images is related to the variability of size and location of lesions, low contrast due to partial volume effect and the high range of forms that lesions can take depending on the stage of the disease. Recently, many researchers have turned their efforts into developing techniques that aim to accurately measure volumes of brain tissues and MS lesions, and also to reduce the amount of time spent on image analysis. In this context, this project proposes the study and development of an automatic computational technique based on an outlier detection approach, Student’s
t-distribution finite mixture models and probabilistic atlases to segment and measure MS
lesions volumes in MR images. / Esclerose Múltipla (EM) é uma doença inflamatória e desmielinizante (isto é, com perda
de mielina) do sistema nervoso central (SNC). É considerada uma doença autoimune a
qual o sistema imunológico reconhece erroneamente a bainha de mielina do SNC como
um elemento externo e então a ataca, resultando em inflamação e formação de cicatrizes
gliais (escleroses) em múltiplas áreas da substância branca do SNC. O imageamento multi-
contraste por ressonância magnética (RM) tem sido usado clinicamente com muito sucesso
para o diagnóstico e monitoramento da EM devido às suas excelentes propriedades como
alta resolução e boa diferenciação de tecidos moles. Atualmente, o método utilizado para
a segmentação de lesões de EM é o delineamento manual em imagens 3D de RM, o qual é
realizado por especialistas com ajuda limitada do computador. Entretanto, tal procedimento
é custoso e propenso à variabilidade inter e intraobservadores devido ao baixo contraste das
bordas das lesões. A grande dificuldade na detecção e segmentação automáticas das le-
sões de EM em imagens de RM está associada às suas variações no tamanho e localização,
baixo contraste decorrente do efeito de volume parcial e o amplo espectro de aparências
(realçadas, não-realçadas, black-holes) que elas podem ter, dependendo do estado evolutivo
da doença. Atualmente, vários pesquisadores têm voltado seus esforços para o desenvol-
vimento de técnicas que visam diminuir o tempo gasto na análise das imagens e medir, de
maneira mais precisa, o volume dos tecidos cerebrais e das lesões de EM. Nesse contexto,
este projeto propõe o estudo e o desenvolvimento de uma técnica computacional automá-
tica, baseada na abordagem de detecção de outliers e usando modelos de misturas finitas de
distribuições t-Student e atlas probabilísticos para a segmentação e medição do volume de
lesões de EM em imagens de RM. / FAPESP: 2014/00019-6
|
40 |
Predição de mortalidade em cirurgia de coronária e/ou valva no InCor: validação de dois modelos externos e comparação com o modelo desenvolvido localmente (InsCor) / Mortality prediction in coronary bypass surgery and/or heart valve surgery at InCor: Validation of two external risk models and comparison to the locally developed model (InsCor)Omar Asdrubal Vilca Mejia 16 April 2012 (has links)
Objetivo: Novas tendências na avaliação de risco trazem evidências de que modelos externos recalibrados ou remodelados funcionam melhor localmente. O objetivo deste estudo foi validar dois modelos externos e formular um modelo local, comparando-os na predição de mortalidade nos pacientes operados de coronária e/ou valva no InCor-HCFMUSP. Método: Entre 2007 e 2009, 3.000 pacientes foram sequencialmente operados de coronária e/ou valva no InCor-HCFMUSP. No banco de dados, foi realizada a validação dos modelos 2000 Bernstein-Parsonnet (2000BP) e EuroSCORE (ES), mediante testes de calibração e discriminação. O InsCor de 2.000 pacientes foi elaborado mediante a utilização de técnicas de bootstrap. Nos próximos 1.000 pacientes foi realizada a validação interna do modelo, e seu desempenho medido frente ao 2000BP e ES. Resultados: Houve uma diferença significativa na prevalência dos fatores de risco entre as populações do estudo, ES e 2000BP. Na validação externa dos modelos, o ES apresentou uma boa calibração (P=0,596); no entanto, o 2000BP revelou-se inadequado (P=0,047). Na discriminação, a área abaixo da curva ROC revelou-se boa para ambos os modelos, ES (0,79) e 2000BP (0,80). Utilizando a técnica de bootstrap, 10 variáveis: idade >70 anos, sexo feminino, cirurgia associada, infarto do miocárdio <90 dias, reoperação, cirurgia da valva aórtica, cirurgia da valva tricúspide, creatinina <2mg/dl, fração de ejeção <30% e estado pré-operátorio crítico (eventos), foram selecionadas para formulacão do InsCor. Na validação interna do InsCor, a calibração foi adequada, com P=0,184. Na discriminação, a área abaixo da curva ROC foi boa (0,79). Neste grupo, a área abaixo da curva ROC foi de 0,81 e 0,82 para o ES e 2000BP, respectivamente, mostrando-se apropriada para ambos os modelos. Conclusões: O InsCor e o ES tiveram melhor desempenho que o 2000BP em todas as fases da validação; pórem o novo modelo, além de se identificar com os fatores de risco locais, é mais simples e objetivo para a predição de mortalidade nos pacientes operados de coronária e/ou valva no InCor-HCFMUSP / Background: New trends in risk assessment bring evidence that recalibrated or remodeled external models work best locally. The aim of this study was to validate two external models and formulate a local model, comparing them to predict mortality in patients who underwent coronary bypass surgery and/or heart valve surgery at InCor-HCFMUSP. Method Between 2007 and 2009, 3.000 patients were sequentially operated to coronary bypass surgery and/or heart valve surgery at InCor-HCFMUSP. The database was assessment to validate the models 2000 Bernstein-Parsonnet (2000BP) and EuroSCORE (ES) through calibration and discrimination tests. The InsCor of 2,000 patients (2/3 of database) was elaborated using bootstrap techniques. Over the next 1000 patients (1/3 of database) the internal validation of the InsCor was performed and its performance compared against the 2000BP and ES. Results: Significant difference in the prevalence of risk factors was found among the external and study populations (P<0,001). In the external validation of these models, the ES showed good calibration (P = 0.596); however, 2000BP was inadequate (P = 0.047). In discrimination, the area under the ROC curve was good for both models, ES (0.79) and 2000BP (0.80). With the bootstrap technique, 10 variables: age> 70 years, female, CABG + valve surgery, myocardial infarction <90 days, reoperation, aortic valve surgery, tricuspid valve surgery, creatinine <2mg/dl, ejection fraction <30% and critical preoperative state (events) were chosen to formulate the InsCor. In the validation of InsCor, the calibration was appropriate with P = 0.184. In discrimination, the area under the ROC curve was good (0.79). In this group, the area under the ROC curve was 0.81 and 0.82 for ES and 2000BP, respectively, being suitable for both models. Conclusions: The InsCor and ES outperformed the 2000BP at all stages of validation, but the new model, besides identifying itself with the local risk factors, is more simple and objective for the prediction of mortality in patients who underwent coronary bypass surgery and/or heart valve surgery at InCor-HCFMUSP.
|
Page generated in 0.0806 seconds