• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 31
  • 7
  • 4
  • 2
  • Tagged with
  • 44
  • 24
  • 21
  • 12
  • 12
  • 9
  • 7
  • 7
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Estimador e caracterizador de consumo de energia para software embarcado

Silva, Francisco Coelho da 24 March 2011 (has links)
Made available in DSpace on 2015-04-22T22:00:44Z (GMT). No. of bitstreams: 1 Francisco.pdf: 2605316 bytes, checksum: ee1fad3d9d9e7780947fc166b5909203 (MD5) Previous issue date: 2011-03-24 / The energy consumption in the past years became a very important issue in embedded system projects. The high production and wide application of mobile devices have forced the emergence of various restrictions to this system, such as: weight, size and lifetime of batteries and multiple functionalities. Mobile devices works under limited power source that autonomy and lifetime are directly related to energy consumption of the running applications. These concerns have contributed significantly to include the energy consumption as metric for project quality in embedded systems. The main goal of this work is to propose metrics, estimative and compare the energy consumption of programs code written in ANSI-C language, based on execution time of embedded systems. In order to support the approach it was improved a tool in algorithm level known as PESTI in multiple scenarios. It was written a program in ANSI-C language and loaded in processor of the ARM 7 family s. Then, it was added into this program flags to signalize start and stop in order to measure execution time of each track in analysis. The estimative tool already modified to attribute multiple scenarios, for a program written in ANSI-C and translated into an annotated control flow graph, with tracks assignments of probabilities. This model is probabilistically simulated by using Monte Carlo methodology. The proposed approach was validate carrying out a series of experimental in order to show the viability of the improved tool of estimation and characterization, which together will make the estimates of energy consumption somewhat more feasible.  Validate the proposed approach added;  Compare the results between simulation time and the tool for characterization PESTI with the same hardware platform embedded (ARM7). The experimental were divided in three steps:  Simulation of the code in the tool PESTI in multiple scenarios;  Characterization of the query code;  Comparison of the characterization tool and PESTI. The experiments were conducted on:  AMD Turion (tm) II Dual Core Mobile Processor M500, 2.20GHz, 4Gb of RAM;  OS Linux Mint Distribution kernel 2.6.22 32-bit; 11  OS Windows 7 32-bit. / Consumo de energia nos últimos anos tornou-se um aspecto importante em projetos de sistemas embarcados. A produção e utilização em larga escala dos dispositivos móveis tem imposto várias restrições como: peso, tamanho, tempo de vida útil da bateria e funcionalidades complexas. Dispositivos móveis operam sob uma fonte de energia limitada cuja autonomia e tempo de vida útil estão diretamente relacionados ao consumo de energia das aplicações. Estas questões contribuíram para incluir o consumo de energia como métrica de qualidade no projeto de sistemas embarcados. Este trabalho tem como objetivo propor uma abordagem de medição, estimação e comparação do consumo de energia de código de programas escritos em linguagem ANSI-C, baseados em ensaios de códigos previamente escolhidos com características de consumo de energia e no tempo de execução. Para dar suporte à abordagem, uma ferramenta de estimação chamada PESTI foi estendida para atender múltiplos cenários probabilísticos. Programas escritos em linguagem ANSI-C são embarcados no processador LPC2148 da família ARM 7. Nesse programa são inseridos flags de sinalização para start e stop, para delimitar o tempo de execução e medirmos o consumo de energia do código. Um hardware chamado de caracterizador de consumo de energia auxiliará na medição em tempo real de execução do código. A ferramenta de estimação chamada PESTI com características probabilísticas e atribuições para múltiplos cenários probabilísticos é usada para estimar o consumo de energia do programa escrito em ANSI-C. Validamos a abordagem proposta, executando um conjunto de experimentos mostrando a viabilidade da extensão da ferramenta de estimação e o caracterizador que, em conjunto, viabilizarão as estimativas de consumo de energia no processador alvo. As atividades realizadas para a execução dos experimentos foram:  Validar a abordagem proposta;  Comparar os resultados medidos e estimados entre a ferramenta PESTI com o caracterizador para a mesma plataforma de hardware embarcada (ARM7). Os experimentos foram divididos em três passos:  Estimação dos códigos na ferramenta PESTI em simples e múltiplos cenários;  Caracterização do código em questão;  Comparação da caracterização e ferramenta PESTI. 9 Onde os resultados obtidos mostram uma diferença entre os valores estimados e simulados e os resultados medidos. Os experimentos foram conduzidos sobre:  AMD Turion(tm) II Dual Core Mobile M500, 2.20GHz, 4GB de RAM;  SO Linux Distribuição Mint kernel 2.6.22;  SO de 32 bits Windows 7.
32

Predição de mortalidade em cirurgia de coronária e/ou valva no InCor: validação de dois modelos externos e comparação com o modelo desenvolvido localmente (InsCor) / Mortality prediction in coronary bypass surgery and/or heart valve surgery at InCor: Validation of two external risk models and comparison to the locally developed model (InsCor)

Mejia, Omar Asdrubal Vilca 16 April 2012 (has links)
Objetivo: Novas tendências na avaliação de risco trazem evidências de que modelos externos recalibrados ou remodelados funcionam melhor localmente. O objetivo deste estudo foi validar dois modelos externos e formular um modelo local, comparando-os na predição de mortalidade nos pacientes operados de coronária e/ou valva no InCor-HCFMUSP. Método: Entre 2007 e 2009, 3.000 pacientes foram sequencialmente operados de coronária e/ou valva no InCor-HCFMUSP. No banco de dados, foi realizada a validação dos modelos 2000 Bernstein-Parsonnet (2000BP) e EuroSCORE (ES), mediante testes de calibração e discriminação. O InsCor de 2.000 pacientes foi elaborado mediante a utilização de técnicas de bootstrap. Nos próximos 1.000 pacientes foi realizada a validação interna do modelo, e seu desempenho medido frente ao 2000BP e ES. Resultados: Houve uma diferença significativa na prevalência dos fatores de risco entre as populações do estudo, ES e 2000BP. Na validação externa dos modelos, o ES apresentou uma boa calibração (P=0,596); no entanto, o 2000BP revelou-se inadequado (P=0,047). Na discriminação, a área abaixo da curva ROC revelou-se boa para ambos os modelos, ES (0,79) e 2000BP (0,80). Utilizando a técnica de bootstrap, 10 variáveis: idade >70 anos, sexo feminino, cirurgia associada, infarto do miocárdio <90 dias, reoperação, cirurgia da valva aórtica, cirurgia da valva tricúspide, creatinina <2mg/dl, fração de ejeção <30% e estado pré-operátorio crítico (eventos), foram selecionadas para formulacão do InsCor. Na validação interna do InsCor, a calibração foi adequada, com P=0,184. Na discriminação, a área abaixo da curva ROC foi boa (0,79). Neste grupo, a área abaixo da curva ROC foi de 0,81 e 0,82 para o ES e 2000BP, respectivamente, mostrando-se apropriada para ambos os modelos. Conclusões: O InsCor e o ES tiveram melhor desempenho que o 2000BP em todas as fases da validação; pórem o novo modelo, além de se identificar com os fatores de risco locais, é mais simples e objetivo para a predição de mortalidade nos pacientes operados de coronária e/ou valva no InCor-HCFMUSP / Background: New trends in risk assessment bring evidence that recalibrated or remodeled external models work best locally. The aim of this study was to validate two external models and formulate a local model, comparing them to predict mortality in patients who underwent coronary bypass surgery and/or heart valve surgery at InCor-HCFMUSP. Method Between 2007 and 2009, 3.000 patients were sequentially operated to coronary bypass surgery and/or heart valve surgery at InCor-HCFMUSP. The database was assessment to validate the models 2000 Bernstein-Parsonnet (2000BP) and EuroSCORE (ES) through calibration and discrimination tests. The InsCor of 2,000 patients (2/3 of database) was elaborated using bootstrap techniques. Over the next 1000 patients (1/3 of database) the internal validation of the InsCor was performed and its performance compared against the 2000BP and ES. Results: Significant difference in the prevalence of risk factors was found among the external and study populations (P<0,001). In the external validation of these models, the ES showed good calibration (P = 0.596); however, 2000BP was inadequate (P = 0.047). In discrimination, the area under the ROC curve was good for both models, ES (0.79) and 2000BP (0.80). With the bootstrap technique, 10 variables: age> 70 years, female, CABG + valve surgery, myocardial infarction <90 days, reoperation, aortic valve surgery, tricuspid valve surgery, creatinine <2mg/dl, ejection fraction <30% and critical preoperative state (events) were chosen to formulate the InsCor. In the validation of InsCor, the calibration was appropriate with P = 0.184. In discrimination, the area under the ROC curve was good (0.79). In this group, the area under the ROC curve was 0.81 and 0.82 for ES and 2000BP, respectively, being suitable for both models. Conclusions: The InsCor and ES outperformed the 2000BP at all stages of validation, but the new model, besides identifying itself with the local risk factors, is more simple and objective for the prediction of mortality in patients who underwent coronary bypass surgery and/or heart valve surgery at InCor-HCFMUSP.
33

ANÁLISE PROBABILÍSTICA DA CONFORMIDADE DE TENSÃO EM REDES DE DISTRIBUIÇÃO CONSIDERANDO A PRESENÇA DE GERAÇÃO DISTRIBUÍDA. / Probabilistic analysis of voltage conformity in distribution networks considering distributed generation presence.

VIEIRA, Carlos Henrique da Silva 09 November 2012 (has links)
Submitted by Maria Aparecida (cidazen@gmail.com) on 2017-08-24T15:21:43Z No. of bitstreams: 1 Carlos Henrique.pdf: 3192728 bytes, checksum: b409baf77eae63d413fff22f89c2f1d9 (MD5) / Made available in DSpace on 2017-08-24T15:21:43Z (GMT). No. of bitstreams: 1 Carlos Henrique.pdf: 3192728 bytes, checksum: b409baf77eae63d413fff22f89c2f1d9 (MD5) Previous issue date: 2012-11-09 / FAPEMA / Currently, there is growing concern about the Power Quality (PQ) problems due to: introduction of automation in industrial processes, presence of personal computers and electronically controlled devices, load equipments with low capacity to withstand small PQ disturbances and increased perception of residential and industrial consumers with regard to PQ disturbances. In this context, an important issue with relation to PQ is the voltage conformity. That is, the adequacy of service voltage to the limits specified by regulatory agencies. The concern about compliance is due to the following problems caused by sustained undervoltages and overvoltages: improper or less-efficient equipment operation, tripping of sensitive loads, overheating of induction motors due to undervoltages, equipment damage or failure due to overvoltages and higher no-load losses in transformers caused by sustained overvoltages. Furthermore, there have been various incentives for connection of Distributed Generation (DG) in distribution networks due to: incentives for the using of electricity generation based on renewable energy sources and free access of independent energy producers to transmission and distribution networks owing to deregulation of the electric sector. In principle, the voltage profile of a distribution network can be improved with connection of DG. However, it is possible to notice severe deteriorations in the voltage profile of distribution networks in DG post-failure scenarios. These failures are caused by problems in the DG components, such as: cooling system, gears, turbines, etc. During the time period in which the DG is under repair, active and reactive power supports to correct the voltage profile are unavailable. Consequently, the voltage profile tends to deteriorate while the DG is disconnected. In this way, it is important to carry out studies to assess the impact of the DG installation on the voltage conformity indices considering the following issues: DG unavailability after an intrinsic failure and load curve. These aspects are subject to uncertainties due its random nature. Due to this, the most suitable approaches to assess the impact of uncertainties associated with load fluctuations and DG failures on the voltage conformity indices are the probabilistic methods. The main advantage of these methods is its capability to combine severity and probability to truly express the system risk. The main objective of this dissertation is the development of a method that models the random behavior of the distribution network in the voltage conformity indices estimation through the probabilistic methods. Models and techniques to incorporate stochastic variations in the demand and DG unavailability in voltage conformity indices estimation are proposed. The technique proposed in this dissertation to carry a Predictive Assessment of Voltage Conformity (PAVC) is based on the combination of the following techniques: power flow for radial distribution networks via current summation method, Quasi-Sequential Monte Carlo Simulation and Fourier analysis of time series. The PAVC model proposed in this dissertation was tested in 32 buses system. The results obtained with this system demonstrated that the DG has a great potential to improve the voltage conformity indices in the distribution network. However, the most significant improvements in the voltage conformity indices are associated with load points distant from the substation. Furthermore, it can be observed that the uncertainties associated with DG failures cause significant variations in the voltage conformity indices. Additionally, a sensitivity study demonstrated that the voltage conformity indices are worse (better) for systems where the load is modeled as constant power (impedance). / Atualmente há um interesse crescente com relação a problemas de Qualidade de Energia Elétrica (QEE) devido a: introdução de automação em processos industriais; presença de computadores pessoais e dispositivos controlados eletronicamente em instalações residenciais; equipamentos de carga com baixa capacidade para suportar pequenos distúrbios de qualidade de energia; e aumento da percepção dos consumidores industriais e residenciais com relação a distúrbios de QEE. Neste contexto, um aspecto importante com relação a QEE é a conformidade de tensão da rede de distribuição. Ou seja, a adequação da tensão de atendimento aos limites especificados pelos órgãos reguladores. A preocupação com a conformidade de tensão é devido aos seguintes problemas causados por subtensões e sobretensões sustentadas: operação indevida ou com baixa eficiência dos equipamentos elétricos dos consumidores; desligamento de cargas sensíveis; aquecimento de motores de indução devido à subtensões; danos ou falhas em equipamentos devido à sobretensões e aumento nas perdas em vazio nos transformadores causado pela presença de sobretensões sustentadas. Além disso, tem havido diversos incentivos para conexão de Geração Distribuída (GD) na rede de distribuição devido a: incentivo para utilização de sistemas de geração de energia elétrica baseados em fontes de energia renováveis; e livre acesso dos produtores independentes de energia às redes de transmissão e distribuição devido a desregulamentação do setor elétrico. Em princípio, o perfil de tensão de uma rede de distribuição pode ser melhorado com a conexão da GD. Contudo é possível observar deteriorações severas no perfil de tensão de redes de distribuição em cenários pós-falha da GD. Estas falhas são causadas por problemas nos componentes da GD, tais como: sistema de refrigeração, engrenagens, turbina, etc. Durante o período de tempo em que a GD está em reparo, o suporte de potência ativa e reativa da GD, para corrigir o perfil de tensão, está indisponível. Consequentemente, o perfil de tensão tende a se deteriorar enquanto a GD estiver desconectada. Desta forma, é importante realizar estudos para avaliar o impacto da instalação da GD nos índices de conformidade de tensão considerando os seguintes aspectos: indisponibilidade da GD após uma falha intrínseca e a curva de carga. Estes aspectos estão sujeitos a incertezas devido a sua natureza aleatória. Devido a isto, as técnicas mais adequadas para avaliar o impacto de incertezas associadas com flutuações de carga e falhas na GD nos índices de conformidade de tensão são os métodos probabilísticos. A principal vantagem destes métodos é a sua capacidade para combinar severidade e probabilidade para expressar verdadeiramente o risco do sistema. O principal objetivo desta dissertação é o desenvolvimento de um método que modele o comportamento aleatório da rede de distribuição na estimação dos índices de conformidade de tensão através de métodos probabilísticos. Modelos e técnicas para incorporar variações estocásticas na demanda e a indisponibilidade da GD na estimação dos índices de conformidade de tensão são propostos. A técnica proposta nesta dissertação para realizar uma Avaliação Preditiva da Conformidade de Tensão (APCT) se baseia na combinação das seguintes técnicas: fluxo de potência para redes de distribuição radiais via método de soma de correntes; simulação Monte Carlo Quasi-Sequencial e análise de Fourier de séries temporais. O modelo de APCT proposto neste artigo foi testado em um sistema de 32 barras. Os resultados obtidos neste sistema demonstraram que a GD tem um grande potencial para melhorar os índices de conformidade de tensão na rede de distribuição. Contudo, as melhorias mais significativas nos índices de conformidade estão associadas com os pontos de carga mais distantes da subestação. Além disso, pode-se observar que as incertezas associadas com as falhas na GD causam variações significativas nos índices de conformidade de tensão. Adicionalmente, um estudo de sensibilidade demonstrou que os índices de conformidade de tensão são piores (melhores) para sistemas onde a carga é modelada como potência (impedância) constante.
34

AVALIAÇÃO PROBABILÍSTICA DO IMPACTO DA GERAÇÃO DISTRIBUÍDA EÓLICA NOS AFUNDAMENTOS DE TENSÃO DE CURTA DURAÇÃO. / PROBABILISTIC ASSESSMENT OF THE IMPACT OF DISTRIBUTED GENERATION WIND POWER IN THE SHORT TERM VOLTAGE SAGS .

SILVA, Tiago Alencar 09 November 2012 (has links)
Submitted by Maria Aparecida (cidazen@gmail.com) on 2017-08-29T13:12:16Z No. of bitstreams: 1 Tiago Silva.pdf: 3175763 bytes, checksum: 8eba0f17a1a1f6fa2606a5235969987e (MD5) / Made available in DSpace on 2017-08-29T13:12:16Z (GMT). No. of bitstreams: 1 Tiago Silva.pdf: 3175763 bytes, checksum: 8eba0f17a1a1f6fa2606a5235969987e (MD5) Previous issue date: 2012-11-09 / CNPQ / The Distributed Generation (DG) can improve the power quality indices associated with Short Duration Voltage Variations (SDVV) due to the reduction in the electric network loading, which in turn causes an improvement in the pre-fault voltage profile. On the other hand, the DG can also deteriorates the power quality indices related to SDVV due to the increasing in the fault currents, which in turns reduce the post-fault voltages. Furthermore, the assessment of the DG impact on SDVV is more difficult with the presence of renewable energy resources. This complexity is due to fluctuations in output power caused by stochastic variations in the primary energy source (sun, wind, tide levels, etc.). Additionally, the bibliographical review on Predictive Assessment of Short Duration Voltage Variations (PAVV) revealed that none of the existing methodology considered the impact of fluctuations in the output power of a wind DG on power quality indices related to SDVV. It was also noticed that the load variations during the study period are ignored in the papers on SDVV. The existence of these deficiencies and the governmental incentives for the use of wind generation motivated this research. The main aim of this dissertation is the development of a methodology for the PAVV capable of recognizing uncertainties associated with wind DG and load fluctuations. The modeling of these uncertainties was carried out using NonSequential Monte Carlo Simulation (MCS). The nodal voltages in the fault scenarios generated by MCS were evaluated using the Admittance Summation Method (ASM) in phase coordinates. The combination of the MCS with the ASM allowed estimating the following indices related to SDVV: the expected value of the SARFI (“System Average RMS – Variation – Frequency Index”) and expected nodal frequency of SDVV. Furthermore, the probability distributions and box plots of the SARFI index have been obtained. The proposed method for the PAVV was tested and validated in a test system with 32 buses. The tests results demonstrated that the DG insertion causes an improvement in the power quality indices associated with SDVV. Additionally, the substitution of conventional DG by wind DG cause a small deterioration in the power quality indices related to SDVV due to fluctuations in the output power of the wind DG. Finally, it was observed that the load fluctuations during the study period cause significant variations in the SARFI index. / A Geração Distribuída (GD) pode melhorar os índices de qualidade de energia associados com as Variações de Tensão de Curta Duração (VTCD) devido a redução no carregamento da rede elétrica, que por sua vez causa uma melhoria no perfil de tensão pré- falta. Por outro lado, a GD também pode degradar os índices de qualidade de energia associados com VTCD devido ao aumento nas correntes de falta, que por sua vez reduzem as tensões pós-falta. Além disso, a avaliação do impacto da DG sobre VTCD é mais difícil com a presença de fontes de energia renováveis. Esta complexidade se deve as flutuações na potência de saída causadas pelas variações estocásticas na fonte de energia primária (sol, vento, níveis de maré, etc.). Adicionalmente, a revisão bibliográfica realizada sobre Avaliação Preditiva de VTCD (APVT) revelou que nenhuma metodologia existente considerou o impacto de flutuações na potência de saída de geradores eólicos nos índices de qualidade referentes às VTCD. Também foi observado que flutuações de carga ao longo do período de estudo são desconsideradas nos artigos sobre APVT. A existência destas deficiências nos métodos de APVT e os incentivos governamentais para o uso de geração eólica motivaram esta pesquisa. O principal objetivo desta dissertação é o desenvolvimento de uma metodologia para a APVT capaz de reconhecer as incertezas associadas com a GD eólica e flutuações de carga. A modelagem destas incertezas na APVT foi realizada através do uso da Simulação Monte Carlo (SMC) não-sequencial. As tensões nodais nos cenários de falta gerados pela Simulação Monte Carlo (SMC) foram calculadas usando-se o Método de Soma de Admitância (MSA) em coordenadas de fase. A combinação da SMC com o MSA permitiu estimar os seguintes índices probabilísticos relacionados com as VTCD: valor esperado do SARFI (“System Average RMS – Variation – Frequency Index”) e frequência nodal esperada de VTCD. Além disso, foram obtidas distribuições de probabilidade e diagramas de caixa associados com o SARFI. O método proposto nesta dissertação para a APVT foi testado em uma rede de distribuição de 32 barras. Os resultados dos testes mostram que a inserção de GD causa uma melhoria nos índices de qualidade associados com as VTCD. Adicionalmente, a substituição de GD convencional por GD eólica causa uma pequena deterioração nos índices de qualidade referentes às VTCD devido as flutuações na potência de saída da GD eólica. Finalmente, também foi observado que as flutuações na carga ao longo do período de estudo causam variações significativas no índice SARFI.
35

O discurso sobre os conceitos probabilísticos para a escola básica

Goulart, Amari 12 November 2007 (has links)
Made available in DSpace on 2016-04-27T16:58:30Z (GMT). No. of bitstreams: 1 Amauri Goulart.pdf: 670408 bytes, checksum: dae29241a04ef753da9d8f215e0f1f44 (MD5) Previous issue date: 2007-11-12 / Secretaria da Educação do Estado de São Paulo / The object of our research was to analyze the official speech of the probability concepts in the Basic School and to verify if this speech gives to the teacher instruments to work with these concepts, so that the students can learn these concepts in a significative way. So we analyzed the PCN, PCN+, and the Curricular Orientations for Middle School and referred questions of probability on the ENEM tests from 1998 to 2007, by the Customary Organization of Yves Chevallard (1995), that gave us conditions to identify the objectives, suggestions of contents, methods of work and criteria of evaluation in official documents, and to identify the theoretician-technological tasks, techniques and speeches, present in the questions of the ENEM. The results had been compared with some research produced in the scope of the Mathematical Education that approaches the education and the learning of probability concepts. In general way, the analysis of the information gotten, allow us to conclude that the official documents didn t give aid to the teacher and that the ENEM, in certain way, is responsible for supplying these aiding elements / Nossa pesquisa teve como objetivo analisar o discurso institucional dos conceitos probabilísticos na Escola Básica e verificar se esse discurso instrumentaliza o professor para que ele trabalhe com esses conceitos, de forma que, os alunos aprendam esse conceito de forma significativa. Para isso analisamos os PCN, os PCN+, Orientações Curriculares para o Ensino Médio e as questões referentes à probabilidade do ENEM de 1998 a 2007, por meio da Organização Praxeológica de Yves Chevallard (1995), o que nos deu condições de identificar os objetivos, sugestões de conteúdos, métodos de trabalho e critérios de avaliação nos documentos oficiais, e a identificar as tarefas, as técnicas e os discursos teórico-tecnológicos, presentes nas questões do ENEM. Os resultados foram comparados com algumas pesquisas produzidas no âmbito da Educação Matemática que abordam o ensino e a aprendizagem de conceitos probabilísticos. De modo geral, a análise das informações obtidas permite-nos concluir que os documentos oficiais não instrumentalizam o professor e que o ENEM, de certa maneira, é responsável por fornecer elementos para essa instrumentalização
36

Analysis and Simulation of Transverse Random Fracture of Long Fibre Reinforced Composites

Trias Mansilla, Daniel 18 April 2005 (has links)
La present tesi proposa una metodología per a la simulació probabilística de la fallada de la matriu en materials compòsits reforçats amb fibres de carboni, basant-se en l'anàlisi de la distribució aleatòria de les fibres. En els primers capítols es revisa l'estat de l'art sobre modelització matemàtica de materials aleatoris, càlcul de propietats efectives i criteris de fallada transversal en materials compòsits.El primer pas en la metodologia proposada és la definició de la determinació del tamany mínim d'un Element de Volum Representatiu Estadístic (SRVE) . Aquesta determinació es du a terme analitzant el volum de fibra, les propietats elàstiques efectives, la condició de Hill, els estadístics de les components de tensió i defromació, la funció de densitat de probabilitat i les funcions estadístiques de distància entre fibres de models d'elements de la microestructura, de diferent tamany. Un cop s'ha determinat aquest tamany mínim, es comparen un model periòdic i un model aleatori, per constatar la magnitud de les diferències que s'hi observen.Es defineix, també, una metodologia per a l'anàlisi estadístic de la distribució de la fibra en el compòsit, a partir d'imatges digitals de la secció transversal. Aquest anàlisi s'aplica a quatre materials diferents.Finalment, es proposa un mètode computacional de dues escales per a simular la fallada transversal de làmines unidireccionals, que permet obtenir funcions de densitat de probabilitat per a les variables mecàniques. Es descriuen algunes aplicacions i possibilitats d'aquest mètode i es comparen els resultats obtinguts de la simulació amb valors experimentals. / This thesis proposes a methodology for the probabilistic simulation of the transverse failure of Carbon Fibre Reinforced Polymers (CFRP) by analyzing the random distribution of the fibres within the composite. First chapters are devoted to the State-of-the-art review on the modelization of random materials, the computation of effective properties and the transverse failure of fibre reinforced polymers.The first step in the proposed methodology is the definition of a Statistical Representative Volume Element (SRVE). This SRVE has to satisfy criteria based on the analysis of the volume fraction, the effective properties, the Hill Condition, the statistics of the stress and strain components, the probability density function of the stress and strain components and the inter-fibre distance statistical distributions. Once this SRVE has been achieved, a comparison between a periodic model and a random model is performed to quantitatively analyze the differences between the results they provide.Also a methodology for the statistical analysis of the distribution of the fibre within the composite from digital images of the transverse section. This analysis is performed for four different materials.Finally, a two-scale computational method for the transverse failure of unidirectional laminae is proposed. This method is able to provide probability density functions of the mechanical variables in the composite. Some applications and possibilities of the method are given and the simulation results are compared with experimental tests.
37

Aplicação de modelos gráficos probabilísticos computacionais em economia

Colla, Ernesto Coutinho 29 June 2009 (has links)
Made available in DSpace on 2010-04-20T20:56:57Z (GMT). No. of bitstreams: 4 Ernesto_Colla.pdf.jpg: 21014 bytes, checksum: 4f059b37f39662752479b4c41e7d0ccd (MD5) Ernesto_Colla.pdf.txt: 293178 bytes, checksum: bbca88752988b32a6da9e503e9fbe5cf (MD5) license.txt: 4810 bytes, checksum: 4ca799e651215ccf5ee1c07a835ee897 (MD5) Ernesto_Colla.pdf: 1784465 bytes, checksum: 7c45a00d36db536ce2c8e1eff4a23b6b (MD5) Previous issue date: 2009-06-29T00:00:00Z / We develop a probabilistic model using Machine Learning tools to classify the trend of the Brazilian country risk expressed EMBI+ (Emerging Markets Bond Index Plus). The main goal is verify if Machine Learning is useful to build economic models which could be used as reasoning tools under uncertainty. Specifically we use Bayesian Networks to perform pattern recognition in observed macroeconomics and financial data. The results are promising. We get the main expected theoretical relationship between country risk and economic variables, as well as international economic context and market expectations. / O objetivo deste trabalho é testar a aplicação de um modelo gráfico probabilístico, denominado genericamente de Redes Bayesianas, para desenvolver modelos computacionais que possam ser utilizados para auxiliar a compreensão de problemas e/ou na previsão de variáveis de natureza econômica. Com este propósito, escolheu-se um problema amplamente abordado na literatura e comparou-se os resultados teóricos e experimentais já consolidados com os obtidos utilizando a técnica proposta. Para tanto,foi construído um modelo para a classificação da tendência do 'risco país' para o Brasil a partir de uma base de dados composta por variáveis macroeconômicas e financeiras. Como medida do risco adotou-se o EMBI+ (Emerging Markets Bond Index Plus), por ser um indicador amplamente utilizado pelo mercado.
38

Análise de resíduos em modelos de regressão von Mises. / Analysis of residues in von Mises regression models.

LEAL, Grayci-Mary Gonçalves. 10 July 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-07-10T16:48:23Z No. of bitstreams: 1 GRAYCI-MARY GONÇALVES LEAL - DISSERTAÇÃO PPGMAT 2006..pdf: 956853 bytes, checksum: 4fd52ea4cb6e8e47a91cfe0b76a5c4bb (MD5) / Made available in DSpace on 2018-07-10T16:48:23Z (GMT). No. of bitstreams: 1 GRAYCI-MARY GONÇALVES LEAL - DISSERTAÇÃO PPGMAT 2006..pdf: 956853 bytes, checksum: 4fd52ea4cb6e8e47a91cfe0b76a5c4bb (MD5) Previous issue date: 2006-04 / Capes / Dados envolvendo medidas angulares estão presentes nas mais diversas áreas do conhecimento. Para analisá-los é necessário utilizar uma teoria estatística específica e apropriada, diferente da que utilizamos para dados lineares. Particularmente, quando o interesse for formular, ajustar e fazer diagnósticos em modelos de regressão, uma vez que, neste contexto, a natureza da variável deve ser considerada. Neste trabalho, utilizamos os modelos de regressão von Mises para investigar a associação tipo circular-linear e apresentamos dois resíduos padronizados que foram obtidos a partir da componente da função desvio e cujas distribuições de probabilidades podem ser aproximadas pela distribuição normal padrão, definida para dados lineares. / Datainvolvingangulararepresentinthemostdiverseareasofscience. Toanalyze them is necessary to introduce an appropriate theory and to study specific and appropriate statistics as well, different from that we use for linear data. When the interest is to formulate, to adjust and to make diagnostics on regression models, the nature of the variables must be considered. In this work, we use the von Mises regression models to investigate the circular-linear association and discuss two standardized residuals defined from the component of the deviance function whose probability distributions can be approximated by the normal standard distribution defined for linear data.
39

Segmentação de placas de esclerose múltipla em imagens de ressonância magnética usando modelos de mistura de distribuições t-Student e detecção de outliers

Freire, Paulo Guilherme de Lima 15 February 2016 (has links)
Submitted by Livia Mello (liviacmello@yahoo.com.br) on 2016-09-22T11:50:45Z No. of bitstreams: 1 DissPGLF.pdf: 2510277 bytes, checksum: ac0bc495fe911118e100ddeeaea3b4d9 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-10-10T14:47:09Z (GMT) No. of bitstreams: 1 DissPGLF.pdf: 2510277 bytes, checksum: ac0bc495fe911118e100ddeeaea3b4d9 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-10-10T14:47:16Z (GMT) No. of bitstreams: 1 DissPGLF.pdf: 2510277 bytes, checksum: ac0bc495fe911118e100ddeeaea3b4d9 (MD5) / Made available in DSpace on 2016-10-10T14:47:24Z (GMT). No. of bitstreams: 1 DissPGLF.pdf: 2510277 bytes, checksum: ac0bc495fe911118e100ddeeaea3b4d9 (MD5) Previous issue date: 2016-02-15 / Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) / Multiple Sclerosis (MS) is an inflammatory demyelinating (that is, with myelin loss) disease of the Central Nervous System (CNS). It is considered an autoimmune disease in which the immune system wrongly recognizes the myelin sheath of the CNS as an external element and attacks it, resulting in inflammation and scarring (sclerosis) of multiple areas of CNS’s white matter. Multi-contrast magnetic resonance imaging (MRI) has been successfully used in diagnosing and monitoring MS due to its excellent properties such as high resolution and good differentiation between soft tissues. Nowadays, the preferred method to segment MS lesions is the manual segmentation, which is done by specialists with limited help of a computer. However, this approach is tiresome, expensive and prone to error due to inter- and intra-variability between observers caused by low contrast on lesion edges. The challenge in automatic detection and segmentation of MS lesions in MR images is related to the variability of size and location of lesions, low contrast due to partial volume effect and the high range of forms that lesions can take depending on the stage of the disease. Recently, many researchers have turned their efforts into developing techniques that aim to accurately measure volumes of brain tissues and MS lesions, and also to reduce the amount of time spent on image analysis. In this context, this project proposes the study and development of an automatic computational technique based on an outlier detection approach, Student’s t-distribution finite mixture models and probabilistic atlases to segment and measure MS lesions volumes in MR images. / Esclerose Múltipla (EM) é uma doença inflamatória e desmielinizante (isto é, com perda de mielina) do sistema nervoso central (SNC). É considerada uma doença autoimune a qual o sistema imunológico reconhece erroneamente a bainha de mielina do SNC como um elemento externo e então a ataca, resultando em inflamação e formação de cicatrizes gliais (escleroses) em múltiplas áreas da substância branca do SNC. O imageamento multi- contraste por ressonância magnética (RM) tem sido usado clinicamente com muito sucesso para o diagnóstico e monitoramento da EM devido às suas excelentes propriedades como alta resolução e boa diferenciação de tecidos moles. Atualmente, o método utilizado para a segmentação de lesões de EM é o delineamento manual em imagens 3D de RM, o qual é realizado por especialistas com ajuda limitada do computador. Entretanto, tal procedimento é custoso e propenso à variabilidade inter e intraobservadores devido ao baixo contraste das bordas das lesões. A grande dificuldade na detecção e segmentação automáticas das le- sões de EM em imagens de RM está associada às suas variações no tamanho e localização, baixo contraste decorrente do efeito de volume parcial e o amplo espectro de aparências (realçadas, não-realçadas, black-holes) que elas podem ter, dependendo do estado evolutivo da doença. Atualmente, vários pesquisadores têm voltado seus esforços para o desenvol- vimento de técnicas que visam diminuir o tempo gasto na análise das imagens e medir, de maneira mais precisa, o volume dos tecidos cerebrais e das lesões de EM. Nesse contexto, este projeto propõe o estudo e o desenvolvimento de uma técnica computacional automá- tica, baseada na abordagem de detecção de outliers e usando modelos de misturas finitas de distribuições t-Student e atlas probabilísticos para a segmentação e medição do volume de lesões de EM em imagens de RM. / FAPESP: 2014/00019-6
40

Predição de mortalidade em cirurgia de coronária e/ou valva no InCor: validação de dois modelos externos e comparação com o modelo desenvolvido localmente (InsCor) / Mortality prediction in coronary bypass surgery and/or heart valve surgery at InCor: Validation of two external risk models and comparison to the locally developed model (InsCor)

Omar Asdrubal Vilca Mejia 16 April 2012 (has links)
Objetivo: Novas tendências na avaliação de risco trazem evidências de que modelos externos recalibrados ou remodelados funcionam melhor localmente. O objetivo deste estudo foi validar dois modelos externos e formular um modelo local, comparando-os na predição de mortalidade nos pacientes operados de coronária e/ou valva no InCor-HCFMUSP. Método: Entre 2007 e 2009, 3.000 pacientes foram sequencialmente operados de coronária e/ou valva no InCor-HCFMUSP. No banco de dados, foi realizada a validação dos modelos 2000 Bernstein-Parsonnet (2000BP) e EuroSCORE (ES), mediante testes de calibração e discriminação. O InsCor de 2.000 pacientes foi elaborado mediante a utilização de técnicas de bootstrap. Nos próximos 1.000 pacientes foi realizada a validação interna do modelo, e seu desempenho medido frente ao 2000BP e ES. Resultados: Houve uma diferença significativa na prevalência dos fatores de risco entre as populações do estudo, ES e 2000BP. Na validação externa dos modelos, o ES apresentou uma boa calibração (P=0,596); no entanto, o 2000BP revelou-se inadequado (P=0,047). Na discriminação, a área abaixo da curva ROC revelou-se boa para ambos os modelos, ES (0,79) e 2000BP (0,80). Utilizando a técnica de bootstrap, 10 variáveis: idade >70 anos, sexo feminino, cirurgia associada, infarto do miocárdio <90 dias, reoperação, cirurgia da valva aórtica, cirurgia da valva tricúspide, creatinina <2mg/dl, fração de ejeção <30% e estado pré-operátorio crítico (eventos), foram selecionadas para formulacão do InsCor. Na validação interna do InsCor, a calibração foi adequada, com P=0,184. Na discriminação, a área abaixo da curva ROC foi boa (0,79). Neste grupo, a área abaixo da curva ROC foi de 0,81 e 0,82 para o ES e 2000BP, respectivamente, mostrando-se apropriada para ambos os modelos. Conclusões: O InsCor e o ES tiveram melhor desempenho que o 2000BP em todas as fases da validação; pórem o novo modelo, além de se identificar com os fatores de risco locais, é mais simples e objetivo para a predição de mortalidade nos pacientes operados de coronária e/ou valva no InCor-HCFMUSP / Background: New trends in risk assessment bring evidence that recalibrated or remodeled external models work best locally. The aim of this study was to validate two external models and formulate a local model, comparing them to predict mortality in patients who underwent coronary bypass surgery and/or heart valve surgery at InCor-HCFMUSP. Method Between 2007 and 2009, 3.000 patients were sequentially operated to coronary bypass surgery and/or heart valve surgery at InCor-HCFMUSP. The database was assessment to validate the models 2000 Bernstein-Parsonnet (2000BP) and EuroSCORE (ES) through calibration and discrimination tests. The InsCor of 2,000 patients (2/3 of database) was elaborated using bootstrap techniques. Over the next 1000 patients (1/3 of database) the internal validation of the InsCor was performed and its performance compared against the 2000BP and ES. Results: Significant difference in the prevalence of risk factors was found among the external and study populations (P<0,001). In the external validation of these models, the ES showed good calibration (P = 0.596); however, 2000BP was inadequate (P = 0.047). In discrimination, the area under the ROC curve was good for both models, ES (0.79) and 2000BP (0.80). With the bootstrap technique, 10 variables: age> 70 years, female, CABG + valve surgery, myocardial infarction <90 days, reoperation, aortic valve surgery, tricuspid valve surgery, creatinine <2mg/dl, ejection fraction <30% and critical preoperative state (events) were chosen to formulate the InsCor. In the validation of InsCor, the calibration was appropriate with P = 0.184. In discrimination, the area under the ROC curve was good (0.79). In this group, the area under the ROC curve was 0.81 and 0.82 for ES and 2000BP, respectively, being suitable for both models. Conclusions: The InsCor and ES outperformed the 2000BP at all stages of validation, but the new model, besides identifying itself with the local risk factors, is more simple and objective for the prediction of mortality in patients who underwent coronary bypass surgery and/or heart valve surgery at InCor-HCFMUSP.

Page generated in 0.0548 seconds