• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 328
  • 113
  • 91
  • 76
  • 36
  • 24
  • 12
  • 8
  • 7
  • 5
  • 5
  • 5
  • 4
  • 3
  • 2
  • Tagged with
  • 879
  • 879
  • 145
  • 124
  • 121
  • 118
  • 113
  • 102
  • 101
  • 85
  • 82
  • 81
  • 73
  • 71
  • 68
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
581

Sylviculture des forêts hétérogènes de montagne et compromis production-biodiversité : une approche simulation / Management of heterogeneous mountain forests and trade-off between timber production and biodiversity conservation : a simulation study

Lafond, Valentine 10 July 2014 (has links)
Les changements globaux et l'évolution du contexte socio-économique renforcent les attentes vis-à-vis d'une gestion multifonctionnelle des forêts. En France, la communauté forestière s'est accordée sur la définition du double objectif de « produire plus de bois, tout en préservant mieux la biodiversité […]» (Grenelle de l'Environnement, 2007). Cet objectif s'accompagne d'une volonté de maintenir des attributs favorables à la biodiversité d'une part, et de « dynamiser » la sylviculture d'autre part. La comptabilité entre ces mesures est toutefois controversée et il est aujourd'hui nécessaire de mieux comprendre leurs effets sur les services écosystémiques, afin de pouvoir définir les conditions d'une gestion forestière multifonctionnelle et durable.L'objectif de la thèse est d'explorer de manière fine l'effet de la sylviculture sur la structure des peuplements, la production de bois et la préservation de la biodiversité. Le travail s'articule autour de deux hypothèses générales : (1) celle que les indicateurs de ces deux services répondent de manière différente à la gestion; (2) celle qu'une gamme intermédiaire d'intensités de sylviculture est favorable au compromis entre production et biodiversité. Le travail a porté sur le cas des sapinières-pessières irrégulières de montagne, qui présentent une longue tradition de gestion en futaie irrégulière et sont jugées favorables à la fourniture d'un certain nombre de services écosystémiques. Nous avons opté pour une approche par simulation s'appuyant sur le couplage d'un modèle de dynamique forestière, d'algorithmes de sylviculture et de modèles et indicateurs de production et de biodiversité. Le travail de thèse a nécessité la mise en place d'une démarche complète d'expérimentation par simulation impliquant les étapes (i) de formalisation des variables de contrôle et de réponse, (ii) de développement et d'évaluation de modèles, (iii) de définition de plans d'expérience, (iv) d'analyse de sensibilité et (v) d'analyse de la réponse des indicateurs à la gestion. Une analyse complète du modèle Samsara2 nous a permis de vérifier la cohérence des dynamiques forestières simulées et la fiabilité des prédictions. Un algorithme de sylviculture a été développé pour modéliser la gestion en futaie irrégulière de manière fine. Deux modèles de biodiversité ont été implémentés à partir de modèles issus de la littérature : un modèle de stockage et de décomposition du bois mort et un modèle de prédiction de la richesse spécifique de la strate herbacée. Une analyse de sensibilité du système nous a tout d'abord permis d'analyser l'influence des paramètres d'entrée (sylvicoles, démographiques ou état initial) sur un ensemble d'indicateurs de structure, production et biodiversité, puis d'identifier et de fixer les paramètres peu influents. Une approche par régression a ensuite permis d'établir la fonction de réponse (métamodèle) de chaque indicateur aux principaux leviers de gestion, en interaction avec la démographie et l'état initial. Nous avons ainsi observé un effet négatif de l'intensification de la gestion sur la biodiversité, bien que cet effet varie en fonction des indicateurs. Les mesures de conservation de la biodiversité peuvent toutefois servir de leviers de compensation dans certains cas, permettant ainsi de concilier les deux objectifs. Des situations de compromis entre indicateurs de production et/ou biodiversité ont été détectées, mais leur analyse fine nécessite désormais de se tourner vers les méthodes d'analyse multicritère.Ainsi, l'analyse couplée des de la réponse des indicateurs de services écosystémiques à la gestion et des scénarii de gestion situés sur la zone de compromis devrait permettre d'alimenter les échanges avec les gestionnaires forestiers et de discuter des recommandations de gestion à l'échelle de la parcelle ou du massif forestier. / Global change and the evolution of the socio-economic context reinforce the expectations for multifunctional forest management. In France, the forest community agreed on the definition of the double objective of “improving timber production while preserving biodiversity better” (Grenelle 2007). This objective goes along with a will of maintaining the natural attributes favoring biodiversity on one hand, and of increasing management intensity on the other hand. The compatibility between both objectives is however controversial and it seem nowadays necessary to better understand their effects on ecosystem services, so as to enable the definition of multifunctional and sustainable forest management. The objective of this PhD thesis is to explore the effect of silviculture on stand structure, timber production and biodiversity preservation. This works involves two main hypotheses: (1) the fact that ecosystem services indicators present different responses to silvicultural drivers, thus leading to trade-offs situations; (2) the fact that management scenarios of intermediate intensity may enable satisfactory production-biodiversity trade-offs to be reached. This work addressed the case of uneven-aged spruce-fir mountain forests, which present a long tradition of uneven-aged management (selection system) and are judged favorable to the provision of several ecosystem services. We used a simulation approach coupling a forest dynamics simulation model (Samsara2), a silviculture algorithm, and ecosystem services models and indicators (for timber production and biodiversity). This however required a complete simulation experiment approach to be set up, with several steps: (i) formalization of control and response variables, (ii) model development and evaluation, (iii) experiment designs definition, (iv) sensitivity analysis, and (v) study of indicators' response to management. A complete analysis of the Samsara2 model enabled the consistency of simulated forest dynamics and the reliability of predictions to be checked. A silviculture algorithm has been developed to accurately model uneven-aged management. Two biodiversity models have been implemented from the literature: a dead wood decay model and an understory diversity model.A sensitivity analysis of the system first enabled us to assess the influence of input parameters (silviculture, demographic and initial state) on structure, timber production and biodiversity indicators, and then to identify and fix those with low influence. Then, a regression approach enabled the establishment of the response function (metamodels) of each indicator to the main silvicultural factors, in interaction with demography and initial state. This revealed the negative effect of increased management intensity on biodiversity indicators, although its effect depended on the indicator. Biodiversity conservation measures could however be used as compensation drivers in some cases, therefore enabling both objectives to be concealed. Trade-offs situations have also been detected between timber production and/or biodiversity conservation indicators, but their analysis now require specific multi-criteria analysis to be used.The combined analysis of ecosystem services response to silvicultural drivers and of management scenarios located on the trade-offs area would then supply the discussion with forest managers with new elements and enable management recommendations to be discussed at the stand or landscape scale.
582

[en] ALGORITHMS FOR PERFORMING THE COMPUTATION OF GOMORY HU CUT-TREES / [pt] ALGORITMOS PARA ACELERAR A COMPUTAÇÃO DE ÁRVORES DE CORTES DE GOMORY E HU

JOAO PAULO DE FREITAS ARAUJO 19 December 2017 (has links)
[pt] Calcular o valor do fluxo máximo entre um nó origem e um nó destino em uma rede é um problema clássico no contexto de Fluxos em Redes. Sua extensão, chamada de problema do fluxo máximo multiterminal, consiste em achar os valores dos fluxos máximos entre todos os pares de nós de uma rede não direcionada. Estes problemas possuem diversas aplicações, especialmente nos campos de transporte, logística, telecomunicações e energia. Neste trabalho, apreciamos a recente teoria da análise de sensibilidade, em que se estuda a influência da variação de capacidade de arestas nos fluxos máximos multiterminais, e estendemos a computação dinâmica dos fluxos multiterminais para o caso de mais de uma aresta com capacidade variável. Através dessa teoria, relacionamos também nós de corte e fluxos multiterminais, o que permitiu desenvolver um método competitivo para solucionar o problema do fluxo máximo multiterminal, quando a rede possui nós de corte. Os resultados dos experimentos computacionais conduzidos com o método proposto são apresentados e comparados com os de um algoritmo clássico, fazendo uso de instâncias geradas e outras conhecidas da literatura. Por último, aplicamos a teoria apresentada em um problema de identificação de complexos de proteínas em redes de interação proteína-proteína. Através da generalização de um algoritmo e de um resultado teórico sobre exclusão de cortes mínimos, foi possível reduzir o número de cálculos de fluxo máximo necessários para identificar tais complexos. / [en] Computing the maximum flow value between a source and a terminal nodes in a given network is a classic problem in the context of network flows. Its extension, namely the multi-terminal maximum flow problem, consists of finding the maximum flow values between the all pairs of nodes in a given undirected network. These problems have several applications, especially in the fields of transports, logistics, telecommunications and energy. In this work, we study the recent theory of sensitivity analysis, which examines the influence of edges capacity variation on the multi-terminals maximum flows, and we extend the dynamic computation of multi-terminals flows to the case of more than one edge with variable capacity. Based on this theory, we also relate cut nodes and multiterminals flows, allowing us to develop a competitive method to solve the multiterminal maximum flow problem, when the network has cut nodes. The results of the computational experiments conducted with the proposed method are presented and compared with the results of a classical algorithm, using generated and wellknown instances of the literature. Finally, we apply the presented theory on a problem of identifying protein complexes in protein-protein interaction networks. Through the generalization of an algorithm and a theoretical result about exclusion of minimum cuts, it was possible to reduce the number of maximum flow computations necessary to identify such complexes.
583

Second order topological sensitivity analysis / Análise de sensibilidade topológica de segunda ordem

Jairo Rocha de Faria 16 October 2008 (has links)
The topological derivative provides the sensitivity of a given shape functional with respect to an infinitesimal non-smooth domain pertubation (insertion of hole or inclusion, for instance). Classically, this derivative comes from the second term of the topological asymptotic expansion, dealing only with inifinitesimal pertubations. However, for pratical applications, we need to insert pertubations of finite sizes.Therefore, we consider other terms in the expansion, leading to the concept of higher-order topological derivatives. In a particular, we observe that the topological-shape sensitivity method can be naturally extended to calculate these new terms, resulting in a systematic methodology to obtain higher-order topological derivatives. In order to present these ideas, initially we apply this technique in some problems with exact solution, where the topological asymptotic expansion is obtained until third order. Later, we calculate first as well as second order topological derivative for the total potential energy associated to the Laplace equation in two-dimensional domain pertubed with the insertion of a hole, considering homogeneous Neumann or Dirichlet boundary conditions, or an inclusion with thermal conductivity coefficient value different from the bulk material. With these results, we present some numerical experiments showing the influence of the second order topological derivative in the topological asymptotic expansion, which has two main features:it allows us to deal with pertubations of finite sizes and provides a better descent direction in optimization and reconstruction algorithms. / A derivada topológica fornece a sensibilidade de uma dada função custo quando uma pertubação não suave e infinitesimal (furo ou inclusão, por exemplo) é introduzida. Classicamente, esta derivada vem do segundo termo da expansão assintótica topológica considerando-se apenas pertubações infinitesimais. No entanto, em aplicações práticas, é necessário considerar pertubação de tamanho finito. Motivado por este fato, o presente trabalho tem como objetivo fundamental introduzir o conceito de derivadas topológicas de ordem superiores, o que permite considerar mais termos na expansão assintótica topológica. Em particular, observa-se que o topological-shape sensitivity method pode ser naturalmente estendido para o cálculo destes novos termos, resultando em uma metodologia sistemática de análise de sensibilidade topológica de ordem superior. Para se apresentar essas idéias, inicialmente essa técnica é verificada através de alguns problemas que admitem solução exata, onde se calcula explicitamente a expansão assintótica topológica até terceira ordem. Posteriormente, considera-se a equação de Laplace bidimensional, cujo domínio é topologicamente pertubado pela introdução de um furo com condição de contorno de Neumann ou de Dirichlet homogêneas, ou ainda de uma inclusão com propriedade física distinta do meio. Nesse caso, são calculadas explicitamente as derivadas topológicas de primeira e segunda ordens. Com os resultados obtidos em todos os casos, estuda-se a influência dos termos de ordem superiores na expansão assintótica topológica, através de experimentos numéricos. Em particular, observa-se que esses novos termos, além de permitir considerar pertubações de tamanho finito, desempenham ainda um importante papel tanto como fator de correção da expansão assintótica topológica, quanto como direção de descida em processos de otimização. Finalmente, cabe mencionar que a metodologia desenvolvida neste trabalho apresenta um grande potencial para aplicação na otimização e em algoritimos de reconstrução.
584

Investigation on uncertainty and sensitivity analysis of complex systems / Enquête sur l'incertitude et l'analyse de sensibilité des systèmes complexes

Zhu, Yueying 23 October 2017 (has links)
Par un développement en série de Taylor, une relation analytique générale est établie pour calculer l’incertitude de la réponse du modèle, en assumant l'indépendance des entrées. En utilisant des relations de puissances et exponentielles, il est démontré que l’approximation souvent utilisée permet d’évaluer de manière satisfaisante l’incertitude sur la réponse du modèle pourvu que l’incertitude d’entrée soit négligeable ou que le modèle soit presque linéaire. La méthode est appliquée à l’étude d’un réseau de distribution électrique et à un modèle d’ordre économique.La méthode est étendue aux cas où les variables d’entrée sont corrélées. Avec la méthode généralisée, on peux déterminer si les corrélations d'entrée doivent ou non être considérées pour des applications pratiques. Des exemples numériques montrent l'efficacité et la validation de notre méthode dans l'analyse des modèles tant généraux que spécifiques tels que le modèle déterministe du VIH. La méthode est ensuite comparée à celle de Sobol. Les résultats montrent que la méthode de Sobol peut surévaluer l’incidence des divers facteurs, mais sous-estimer ceux de leurs interactions dans le cas d’interactions non linéaires entre les paramètres d’entrée. Une modification est alors introduite, aidant à comprendre la différence entre notre méthode et celle de Sobol. Enfin, un modèle numérique est établi dans le cas d’un jeu virtuel prenant en compte la formation de la dynamique de l'opinion publique. L’analyse théorique à l’aide de la méthode de modification d'un paramètre à la fois. La méthode basée sur l'échantillonnage fournit une analyse globale de l'incertitude et de la sensibilité des observations. / By means of taylor series expansion, a general analytic formula is derived to characterise the uncertaintypropagation from input variables to the model response,in assuming input independence. By using power-lawand exponential functions, it is shown that the widelyused approximation considering only the first ordercontribution of input uncertainty is sufficiently good onlywhen the input uncertainty is negligible or the underlyingmodel is almost linear. This method is then applied to apower grid system and the eoq model.The method is also extended to correlated case. Withthe extended method, it is straightforward to identify theimportance of input correlations in the model response.This allows one to determine whether or not the inputcorrelations should be considered in practicalapplications. Numerical examples suggest theeffectiveness and validation of our method for generalmodels, as well as specific ones such as thedeterministic hiv model.The method is then compared to Sobol’s one which isimplemented with sampling based strategy. Resultsshow that, compared to our method, it may overvaluethe roles of individual input factors but underestimatethose of their interaction effects when there arenonlinear coupling terms of input factors. A modificationis then introduced, helping understand the differencebetween our method and Sobol’s one.Finally, a numerical model is designed based on avirtual gambling mechanism, regarding the formation ofopinion dynamics. Theoretical analysis is proposed bythe use of one-at-a-time method. Sampling-basedmethod provides a global analysis of output uncertaintyand sensitivity.
585

Modelos de regressão com e sem fração de cura para dados bivariados em análise de sobrevivência / Models with and without fraction of cure for bivariate data in survival analysis

Juliana Betini Fachini 19 August 2011 (has links)
Neste trabalho são reunidos diferentes modelos e técnicas para representar situações experimentais ou observacionais de análise de sobrevivência. Para modelar respostas bivariadas e covariáveis foi proposto o modelo de regressão Kumaraswamy-Weibull bivariado. A presen»ca de indivíduos curados foi considerada sob duas diferentes abordagens, originando o modelo de regressão com fração de cura para dados bivariados por meio de cópulas e o modelo de regressão log-linear bivariado com fração de cura. Os parâmetros dos modelos foram esti- mados pelo método de máxima verossimilhança sujeito a restriçãoo nos parâmetros por meio da função barreira adaptada. Adaptou-se uma análise de sensibilidade de forma a considerar as metodologias de Influência Global, Influência Local e Influência Local Total para verificar vários aspectos que envolvem a formulação e ajuste dos modelos propostos. Utilizou-se um conjunto de dados de insuficiência renal e retinopatia diabética são utilizados para exemplificar a aplicação dos modelos propostos. / This work brought together di®erent models and techniques to represent expe- rimental or observational situations in survival analysis. To model bivariate responses and covariates was proposed Kumaraswamy Weibull bivariate regression model. The presence of cured individuals was considered under two di®erent approaches originating the regression model with a cured fraction for bivariate data through copulas and the log-linear bivariate regression model with cured fraction. The parameters of the models were estimated by ma- ximum likelihood method subject to the restriction on the parameters through the adapted barrier function. A sensitivity analysis was adapted considering the methodologies of Global In°uence, Local In°uence and Total Local In°uence to check various aspects of the formulation and adjustment of the models proposed. Data set of renal failure and diabetic retinopathy are used to exemplify the application of the proposed models.
586

Análise de sensibilidade e resíduos em modelos de regressão com respostas bivariadas por meio de cópulas / Bivariate response regression models with copulas: Sensitivity and residual analysis

Eduardo Monteiro de Castro Gomes 01 February 2008 (has links)
Neste trabalho são apresentados modelos de regressão com respostas bivariadas obtidos através de funções cópulas. O objetivo de utilizar estes modelos bivariados é modelar a correlação entre eventos e captar nos modelos de regressão a influência da associação entre as variáveis resposta na presença de censura nos dados. Os parâmetros dos modelos, são estimados por meio dos métodos de máxima verossimilhança e jackknife. Alguns métodos de análise de sensibilidade como influência global, local e local total de um indivíduo, são introduzidos e calculados considerando diferentes esquemas de perturbação. Uma análise de resíduos foi proposta para verificar a qualidade do ajuste dos modelos utilizados e também foi proposta novas medidas de resíduos para respostas bivariadas. Métodos de simulação de Monte Carlo foram conduzidos para estudar a distribuição empírica dos resíduos marginais e bivariados propostos. Finalmente, os resultados são aplicados à dois conjuntos de dados dsponíveis na literatura. / In this work bivariate response regression models are presented with the use of copulas. The objective of this approach is to model the correlation between events and capture the influence of this correlation in the regression parameters. The models are used in the context of survival analysis and are ¯tted to two data sets available in the literature. Inferences are obtained using maximum likelihood and Jackknife methods. Sensitivity techniques such as local and global in°uence are proposed and calculated. A residual analysis is proposed to check the adequacy of the models and simulation methods are used to asses the empirical distribution of the marginal univariate and bivariate residual measures proposed.
587

Contribuição para a teoria termodinamicamente consistente da fratura / Contribution to the thermodynamically consistent theory of fracture

João Augusto de Lima Rocha 12 March 1999 (has links)
Como ponto de partida para a formulação da teoria termodinamicamente consistente da fratura, parte-se das cinco equações globais do balanço termomecânico (massa, momentum linear, momentum angular, energia e entropia), aplicadas ao caso de um sólido dentro do qual superfícies internas regulares podem evoluir, continuamente, com o processo de deformação, simulando fissuras. Faz-se a passagem das equações globais às correspondentes equações locais de balanço, inclusive nos pontos das superfícies de avanço das fissuras, e chega-se ao critério termodinâmico geral de fratura. Fazendo-se uso da noção de energia livre de Helmholtz, particulariza-se o critério para o caso isotérmico. Na seqüência, contando-se com o auxílio da Análise de Sensibilidade à variação de forma, da Otimização Estrutural, aplicada ao caso da fratura, obtém-se o parâmetro termodinâmico de fratura, válido para uma parte arbitrária do sólido contendo uma fissura. Assim, o problema fica reduzido à obtenção do valor de uma integral sobre a fronteira da parte do sólido considerada. O Método dos Elementos de Contorno é utilizado para a obtenção de resultados aproximados desse parâmetro, que é alternativo à integral J de Rice. Conclui-se, com uma proposta de experimento de laboratório, acoplado a um experimento numérico, para o caso de um problema bidimensional. A partir da comparação entre resultados do experimento de laboratório e do correspondente experimento numérico, sugere-se que será possível a calibração de parâmetros associados ao comportamento não linear do material nas proximidades da extremidade de uma fissura. / The construction of a thermodynamically consistent theory of fracture, is here proposed assuming that the five global equations of the thermomechanical balance (mass, linear momentum, angular momentum, energy and entropy), of Continuum Mechanics, are valid in the case of a solid containing flaws, simulating initial cracks. Considering the possibility of crack advances, the passage from global equations to local ones conducted to local balance, also for points taken over the crack advancing surfaces. As consequence, a general thermodynamic fracture criterion is obtained. Then, using the concept of Helmholtz Free Energy, this fracture criterion is particularised to the isothermal case. The Shape Sensitivity Analysis, used as a tool of Fracture Mechanics, conducted to a fracture thermodynamic parameter Gt, whose physical meaning is analogous to the Griffith\'s energy release rate (or the Rice\'s J integral) but that parameter is based on the strain energy instead potential total energy. The Boundary Element Method is used in the construction of a strategy of coupling numerical and experimental tests, viewing the construction of a particular fracture criterion, valid to plane problems. In conclusion, one proposes that this numerical and experimental coupling be adopted for calibration of non-linear models of material behaviours, valid in the neighbouring of crack\'s onset.
588

Simulation and optimization of primary oil and gas processing plant of FPSO operating in pre-salt oil field. / Simulação e otimização de planta de processamento primário de óleo e gás de FPSO operando em campo de petróleo do pré-sal.

Ali Allahyarzadeh Bidgoli 11 September 2018 (has links)
FPSO (Floating, Production, Storage e Offloading) plants, similarly to other oil and gas offshore processing plants, are known to be an energy-intensive process. Thus, any energy consumption and production optimization procedures can be applied to find optimum operating conditions of the unit, saving money and CO2 emissions from oil and gas processing companies. A primary processing plant of a typical FPSO operating in a Brazilian deep-water oil field on pre-salt areas is modeled and simulated using its real operating data. Three operation conditions of the oil field are presented in this research: (i) Maximum oil/gas content (mode 1), (ii) 50% BSW oil content (mode 2) and (iii) high water/CO2 in oil content (mode 3). In addition, an aero-derivative gas turbine (RB211G62 DLE 60Hz) with offshore application is considered for the heat and generation unit using the real performance data. The impact of eight thermodynamic input parameters on fuel consumption and hydrocarbon liquids recovery of the FPSO unit are investigated by the Smoothing Spline ANOVA (SS-ANOVA) method. From SS-ANOVA, the input parameters that presented the highest impact on fuel consumption and hydrocarbon liquids recovery were selected for an optimization procedure. The software Aspen HYSYS is used as the process simulator for the screening analysis process and for the optimization procedure, that consisted of a Hybrid Algorithm (NSGA-II +SQP method). The objective functions used in the optimization were the minimization of fuel consumption of the processing and utility plants and the maximization of hydrocarbon liquids recovery. From SS-ANOVA, the statistical analysis revealed that the most important parameters affecting the fuel consumption of the plant are: (1) output pressure of the first control valve (P1); (2) output pressure of the second stage of the separation train before mixing with dilution water (P2); (3) input pressure of the third stage of separation train (P3); (4) input pressure of dilution water (P4); (5) output pressure of the main gas compressor (Pc); (6) output petroleum temperature in the first heat exchanger (T1); (7) output petroleum temperature in the second heat exchanger (T2); (8) and dilution water temperature (T3). Four input parameters (P1, P2, P3 and Pc), three input parameters (P3, Pc and T2) and three input parameters (P3, Pc and T2) correspond to 96%, 97% and 97% of the total contribution to fuel consumption for modes 1, 2 and 3, respectively. For hydrocarbon liquids recovery of the plant: Four input parameters (P1,P2,P3 and T2), three input parameters (P3, P2 and T2) and three input parameters (P3, P2 and T2) correspond to 95%, 97% and 98% of the total contribution to hydrocarbon liquids recovery for modes 1, 2 and 3, respectively. The results from the optimized case indicated that the minimization of fuel consumption is achieved by increasing the operating pressure in the third stage of the separation train and by decreasing the operating temperature in the second stage of the separation train for all operation modes. There were a reduction in power demand of 6.4% for mode 1, 10% for mode 2 and 2.9% for mode 3, in comparison to the baseline case. Consequently, the fuel consumption of the plant was decreased by 4.46% for mode 1, 8.34% for mode 2 and 2.43% for mode 3 , when compared to the baseline case. Moreover, the optimization found an improvement in the recovery of the volatile components, in comparison with the baseline cases. Furthermore, the optimum operating condition found by the optimization procedure of hydrocarbon liquids recovery presented an increase of 4.36% for mode 1, 3.79% for mode 2 and 1.75% for mode 3 in hydrocarbon liquids recovery (stabilization and saving), when compared to a conventional operating condition of their baseline. / As plantas FPSO (Floating, Production, Storage e Offloading) , assim como outras plataformas de processamento offshore de petróleo e gás, são conhecidas por terem processos com uso intensivo de energia. Portanto, qualquer aplicação de procedimentos de otimização para consumo de energia e/ou produção pode ser útil para encontrar as melhores condições de operação da unidade, reduzindo custos e emissões de CO2 de empresas que atuam na área de petróleo e gás. Uma planta de processamento primário de uma plataforma FPSO típica, operando em um campo de petróleo em águas profundas brasileiras e em áreas do pré-sal, é modelada e simulada usando seus dados operacionais reais: (i) Teor máximo de óleo / gás (modo 1), (ii) 50 % de teor de BSW no óleo (modo 2) e (iii) teor elevado de água / CO2 no óleo (modo 3). Além disso, uma turbina a gás aeroderivativa (RB211G62 DLE 60Hz) para aplicação offshore é considerada para a unidade de geração da potência eletrica e calor, através dos seus dados reais de desempenho. O impacto de oito parâmetros termodinâmicos de entrada no consumo de combustível e na recuperação de hidrocarbonetos líquidos da unidade FPSO são investigados pelo método SS-ANOVA (Smoothing Spline ANOVA). A partir do SS-ANOVA, os parâmetros de entrada que apresentaram o maior impacto no consumo de combustível e na recuperação de hidrocarbonetos líquidos foram selecionados para aplicação em um procedimento de otimização. Os processos de análise da triagem (usando SS-ANOVA) e de otimização, que consiste em um Algoritmo Híbrido (método NSGA-II + SQP), utilizaram o software Aspen HYSYS como simulador de processo. As funções objetivo utilizadas na otimização foram: minimização do consumo de combustível das plantas de processamento e utilidade e a maximização da recuperação de hidrocarbonetos líquidos. Ainda utilizando SS-ANOVA, a análise estatística realizada revelou que os parâmetros mais importantes que afetam o consumo de combustível da planta são: (1) pressão de saída da primeira válvula de controle (P1); (2) pressão de saída do segundo estágio do trem de separação (e antes da mistura com água de diluição) (P2); (3) pressão de entrada do terceiro estágio do trem de separação (P3); (4) pressão de entrada da água de diluição (P4); (5) pressão de saída do compressor principal de gás (Pc); temperatura de saída de petróleo no primeiro trocador de calor (T1); (7) temperatura de saída de petróleo no segundo trocador de calor (T2); e (8) temperatura da água de diluição. Os parâmetros de entrada de P1, P2, P3 e Pc correspondem a 95% da contribuição total para a recuperação de hidrocarbonetos líquidos da planta para os modos 1. Analogamente, os três parâmetros de entrada P3, Pc e T2 correspondem a 97% e 98% do contribuição total para o consumo de combustível para os modos 2 e 3, respectivamente. Para a recuperação de hidrocarbonetos líquidos da plant, os parâmetros de entrada de P1, P2, P3 e T2 correspondem a 96% da contribuição total para o consumo de combustível para o modo 1. Da mesma forma, os três parâmetros de entrada P3, P2 e T2 correspondem a 97% e 97% da contribuição total para a recuperação de hidrocarbonetos líquidos para os modos 2 e 3, respectivamente. Os resultados do caso otimizado indicaram que a minimização do consumo de combustível é obtida aumentando a pressão de operação no terceiro estágio do trem de separação e diminuindo a temperatura de operação no segundo estágio do trem de separação para todos os modos de operação. Houve uma redução na demanda de potência de 6,4% para o modo 1, 10% para o modo 2 e 2,9% para o modo 3, em comparação com o caso base. Consequentemente, o consumo de combustível da planta foi reduzido em 4,46% para o modo 1, 8,34% para o modo 2 e 2,43% para o modo 3, quando comparado com o caso base. Além disso, o procedimento de otimização identificou uma melhora na recuperação dos componentes voláteis, em comparação com os casos baseline. A condição ótima de operação encontrada pelo procedimento para otimização da recuperação de hidrocarbonetos líquidos apresentou um aumento de 4,36% para o modo 1, 3,79% para o modo 2 e 1,75% para modo 3, na recuperação líquida de hidrocarbonetos líquidos (e estabilização), quando comparado com as condições operacionais convencionais das suas baseline.
589

Avaliação integrada de consumo de energia e confiabilidade em rede sensores sem fio usando modelos

DÂMASO, Antônio Vicente Lourenço 16 December 2015 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-07-12T12:58:40Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) avld-tese-2016.pdf: 5797292 bytes, checksum: 0ff6ad41cf04121ad18911a2cc983ef8 (MD5) / Made available in DSpace on 2016-07-12T12:58:40Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) avld-tese-2016.pdf: 5797292 bytes, checksum: 0ff6ad41cf04121ad18911a2cc983ef8 (MD5) Previous issue date: 2015-12-16 / FACEPE / Rede de Sensores Sem Fio (RSSF) é um tipo de rede ad hoc formada tipicamente por centenas de pequenos dispositivos, chamados de nós sensores, os quais cooperam entre si para coletar e enviar informações até um nó sorvedouro. Esses nós sensores possuem recursos limitados de processamento, armazenamento e energia. Geralmente, a RSSF é implantada para coleta de informações em ambientes de difícil acesso, impossibilitando a substituição dos nós sensores caso apresentem alguma falha ou quando a energia acaba. Sendo assim, planejar e estimar o tempo de vida (consumo de energia) e a qualidade do serviço (confiabilidade) de uma RSSF antes de implantá-la são atividades cruciais. Existem duas deficiências quando se observam soluções para o problema mencionado: elas se concentram na avaliação do consumo da aplicação ou apenas da infraestrutura de comunicação( e.g., protocolos de comunicação); e, quando os trabalhos avaliam os dois juntos, eles avaliam ou o consumo de energia ou a confiabilidade, e não ambas. Tais deficiências devem ser resolvidas para se ter um bom planejamento da RSSF. Neste cenário, esta tese propõe uma metodologia para guiar o usuário no desenvolvimento de RSSFs levando em consideração o consumo de energia e a confiabilidade das aplicações e da infraestrutura. A metodologia orienta o usuário no planejamento, codificação, otimização, validação e implantação da RSSF. Com relação à avaliação, a metodologia inclui quatro conjuntos de modelos formais baseados em Coloured Petri Ned (CPN) e em Reliability Block Diagram (RBD) para avaliar o consumo de energia e a confiabilidade, respectivamente. Esses quatro conjuntos de modelos são criados através de um processo de composição usando pequenos modelos reusáveis. Todas as atividades da metodologia são suportadas por um conjunto de ferramentas que automatiza a avaliação das RSSFs. Os modelos CPN e RBD foram validados através de experimentos, comparando os resultados obtidos a medições e dados encontrados na literatura. Uma análise de sensibilidade foi realizada para identificar quais fatores tem maior impacto sobre o consumo de energia e a confiabilidade das RSSFs. As contribuições foram a metodologia, unindo o planejamento da aplicação com da infraestrutura da RSSF e avaliando o consumo de energia e a confiabilidade de forma integrada; os modelos formais baseados nas instâncias da RSSF; o conjunto de ferramentas para suportar a metodologia proposta; e a análise de sensibilidade, que mostrou quais fatores afetam mais o consumo e a confiabilidade da RSSF. / Wireless Sensor Network (WSN) is an ad hoc network typically formed by hundreds of small devices called sensor nodes, which cooperate to collect and send information to a sink node. These sensor nodes have limited processing, storage and energy resources. Generally, the WSN is deployed to collect information in inaccessible environments, making it impossible to replace the sensors if they have any failure or when the energy is over. In this way, planning and estimating the lifetime (power consumption) and quality of service (reliability) of a WSN, considering the application and infrastructure before deploying are crucial activities. There are two deficiencies when looking at solutions for the mentioned problem: they focus on evaluating the power consumption of the application or just the infrastructure of WSN; and, when the studies evaluate both together, either they evaluate power consumption and reliability, not both. These deficiencies should be addressed to enable a good WSN planning. In this scenario, this thesis proposes a methodology to guide the user in the WSNs development, considering the power consumption and reliability of the application and the infrastructure of the WSN. The methodology guides the user in the design, coding, optimization, validation and deployment of a WSN. Regarding the evaluation, the methodology includes four sets of formal models based on Coloured Petri Ned (CPN) and Reliability Block Diagram (RBD) to evaluate the power consumption and reliability of the WSN, respectively. These four models are created by a process of composition using small reusable models. All activities of the methodology are supported by a set of tools that automates the WSN evaluation. CPN and RBD models were validated by experiments, comparing the results obtained by the models with results of the measurements or study in the literature. A sensitivity analysis was performed to identify which factors impact on power consumption and reliability of the WSN using the proposed models. The contributions were the methodology, combining the planning of the application with the WSN infrastructure and evaluating power consumption and reliability in an integrated way; formal models based on WSN instances; the set of tools to support the proposed methodology; and the sensitivity analysis, which showed the factors that most affect the consumption and reliability of WSN.
590

Identification of Availability and Performance Bottlenecks in Cloud Computing Systems: an approach based on hierarchical models and sensitivity analysis.

MATOS JÚNIOR, Rubens de Souza 01 March 2016 (has links)
Submitted by Rafael Santana (rafael.silvasantana@ufpe.br) on 2017-05-04T17:58:30Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) tese_rubens_digital_biblioteca_08092016.pdf: 4506490 bytes, checksum: 251226257a6b659a6ae047e659147a8a (MD5) / Made available in DSpace on 2017-05-04T17:58:30Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) tese_rubens_digital_biblioteca_08092016.pdf: 4506490 bytes, checksum: 251226257a6b659a6ae047e659147a8a (MD5) Previous issue date: 2016-03-01 / CAPES / Cloud computing paradigm is able to reduce costs of acquisition and maintenance of computer systems, and enables the balanced management of resources according to the demand. Hierarchical and composite analytical models are suitable for describing performance and dependability of cloud computing systems in a concise manner, dealing with the huge number of components which constitute such kind of system. That approach uses distinct sub-models for each system level and the measures obtained in each sub-model are integrated to compute the measures for the whole system. Identification of bottlenecks in hierarchical models might be difficult yet, due to the large number of parameters and their distribution among distinct modeling levels and formalisms. This thesis proposes methods for evaluation and detection of bottlenecks of cloud computing systems. The methodology is based on hierarchical modeling and parametric sensitivity analysis techniques tailored for such a scenario. This research introduces methods to build unified sensitivity rankings when distinct modeling formalisms are combined. These methods are embedded in the Mercury software tool, providing an automated sensitivity analysis framework for supporting the process. Distinct case studies helped in testing the methodology, encompassing hardware and software aspects of cloud systems, from basic infrastructure level to applications that are hosted in private clouds. The case studies showed that the proposed approach is helpful for guiding cloud systems designers and administrators in the decision-making process, especially for tune-up and architectural improvements. It is possible to employ the methodology through an optimization algorithm proposed here, called Sensitive GRASP. This algorithm aims at optimizing performance and dependability of computing systems that cannot stand the exploration of all architectural and configuration possibilities to find the best quality of service. This is especially useful for cloud-hosted services and their complex underlying infrastructures. / O paradigma de computação em nuvem é capaz de reduzir os custos de aquisição e manutenção de sistemas computacionais e permitir uma gestão equilibrada dos recursos de acordo com a demanda. Modelos analíticos hierárquicos e compostos são adequados para descrever de forma concisa o desempenho e a confiabilidade de sistemas de computação em nuvem, lidando com o grande número de componentes que constituem esse tipo de sistema. Esta abordagem usa sub-modelos distintos para cada nível do sistema e as medidas obtidas em cada sub-modelo são usadas para calcular as métricas desejadas para o sistema como um todo. A identificação de gargalos em modelos hierárquicos pode ser difícil, no entanto, devido ao grande número de parâmetros e sua distribuição entre os distintos formalismos e níveis de modelagem. Esta tese propõe métodos para a avaliação e detecção de gargalos de sistemas de computação em nuvem. A abordagem baseia-se na modelagem hierárquica e técnicas de análise de sensibilidade paramétrica adaptadas para tal cenário. Esta pesquisa apresenta métodos para construir rankings unificados de sensibilidade quando formalismos de modelagem distintos são combinados. Estes métodos são incorporados no software Mercury, fornecendo uma estrutura automatizada de apoio ao processo. Uma metodologia de suporte a essa abordagem foi proposta e testada ao longo de estudos de casos distintos, abrangendo aspectos de hardware e software de sistemas IaaS (Infraestrutura como um serviço), desde o nível de infraestrutura básica até os aplicativos hospedados em nuvens privadas. Os estudos de caso mostraram que a abordagem proposta é útil para orientar os projetistas e administradores de infraestruturas de nuvem no processo de tomada de decisões, especialmente para ajustes eventuais e melhorias arquiteturais. A metodologia também pode ser aplicada por meio de um algoritmo de otimização proposto aqui, chamado Sensitive GRASP. Este algoritmo tem o objetivo de otimizar o desempenho e a confiabilidade de sistemas em cenários onde não é possível explorar todas as possibilidades arquiteturais e de configuração para encontrar a melhor qualidade de serviço. Isto é especialmente útil para os serviços hospedados na nuvem e suas complexas

Page generated in 0.0636 seconds