• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 2
  • 1
  • Tagged with
  • 11
  • 11
  • 8
  • 5
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modelos analíticos para efeitos de canal curto em transistores de porta dupla simétricos e assimétricos/

Nascimento, A. S. January 2016 (has links)
Tese (Doutorado em Engenharia Elétrica) - Centro Universitário FEI, São Bernardo do Campo, 2016.
2

Modelagem analítica do perfil de temperatura no solo. / Analytical soil-temperature model.

Elias, Elimoel Abrão 08 July 2004 (has links)
A temperatura do solo influencia a maioria dos processos físicos, químicos e biológicos que ocorrem no solo. O modelo analítico exponencial-senoidal em uma dimensão descreve razoavelmente bem a temperatura no solo, T (oC), como função do tempo, t (s), e da profundidade, z (m), 0 &#8804; z < &#8734;. A temperatura da superfície pode ser representada pela soma de duas senóides, uma relacionada com variações de temperatura anuais, outra com variações diárias, cada uma tendo uma amplitude constante. Uma correção para a variação temporal de amplitude diária é aqui introduzida. A equação do calor é resolvida analiticamente, com pouco aumento em complexidade em relação à solução tradicional. Predições de temperatura obtidas pela nova solução analítica foram comparadas com predições obtidas da solução usual, que trata a amplitude diária como constante. Para comparar as predições, foram necessários valores experimentais de certos parâmetros que aparecem nestas equações; foi suficiente usar valores típicos, obtidos na literatura. Predições são comparadas utilizando quatro conceitos: (i) profundidade de amortecimento, D; (ii) profundidade de penetração, zM; (iii) erro quadrático médio (EQM); e (iv) erro quadrático médio na forma de uma integral (EQMI). O conceito de zM foi aqui introduzido, acompanhado por uma equação simples que permite calcular qual é a profundidade zm tal que, se temperatura T(zM,t) for aproximada como Ta (valor médio da temperatura ao longo do ano, em zM), o erro em tal aproximação será igual ou menor um certo valor previamente definido, por exemplo, de 0,1 oC. O conceito de EQMI, também introduzido nesta tese, substitui o somatório que aparece no EQM por uma integral definida, e serve para comparar dois modelos analíticos, o que era o caso desta tese. Valores de D e zM mostram que a correção é desprezível para z > 0,6 m. Valores de EQM mostram que a correção é considerável para z = 0,1 m. Nesta profundidade, o valor máximo foi EQM = 0.30 oC para dias inteiros, e EQM = 0.29 oC para meses inteiros. Valores de EQMI foram praticamente iguais aos valores de EQM. Para qualquer profundidade a correção introduzida, ainda que considerável, é pequena. Entretanto, a única informação adicional requerida para aplicar a equação nova é a informação de variação temporal da amplitude diária. Desta forma, pode-se sugerir que a nova equação seja preferida, quando esta informação esteja facilmente disponível a partir de dados experimentais. / Soil temperature influences many physical, chemical and biological processes that occur in soil. The exponential-sinusoidal one-dimensional analytical model reasonably describes soil temperature, T (oC), as a function of time, t (s), and depth, z (m), 0 &#8804; z < &#8734;. Surface temperature may be represented by the sum of two sinusoids, one related to annual and the other to daily temperature variations, each one having constant amplitude. A correction for the temporal variation of daily amplitude is introduced here. The heat equation is solved analytically, with minimal increase in complexity compared to the traditional solution. Temperature predictions obtained from the novel analytical solution are compared with predictions from the usual solution that treats the daily amplitude as a constant. Comparisons demanded experimental parameters, which were obtained from scientific literature. Predictions are compared using four concepts: (i) damping depth, D; (ii) penetration depth, zM; (iii) root mean squared error (RMSE); and (iv) root mean squared error defined by a definite integral (RMSEI). The concept of zM was introduced here, through a simple equation, which allows calculation of the depth zm, at which T(zM,t) can be approximated to Ta (average annual value of soil temperature at zM). The concept of RMSEI was also introduced here, and replaces a sum by a definite integral. The RMSEI can be used to compare analytical models, as it was the case here. Values of D and zM show that the correction is negligible for z > 0,6 m. Values of RMSE show that the correction is considerable for z = 0,1 m. For individual days, at a depth z = 0,1 m, the maximum value was RMSE = 0.30 oC; for whole months, the maximum value was RMSE = 0.29 oC. RMSEI values were practically the same as RMSE values. The correction introduced here was small at all depths. However, the only additional information required to apply the novel equation is information on temporal variation of daily amplitude, so this equation should be preferred when such data are readily available.
3

Desenvolvimento de Um Modelo Térmico Mecânico de Uma Mola Helicoidal de Ni-ti Com Efeito Memória de Forma Para Aplicação Numa Máquina de Calor

Monteiro, Luciana Lima 03 February 2012 (has links)
Submitted by Eduarda Figueiredo (eduarda.ffigueiredo@ufpe.br) on 2015-03-10T13:17:17Z No. of bitstreams: 2 Tese Versão Final.pdf: 2634141 bytes, checksum: 3be0eec58e6affaff38af3b69dafd885 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-10T13:17:17Z (GMT). No. of bitstreams: 2 Tese Versão Final.pdf: 2634141 bytes, checksum: 3be0eec58e6affaff38af3b69dafd885 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2012-02-03 / As ligas com memória de forma são materiais metálicos que exibem propriedades termoelásticas muito originais: Efeito da Memória de Forma e Pseudoelasticidade (superelasticidade e efeito tipo borracha). Estas ligas estão cada vez mais despertando interesse e reconhecimento nos últimos anos. Isto se deve a sua principal característica de retomar uma forma ou tamanho previamente definidos, quando submetidos a um ciclo térmico apropriado. O objetivo principal deste trabalho é o desenvolvimento de um modelo térmico e mecânico do comportamento de uma mola helicoidal de Ni-Ti com Efeito Memória de Forma (EMF) para ser empregada em um novo modelo de uma máquina de calor funcional. Esta máquina de calor é acionada por uma mola de Ni-Ti que funciona entre uma fonte quente (373 K) e uma fonte fria (273 K). Para obtenção da mola utilizou-se um arame de Ni-Ti de 2,2mm de diâmetro. Para esta mola de Ni-Ti obter o efeito memória de forma reversível foi necessário submetê-la a um treinamento, já que acontece quando a mudança de forma é promovida apenas pela variação de temperatura. Um projeto mecânico desta máquina foi construído para determinação das forças dissipativas geradas pela mola. Foram desenvolvidas as equações de calor e as equações da dinâmica que descrevem o comportamento da mola. Através das equações da dinâmica desenvolvidas pode-se determinar a massa mínima para o movimento da máquina, bem como a potência instantânea e média e o rendimento global. Pode-se verificar a funcionalidade da máquina através de uma relação do ângulo de inclinação da hélice e o coeficiente de atrito estático. Dentre os principais resultados foi observado que o rendimento global da máquina, comparado ao das máquinas desta categoria mostrou a viabilidade do projeto.
4

Modelagem analítica do perfil de temperatura no solo. / Analytical soil-temperature model.

Elimoel Abrão Elias 08 July 2004 (has links)
A temperatura do solo influencia a maioria dos processos físicos, químicos e biológicos que ocorrem no solo. O modelo analítico exponencial-senoidal em uma dimensão descreve razoavelmente bem a temperatura no solo, T (oC), como função do tempo, t (s), e da profundidade, z (m), 0 &#8804; z < &#8734;. A temperatura da superfície pode ser representada pela soma de duas senóides, uma relacionada com variações de temperatura anuais, outra com variações diárias, cada uma tendo uma amplitude constante. Uma correção para a variação temporal de amplitude diária é aqui introduzida. A equação do calor é resolvida analiticamente, com pouco aumento em complexidade em relação à solução tradicional. Predições de temperatura obtidas pela nova solução analítica foram comparadas com predições obtidas da solução usual, que trata a amplitude diária como constante. Para comparar as predições, foram necessários valores experimentais de certos parâmetros que aparecem nestas equações; foi suficiente usar valores típicos, obtidos na literatura. Predições são comparadas utilizando quatro conceitos: (i) profundidade de amortecimento, D; (ii) profundidade de penetração, zM; (iii) erro quadrático médio (EQM); e (iv) erro quadrático médio na forma de uma integral (EQMI). O conceito de zM foi aqui introduzido, acompanhado por uma equação simples que permite calcular qual é a profundidade zm tal que, se temperatura T(zM,t) for aproximada como Ta (valor médio da temperatura ao longo do ano, em zM), o erro em tal aproximação será igual ou menor um certo valor previamente definido, por exemplo, de 0,1 oC. O conceito de EQMI, também introduzido nesta tese, substitui o somatório que aparece no EQM por uma integral definida, e serve para comparar dois modelos analíticos, o que era o caso desta tese. Valores de D e zM mostram que a correção é desprezível para z > 0,6 m. Valores de EQM mostram que a correção é considerável para z = 0,1 m. Nesta profundidade, o valor máximo foi EQM = 0.30 oC para dias inteiros, e EQM = 0.29 oC para meses inteiros. Valores de EQMI foram praticamente iguais aos valores de EQM. Para qualquer profundidade a correção introduzida, ainda que considerável, é pequena. Entretanto, a única informação adicional requerida para aplicar a equação nova é a informação de variação temporal da amplitude diária. Desta forma, pode-se sugerir que a nova equação seja preferida, quando esta informação esteja facilmente disponível a partir de dados experimentais. / Soil temperature influences many physical, chemical and biological processes that occur in soil. The exponential-sinusoidal one-dimensional analytical model reasonably describes soil temperature, T (oC), as a function of time, t (s), and depth, z (m), 0 &#8804; z < &#8734;. Surface temperature may be represented by the sum of two sinusoids, one related to annual and the other to daily temperature variations, each one having constant amplitude. A correction for the temporal variation of daily amplitude is introduced here. The heat equation is solved analytically, with minimal increase in complexity compared to the traditional solution. Temperature predictions obtained from the novel analytical solution are compared with predictions from the usual solution that treats the daily amplitude as a constant. Comparisons demanded experimental parameters, which were obtained from scientific literature. Predictions are compared using four concepts: (i) damping depth, D; (ii) penetration depth, zM; (iii) root mean squared error (RMSE); and (iv) root mean squared error defined by a definite integral (RMSEI). The concept of zM was introduced here, through a simple equation, which allows calculation of the depth zm, at which T(zM,t) can be approximated to Ta (average annual value of soil temperature at zM). The concept of RMSEI was also introduced here, and replaces a sum by a definite integral. The RMSEI can be used to compare analytical models, as it was the case here. Values of D and zM show that the correction is negligible for z > 0,6 m. Values of RMSE show that the correction is considerable for z = 0,1 m. For individual days, at a depth z = 0,1 m, the maximum value was RMSE = 0.30 oC; for whole months, the maximum value was RMSE = 0.29 oC. RMSEI values were practically the same as RMSE values. The correction introduced here was small at all depths. However, the only additional information required to apply the novel equation is information on temporal variation of daily amplitude, so this equation should be preferred when such data are readily available.
5

Modelos analítico e numérico para simulação de ensaios de arrancamento de geotêxteis / Analytical and numerical models to simulation of pullout tests in geotextiles

Lúdma Heliodora Thomé Ferreira 29 May 2009 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Um aspecto particular no dimensionamento de maciços reforçados com geossintéticos consiste na análise da estabilidade interna. A ruptura interna pode ocorrer quando as solicitações impostas ao elemento de reforço superam a resistência à tração, ou quando ocorre o arrancamento do reforço da massa de solo, por ancoragem insuficiente. A distribuição das deformações e das tensões ao longo do comprimento enterrado do reforço não é uniforme, e este aspecto não é considerado no dimensionamento. Desta forma, modelos analíticos e numéricos aparecem como alternativas capazes de reduzir incertezas no dimensionamento de maciços reforçados, permitindo a adoção de soluções menos conservativas. O presente trabalho propõe um modelo analítico para a reprodução do mecanismo de transferência de esforços e deslocamentos ao longo do comprimento de geotêxteis sob condição de arrancamento, e apresenta a modelagem numérica de ensaios de arrancamento, fazendo uso do programa Plaxis, de elementos finitos. A partir dos resultados de um extenso programa experimental de ensaios de arrancamento instrumentados, em geotêxteis (Espinoza,2000), os modelos analítico e numérico foram validados e discutidos. Posteriormente, apresenta-se a simulação de um ensaio de arrancamento hipotético fazendo uso de ambos os modelos. Os resultados sugerem que os modelos analítico e numérico foram adequados na previsão dos esforços, deformações e deslocamentos ao longo do comprimento de geotêxteis em solicitações de arrancamento. Observou-se um melhor ajuste entre as previsões do modelo analítico e os resultados experimentais, justificado pela adoção do modelo não linear para o elemento geotêxtil. A distribuição de esforços e deslocamentos ao longo de geotêxteis é complexa, e a boa concordância dos modelos com os resultados experimentais reforça a potencialidade dos modelos para uso futuro. / The internal stability analysis is a particular aspect in the design of reinforced soil with geotextiles. Internal failure may occur when the stresses transmitted to the reinforcing element exceeds the tensile strength or when it is pulled out, due to insufficient anchorage. The stress strain distribution along the embedded length of the reinforcement is not uniform, and this condition is not incorporated in the design. Thus, analytical and numerical models appear as alternatives to reduce uncertainties in the design of reinforced soil structures, allowing the adoption of less conservative solutions.The present research proposes an analytical model that reproduces load transfer mechanism and displacements along the length of geotextiles under pullout condiction, and also presents a numerical simulation of pullout tests, making use of Plaxis FEM program. Based on the results of an extensive program of pullout tests in instrumented samples of geotextiles (Espinoza, 2000), the analytical and numerical models were validated and discussed. The simulation of a hypothetical pullout test making use of both models is also presented.The results suggest that the analytical and numerical models are suitable to predict loads, strains and displacements along the geotextiles length, submitted to pullout. The analytical model provided a better fit for the experimental results, since it incorporates a non-linear behavior for the geotextile. The distribution of loads and displacements along the geotextiles is complex, and the good agreement between the models and the experimental results emphasizes the capability of the models for further use.
6

Modelos analítico e numérico para simulação de ensaios de arrancamento de geotêxteis / Analytical and numerical models to simulation of pullout tests in geotextiles

Lúdma Heliodora Thomé Ferreira 29 May 2009 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Um aspecto particular no dimensionamento de maciços reforçados com geossintéticos consiste na análise da estabilidade interna. A ruptura interna pode ocorrer quando as solicitações impostas ao elemento de reforço superam a resistência à tração, ou quando ocorre o arrancamento do reforço da massa de solo, por ancoragem insuficiente. A distribuição das deformações e das tensões ao longo do comprimento enterrado do reforço não é uniforme, e este aspecto não é considerado no dimensionamento. Desta forma, modelos analíticos e numéricos aparecem como alternativas capazes de reduzir incertezas no dimensionamento de maciços reforçados, permitindo a adoção de soluções menos conservativas. O presente trabalho propõe um modelo analítico para a reprodução do mecanismo de transferência de esforços e deslocamentos ao longo do comprimento de geotêxteis sob condição de arrancamento, e apresenta a modelagem numérica de ensaios de arrancamento, fazendo uso do programa Plaxis, de elementos finitos. A partir dos resultados de um extenso programa experimental de ensaios de arrancamento instrumentados, em geotêxteis (Espinoza,2000), os modelos analítico e numérico foram validados e discutidos. Posteriormente, apresenta-se a simulação de um ensaio de arrancamento hipotético fazendo uso de ambos os modelos. Os resultados sugerem que os modelos analítico e numérico foram adequados na previsão dos esforços, deformações e deslocamentos ao longo do comprimento de geotêxteis em solicitações de arrancamento. Observou-se um melhor ajuste entre as previsões do modelo analítico e os resultados experimentais, justificado pela adoção do modelo não linear para o elemento geotêxtil. A distribuição de esforços e deslocamentos ao longo de geotêxteis é complexa, e a boa concordância dos modelos com os resultados experimentais reforça a potencialidade dos modelos para uso futuro. / The internal stability analysis is a particular aspect in the design of reinforced soil with geotextiles. Internal failure may occur when the stresses transmitted to the reinforcing element exceeds the tensile strength or when it is pulled out, due to insufficient anchorage. The stress strain distribution along the embedded length of the reinforcement is not uniform, and this condition is not incorporated in the design. Thus, analytical and numerical models appear as alternatives to reduce uncertainties in the design of reinforced soil structures, allowing the adoption of less conservative solutions.The present research proposes an analytical model that reproduces load transfer mechanism and displacements along the length of geotextiles under pullout condiction, and also presents a numerical simulation of pullout tests, making use of Plaxis FEM program. Based on the results of an extensive program of pullout tests in instrumented samples of geotextiles (Espinoza, 2000), the analytical and numerical models were validated and discussed. The simulation of a hypothetical pullout test making use of both models is also presented.The results suggest that the analytical and numerical models are suitable to predict loads, strains and displacements along the geotextiles length, submitted to pullout. The analytical model provided a better fit for the experimental results, since it incorporates a non-linear behavior for the geotextile. The distribution of loads and displacements along the geotextiles is complex, and the good agreement between the models and the experimental results emphasizes the capability of the models for further use.
7

Evaluación probabilística de indicadores de eficiencia para el dimensionamiento volumétrico de tanques de tormenta para el control de la contaminación de escorrentías urbanas

Andrés Doménech, Ignacio 07 June 2010 (has links)
Los depósitos de retención de aguas de tormenta son elementos eficaces para paliar los efectos de los vertidos de escorrentías urbanas en tiempo de lluvia al medio receptor. Su uso está hoy en día extendido; sin embargo, existe una gran dispersión de directrices para la determinación del volumen óptimo de almacenamiento. La caracterización estocástica del régimen de lluvia, fenómeno inicial del proceso, es la que marca sin duda el desarrollo de un determinado método. Consecuentemente, aunque el planteamiento metodológico pueda seguir ciertas pautas generales, el desarrollo del mismo y los resultados obtenidos no son en absoluto generalizables. El análisis pasa, en aras del cumplimiento de las exigencias de la Directiva Marco del Agua 2000/60/CE, por el establecimiento de un objetivo de calidad en el medio receptor, puesto que de ello depende el volumen de depósito. El impacto ambiental sobre los medios receptores que provocan los vertidos desde un tanque de tormentas puede enfocarse de dos formas diferentes, estableciendo los llamados estándares de emisión (Emission Standards, ES) o bien los objetivos de calidad ambiental (Environmental Quality Standards, EQS). El primer nivel en cuanto a objetivos de protección lo constituyen los ES. Con ellos se imponen restricciones a los vertidos, evaluando su frecuencia, volumen, carga contaminante, etc. Existen y se utilizan diferentes formas de fijar un ES. Las más usuales hacen referencia a la frecuencia de los vertidos y a la reducción del volumen de escorrentía o carga contaminante vertidos al medio receptor. El análisis con ES presenta la ventaja de resultar en metodologías fácilmente aplicables, pero adolece de considerar al medio receptor en sí, por lo que no discrimina los impactos que las descargas producen en él. Por este motivo, se plantea el segundo nivel en objetivos de protección con los EQS, que son objetivos que se definen no sobre los propios vertidos sino directamente sobre el medio receptor. / Andrés Doménech, I. (2010). Evaluación probabilística de indicadores de eficiencia para el dimensionamiento volumétrico de tanques de tormenta para el control de la contaminación de escorrentías urbanas [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/8387 / Palancia
8

Caracterização analítica de carga de trabalho baseada em cenários de aplicações multimídia. / Analytical characterization of workload based on scenarios of multimedia applications.

Patiño Alvarez, Gustavo Adolfo 07 December 2012 (has links)
As metodologias clássicas de análise de desempenho de sistemas sobre silício (System on chip, SoC) geralmente são descritas em função do tempo de execução do pior-caso1 das tarefas a serem executadas. No entanto, nas aplicações do mundo real, o tempo de execução destas tarefas pode variar devido à presença dos diferentes eventos de entrada que ativam o sistema, colocando uma exigência diferente de execução sobre os recursos do sistema. Geralmente, um modelo da carga de trabalho é uma parte integrante de um modelo de desempenho utilizado para avaliar o desempenho de um sistema. O quão bom for um modelo de carga de trabalho determina em grande medida a qualidade das soluções do projeto e a precisão das estimativas de desempenho baseadas nele. Nesta tese, é abordado o problema de modelar a carga de trabalho para o projeto de sistemas de tempo-real cuja funcionalidade envolve processamento de fluxos de multimídia, isto é, fluxos de dados representando áudio, imagens ou vídeo. O problema de modelar a carga de trabalho é abordado sob a premissa de que uma caracterização acurada do comportamento temporal do software embarcado permite ao projetista identificar diversas exigências variáveis de execução, apresentadas para os diversos recursos de arquitetura do sistema, tanto na operação individual do conjunto de tarefas de software, assim como na execução global da aplicação, em fase de projeto. A caracterização do comportamento de cada tarefa foi definida a partir de uma análise temporal dos códigos de software associados às diferentes tarefas de uma aplicação, a fim de identificar os múltiplos modos de operação que o código pode apresentar dentro de um processador. Esta caracterização é feita através da realização de uma análise estática das rotas do código executável, de forma que para cada rota de execução encontrada, estimam-se os tempos extremos de execução (WCET e BCET)2, baseando-se na modelagem da microarquitetura de um processador on-chip. Desta forma, cada rota do código executável junto aos seus respectivos tempos de execução, constitui um modo de operação do código analisado. A fim de agrupar os diversos modos de operação que apresentam um grau de semelhança entre si de acordo a uma perspectiva da medida de processamento utilizado do processador modelado, foi utilizado o conceito de cenário, o qual diferencia o comportamento de cada tarefa em relação às entradas que a aplicação sob análise pode receber. Partindo desta caracterização temporal de cada tarefa de software, as exigências da execução global da aplicação são representadas através de um modelo analítico de eventos. O modelo considera as diferentes tarefas como atores temporais de um grafo de fluxo síncrono de dados, de modo que os diferentes cenários de operação da aplicação são definidos em função dos tempos variáveis de execução identificados previamente na caracterização de cada tarefa. Uma descrição matemática deste modelo, baseada na Álgebra de Max-Plus, permite caracterizar analiticamente os diferentes fluxos de eventos entre a entrada e a saída da aplicação, assim como os fluxos de eventos entre as diferentes tarefas, considerando as mudanças nas exigências de processamento associadas aos diversos cenários previamente identificados. Esta caracterização analítica dos diversos fluxos de eventos de entrada e saída é a base para um modelo de curvas de carga de trabalho baseada em cenários de aplicação, e um modelo de curvas de serviços baseada também em cenários, que dão lugar a caracterizar o dinamismo comportamental da aplicação analisada, determinado pela diversidade de eventos de entrada que podem ativar diferentes comportamentos do sistema em fase de execução. / Classical methods for performance analysis of Multiprocessor System-on-chip (MPSoCs) are usually described in terms of Worst-Case Execution Times (WCET) of the executed tasks. Nevertheless, in real-world applications the running time of tasks varies due to different input events that trigger the system, imposing a different workload on the system resources. Usually, a workload model is a part of a performance model used to evaluate the performance of a system. How good is a workload model largely determines the quality of design solutions and the accuracy of performance estimations based on it. This thesis addresses the problem of modeling the workload for the design of real-time systems which functionality involves multimedia streams processing, i.e, data streams representing audio, images or video. The workload modeling problem is addressed from the assumption that an accurate characterization of timing behavior of real-time embedded software enables the designer to identify several variable execution requirements that the individual operation of the software tasks and the overall execution of the application will present to the several system resources of an architecture, in design phase. The software task characterization was defined from a timing analysis of the source code in order to identify the multiple operating modes the code can exhibit within a processor. This characterization is done by performing a static path analysis on the code, so that for each given path the worst-case and bestcase execution times (WCET and BCET) were estimated, based on a microarchitectural modeling of an on-chip processor. Thus, every execution path of the code, with its estimated execution times, defines an operation mode of the analyzed code. In order to cluster the several operation modes that exhibit certain degree of similarity according to the required amount of processing in the modeled processor, the concept of scenario was used, which differentiates every task behavior with respect to the several inputs the application under analysis may receive. From this timing characterization of every application task, the global execution requirements of the application are represented by an analytical event model. It describes the tasks as timed actors of a synchronous dataflow graph, so that the multiple application scenarios are defined in terms of the variable execution times previously identified in the task characterization. A mathematical description of this model based on the Max-Plus Algebra allows one to characterize the different event sequences incoming to, and exiting from, the application as well as the event sequences between the different tasks, having in count changes in the processing requirements associated with the various scenarios previously identified. This analytical characterization between the input event sequences and the output event sequences states the basis for a model of scenario-based workload curves and a model of scenario-based service curves that allow characterizing the behavioral dynamism of the application determined by the several input events that activate several system behaviors, in the execution phase.
9

Caracterização analítica de carga de trabalho baseada em cenários de aplicações multimídia. / Analytical characterization of workload based on scenarios of multimedia applications.

Gustavo Adolfo Patiño Alvarez 07 December 2012 (has links)
As metodologias clássicas de análise de desempenho de sistemas sobre silício (System on chip, SoC) geralmente são descritas em função do tempo de execução do pior-caso1 das tarefas a serem executadas. No entanto, nas aplicações do mundo real, o tempo de execução destas tarefas pode variar devido à presença dos diferentes eventos de entrada que ativam o sistema, colocando uma exigência diferente de execução sobre os recursos do sistema. Geralmente, um modelo da carga de trabalho é uma parte integrante de um modelo de desempenho utilizado para avaliar o desempenho de um sistema. O quão bom for um modelo de carga de trabalho determina em grande medida a qualidade das soluções do projeto e a precisão das estimativas de desempenho baseadas nele. Nesta tese, é abordado o problema de modelar a carga de trabalho para o projeto de sistemas de tempo-real cuja funcionalidade envolve processamento de fluxos de multimídia, isto é, fluxos de dados representando áudio, imagens ou vídeo. O problema de modelar a carga de trabalho é abordado sob a premissa de que uma caracterização acurada do comportamento temporal do software embarcado permite ao projetista identificar diversas exigências variáveis de execução, apresentadas para os diversos recursos de arquitetura do sistema, tanto na operação individual do conjunto de tarefas de software, assim como na execução global da aplicação, em fase de projeto. A caracterização do comportamento de cada tarefa foi definida a partir de uma análise temporal dos códigos de software associados às diferentes tarefas de uma aplicação, a fim de identificar os múltiplos modos de operação que o código pode apresentar dentro de um processador. Esta caracterização é feita através da realização de uma análise estática das rotas do código executável, de forma que para cada rota de execução encontrada, estimam-se os tempos extremos de execução (WCET e BCET)2, baseando-se na modelagem da microarquitetura de um processador on-chip. Desta forma, cada rota do código executável junto aos seus respectivos tempos de execução, constitui um modo de operação do código analisado. A fim de agrupar os diversos modos de operação que apresentam um grau de semelhança entre si de acordo a uma perspectiva da medida de processamento utilizado do processador modelado, foi utilizado o conceito de cenário, o qual diferencia o comportamento de cada tarefa em relação às entradas que a aplicação sob análise pode receber. Partindo desta caracterização temporal de cada tarefa de software, as exigências da execução global da aplicação são representadas através de um modelo analítico de eventos. O modelo considera as diferentes tarefas como atores temporais de um grafo de fluxo síncrono de dados, de modo que os diferentes cenários de operação da aplicação são definidos em função dos tempos variáveis de execução identificados previamente na caracterização de cada tarefa. Uma descrição matemática deste modelo, baseada na Álgebra de Max-Plus, permite caracterizar analiticamente os diferentes fluxos de eventos entre a entrada e a saída da aplicação, assim como os fluxos de eventos entre as diferentes tarefas, considerando as mudanças nas exigências de processamento associadas aos diversos cenários previamente identificados. Esta caracterização analítica dos diversos fluxos de eventos de entrada e saída é a base para um modelo de curvas de carga de trabalho baseada em cenários de aplicação, e um modelo de curvas de serviços baseada também em cenários, que dão lugar a caracterizar o dinamismo comportamental da aplicação analisada, determinado pela diversidade de eventos de entrada que podem ativar diferentes comportamentos do sistema em fase de execução. / Classical methods for performance analysis of Multiprocessor System-on-chip (MPSoCs) are usually described in terms of Worst-Case Execution Times (WCET) of the executed tasks. Nevertheless, in real-world applications the running time of tasks varies due to different input events that trigger the system, imposing a different workload on the system resources. Usually, a workload model is a part of a performance model used to evaluate the performance of a system. How good is a workload model largely determines the quality of design solutions and the accuracy of performance estimations based on it. This thesis addresses the problem of modeling the workload for the design of real-time systems which functionality involves multimedia streams processing, i.e, data streams representing audio, images or video. The workload modeling problem is addressed from the assumption that an accurate characterization of timing behavior of real-time embedded software enables the designer to identify several variable execution requirements that the individual operation of the software tasks and the overall execution of the application will present to the several system resources of an architecture, in design phase. The software task characterization was defined from a timing analysis of the source code in order to identify the multiple operating modes the code can exhibit within a processor. This characterization is done by performing a static path analysis on the code, so that for each given path the worst-case and bestcase execution times (WCET and BCET) were estimated, based on a microarchitectural modeling of an on-chip processor. Thus, every execution path of the code, with its estimated execution times, defines an operation mode of the analyzed code. In order to cluster the several operation modes that exhibit certain degree of similarity according to the required amount of processing in the modeled processor, the concept of scenario was used, which differentiates every task behavior with respect to the several inputs the application under analysis may receive. From this timing characterization of every application task, the global execution requirements of the application are represented by an analytical event model. It describes the tasks as timed actors of a synchronous dataflow graph, so that the multiple application scenarios are defined in terms of the variable execution times previously identified in the task characterization. A mathematical description of this model based on the Max-Plus Algebra allows one to characterize the different event sequences incoming to, and exiting from, the application as well as the event sequences between the different tasks, having in count changes in the processing requirements associated with the various scenarios previously identified. This analytical characterization between the input event sequences and the output event sequences states the basis for a model of scenario-based workload curves and a model of scenario-based service curves that allow characterizing the behavioral dynamism of the application determined by the several input events that activate several system behaviors, in the execution phase.
10

Um modelo analítico para estimar o consumo de energia de sistemas multi-camadas no nível de transação / An analytical model to estimate the energy consumption on multi-tier system at a fine-grained level

Ferreira, Alex Rabelo 25 April 2017 (has links)
Submitted by JÚLIO HEBER SILVA (julioheber@yahoo.com.br) on 2017-05-19T17:06:06Z No. of bitstreams: 2 Dissertação - Alex Rabelo Ferreira - 2017.pdf: 1520702 bytes, checksum: 4d6d16d4b1045c459e8d23fc2f6a4c69 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2017-05-22T10:41:24Z (GMT) No. of bitstreams: 2 Dissertação - Alex Rabelo Ferreira - 2017.pdf: 1520702 bytes, checksum: 4d6d16d4b1045c459e8d23fc2f6a4c69 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-05-22T10:41:24Z (GMT). No. of bitstreams: 2 Dissertação - Alex Rabelo Ferreira - 2017.pdf: 1520702 bytes, checksum: 4d6d16d4b1045c459e8d23fc2f6a4c69 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2017-04-25 / Conselho Nacional de Pesquisa e Desenvolvimento Científico e Tecnológico - CNPq / In large-scale data centers, power management techniques such as Dynamic Voltage/Frequency Scaling (DVFS), virtual machine consolidation, and power-capping mechanisms promise impressive energy savings compared to traditional resource management strategies. Most of these techniques rely on coarse-grained monitoring of the workload behavior to apply their optimizations. However, coarse-grained monitoring and black box observations are not satisfactory for predicting the behavior of bursty workloads such as those observed in enterprise, Web servers. In this work, we propose an analytical model to estimate the energy consumption of multi-tier Web Systems. Differently from previous works, our model captures the consumption pattern at the level of fine-grained transactions and for each tier of the system. In addition, our model is based only on CPU utilization and server architectural parameters, which can be easily obtained in today’s production environments. We demonstrate the effectiveness of our model in a real-world experimentation environment, based on the TPC-W benchmark. Results show that our model is able to estimate the energy consumption for a Web system with an average relative error of 6.5% in the worst-case scenario, whereas more complex models of the literature present errors within the same order of magnitude. / Em grandes centros de dados, técnicas de gerenciamento de energia como Dynamic Voltage/Frequency Scaling (DVFS), consolidação de máquinas virtuais e mecanismos de limitação de energia prometem grande economia de energia quando comparados a métodos tradicionais de gerenciamento de recursos. A maioria dessas técnicas utilizam mecanismos caixas-pretas para monitorar o comportamento da carga de trabalho. Contudo, esse tipo de monitoramento não é satisfatório para prever os fenômenos de rajadas, comumente encontrados em serviços e aplicações Web. Neste trabalho, propomos um modelo analí- tico para estimar o consumo de energia de Sistemas Web multi-camadas. Diferentemente de outros trabalhos, nosso modelo captura o padrão de consumo desses sistemas na granularidade de transações e para cada camada do sistema. Além disso, nosso modelo se baseia apenas na utilização de CPU e em parâmetros arquiteturais do servidor, os quais podem ser facilmente obtidos nos ambientes de produção atuais. Demonstramos a efetividade do nosso modelo em um ambiente de experimentação real, baseado no benchmark TPC-W. Os resultados obtidos mostram que nosso modelo é capaz de estimar o consumo de energia para um sistema Web com um erro relativo médio de 6,5% para o pior cenário, enquanto modelos mais complexos da literatura apresentam erros com a mesma ordem de grandeza.

Page generated in 0.4381 seconds