• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 117
  • 39
  • 30
  • 22
  • 11
  • 10
  • 9
  • 4
  • 4
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 276
  • 59
  • 30
  • 26
  • 22
  • 21
  • 21
  • 20
  • 19
  • 17
  • 17
  • 15
  • 15
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Quantitative Structure Analysis Relationships for Predicting the Fates of Future Contaminants in Indirect Potable Reuse Systems

January 2011 (has links)
abstract: The objective of this research was to predict the persistence of potential future contaminants in indirect potable reuse systems. In order to accurately estimate the fates of future contaminants in indirect potable reuse systems, results describing persistence from EPI Suite were modified to include sorption and oxidation. The target future contaminants studied were the approximately 2000 pharmaceuticals currently undergoing testing by United States Food and Drug Administration (US FDA). Specific organic substances such as analgesics, antibiotics, and pesticides were used to verify the predicted half-lives by comparing with reported values in the literature. During sub-surface transport, an important component of indirect potable reuse systems, the effects of sorption and oxidation are important mechanisms. These mechanisms are not considered by the quantitative structure activity relationship (QSAR) model predictions for half-lives from EPI Suite. Modifying the predictions from EPI Suite to include the effects of sorption and oxidation greatly improved the accuracy of predictions in the sub-surface environment. During validation, the error was reduced by over 50% when the predictions were modified to include sorption and oxidation. Molecular weight (MW) is an important criteria for estimating the persistence of chemicals in the sub-surface environment. EPI Suite predicts that high MW compounds are persistent since the QSAR model assumes steric hindrances will prevent transformations. Therefore, results from EPI Suite can be very misleading for high MW compounds. Persistence was affected by the total number of halogen atoms in chemicals more than the sum of N-heterocyclic aromatics in chemicals. Most contaminants (over 90%) were non-persistent in the sub-surface environment suggesting that the target future drugs do not pose a significant risk to potable reuse systems. Another important finding is that the percentage of compounds produced from the biotechnology industry is increasing rapidly and should dominate the future production of pharmaceuticals. In turn, pharmaceuticals should become less persistent in the future. An evaluation of indirect potable reuse systems that use reverse osmosis (RO) for potential rejection of the target contaminants was performed by statistical analysis. Most target compounds (over 95%) can be removed by RO based on size rejection and other removal mechanisms. / Dissertation/Thesis / Ph.D. Civil and Environmental Engineering 2011
102

O processo de transcrição da Suíte 20 de Johann Jacob Froberger para violão solo

Funck, César Souza January 2006 (has links)
Este trabalho trata do processo de transcrição da Suíte 20 de J. J Froberger para violão solo. O objetivo geral é descrever o processo de transcrição com base em modelos de transcrição dos séculos XVII e XXI. A partir destas análises foi construído um referencial teórico para aplicação na transcrição da Suíte 20. A identificação dos elementos típicos do chamado stile brisé a partir do referencial foi essencial para o processo de transcrição da suíte 20, que se utilizou de vários procedimentos similares. No anexo deste artigo consta uma edição comparativa da versão original da Suíte 20 com a transcrição, bem como outra edição com a parte do violão solo e sugestões de execução.
103

A benchmark suite for distributed stream processing systems / Um benchmark suite para sistemas distribuídos de stream processing

Bordin, Maycon Viana January 2017 (has links)
Um dado por si só não possui valor algum, a menos que ele seja interpretado, contextualizado e agregado com outros dados, para então possuir valor, tornando-o uma informação. Em algumas classes de aplicações o valor não está apenas na informação, mas também na velocidade com que essa informação é obtida. As negociações de alta frequência (NAF) são um bom exemplo onde a lucratividade é diretamente proporcional a latência (LOVELESS; STOIKOV; WAEBER, 2013). Com a evolução do hardware e de ferramentas de processamento de dados diversas aplicações que antes levavam horas para produzir resultados, hoje precisam produzir resultados em questão de minutos ou segundos (BARLOW, 2013). Este tipo de aplicação tem como característica, além da necessidade de processamento em tempo-real ou quase real, a ingestão contínua de grandes e ilimitadas quantidades de dados na forma de tuplas ou eventos. A crescente demanda por aplicações com esses requisitos levou a criação de sistemas que disponibilizam um modelo de programação que abstrai detalhes como escalonamento, tolerância a falhas, processamento e otimização de consultas. Estes sistemas são conhecidos como Stream Processing Systems (SPS), Data Stream Management Systems (DSMS) (CHAKRAVARTHY, 2009) ou Stream Processing Engines (SPE) (ABADI et al., 2005). Ultimamente estes sistemas adotaram uma arquitetura distribuída como forma de lidar com as quantidades cada vez maiores de dados (ZAHARIA et al., 2012). Entre estes sistemas estão S4, Storm, Spark Streaming, Flink Streaming e mais recentemente Samza e Apache Beam. Estes sistemas modelam o processamento de dados através de um grafo de fluxo com vértices representando os operadores e as arestas representando os data streams. Mas as similaridades não vão muito além disso, pois cada sistema possui suas particularidades com relação aos mecanismos de tolerância e recuperação a falhas, escalonamento e paralelismo de operadores, e padrões de comunicação. Neste senário seria útil possuir uma ferramenta para a comparação destes sistemas em diferentes workloads, para auxiliar na seleção da plataforma mais adequada para um trabalho específico. Este trabalho propõe um benchmark composto por aplicações de diferentes áreas, bem como um framework para o desenvolvimento e avaliação de SPSs distribuídos. / Recently a new application domain characterized by the continuous and low-latency processing of large volumes of data has been gaining attention. The growing number of applications of such genre has led to the creation of Stream Processing Systems (SPSs), systems that abstract the details of real-time applications from the developer. More recently, the ever increasing volumes of data to be processed gave rise to distributed SPSs. Currently there are in the market several distributed SPSs, however the existing benchmarks designed for the evaluation this kind of system covers only a few applications and workloads, while these systems have a much wider set of applications. In this work a benchmark for stream processing systems is proposed. Based on a survey of several papers with real-time and stream applications, the most used applications and areas were outlined, as well as the most used metrics in the performance evaluation of such applications. With these information the metrics of the benchmark were selected as well as a list of possible application to be part of the benchmark. Those passed through a workload characterization in order to select a diverse set of applications. To ease the evaluation of SPSs a framework was created with an API to generalize the application development and collect metrics, with the possibility of extending it to support other platforms in the future. To prove the usefulness of the benchmark, a subset of the applications were executed on Storm and Spark using the Azure Platform and the results have demonstrated the usefulness of the benchmark suite in comparing these systems.
104

O processo de transcrição da Suíte 20 de Johann Jacob Froberger para violão solo

Funck, César Souza January 2006 (has links)
Este trabalho trata do processo de transcrição da Suíte 20 de J. J Froberger para violão solo. O objetivo geral é descrever o processo de transcrição com base em modelos de transcrição dos séculos XVII e XXI. A partir destas análises foi construído um referencial teórico para aplicação na transcrição da Suíte 20. A identificação dos elementos típicos do chamado stile brisé a partir do referencial foi essencial para o processo de transcrição da suíte 20, que se utilizou de vários procedimentos similares. No anexo deste artigo consta uma edição comparativa da versão original da Suíte 20 com a transcrição, bem como outra edição com a parte do violão solo e sugestões de execução.
105

Eclipse BIRT Plug-ins for Dynamic Piecewise Constant and Event Time-Series

January 2015 (has links)
abstract: Time-series plots are used in many scientific and engineering applications. In this thesis, two new plug-ins for piecewise constant and event time-series are developed within the Eclipse BIRT (Business Intelligence and Reporting Tools) framework. These customizable plug-ins support superdense time, which is required for plotting the dynamics of Parallel DEVS models. These plug-ins are designed to receive time-based alphanumerical data sets from external computing sources, which can then be dynamically plotted. Static and dynamic time-series plotting are demonstrated in two settings. First, as standalone plug-ins, they can be used to create static plots, which can then be included in BIRT reports. Second, the plug-ins are integrated into the DEVS-Suite simulator where runtime simulated data generated from model components are dynamically plotted. Visual representation of data sets can simplify and improve model verification and simulation validation. / Dissertation/Thesis / Masters Thesis Computer Science 2015
106

A benchmark suite for distributed stream processing systems / Um benchmark suite para sistemas distribuídos de stream processing

Bordin, Maycon Viana January 2017 (has links)
Um dado por si só não possui valor algum, a menos que ele seja interpretado, contextualizado e agregado com outros dados, para então possuir valor, tornando-o uma informação. Em algumas classes de aplicações o valor não está apenas na informação, mas também na velocidade com que essa informação é obtida. As negociações de alta frequência (NAF) são um bom exemplo onde a lucratividade é diretamente proporcional a latência (LOVELESS; STOIKOV; WAEBER, 2013). Com a evolução do hardware e de ferramentas de processamento de dados diversas aplicações que antes levavam horas para produzir resultados, hoje precisam produzir resultados em questão de minutos ou segundos (BARLOW, 2013). Este tipo de aplicação tem como característica, além da necessidade de processamento em tempo-real ou quase real, a ingestão contínua de grandes e ilimitadas quantidades de dados na forma de tuplas ou eventos. A crescente demanda por aplicações com esses requisitos levou a criação de sistemas que disponibilizam um modelo de programação que abstrai detalhes como escalonamento, tolerância a falhas, processamento e otimização de consultas. Estes sistemas são conhecidos como Stream Processing Systems (SPS), Data Stream Management Systems (DSMS) (CHAKRAVARTHY, 2009) ou Stream Processing Engines (SPE) (ABADI et al., 2005). Ultimamente estes sistemas adotaram uma arquitetura distribuída como forma de lidar com as quantidades cada vez maiores de dados (ZAHARIA et al., 2012). Entre estes sistemas estão S4, Storm, Spark Streaming, Flink Streaming e mais recentemente Samza e Apache Beam. Estes sistemas modelam o processamento de dados através de um grafo de fluxo com vértices representando os operadores e as arestas representando os data streams. Mas as similaridades não vão muito além disso, pois cada sistema possui suas particularidades com relação aos mecanismos de tolerância e recuperação a falhas, escalonamento e paralelismo de operadores, e padrões de comunicação. Neste senário seria útil possuir uma ferramenta para a comparação destes sistemas em diferentes workloads, para auxiliar na seleção da plataforma mais adequada para um trabalho específico. Este trabalho propõe um benchmark composto por aplicações de diferentes áreas, bem como um framework para o desenvolvimento e avaliação de SPSs distribuídos. / Recently a new application domain characterized by the continuous and low-latency processing of large volumes of data has been gaining attention. The growing number of applications of such genre has led to the creation of Stream Processing Systems (SPSs), systems that abstract the details of real-time applications from the developer. More recently, the ever increasing volumes of data to be processed gave rise to distributed SPSs. Currently there are in the market several distributed SPSs, however the existing benchmarks designed for the evaluation this kind of system covers only a few applications and workloads, while these systems have a much wider set of applications. In this work a benchmark for stream processing systems is proposed. Based on a survey of several papers with real-time and stream applications, the most used applications and areas were outlined, as well as the most used metrics in the performance evaluation of such applications. With these information the metrics of the benchmark were selected as well as a list of possible application to be part of the benchmark. Those passed through a workload characterization in order to select a diverse set of applications. To ease the evaluation of SPSs a framework was created with an API to generalize the application development and collect metrics, with the possibility of extending it to support other platforms in the future. To prove the usefulness of the benchmark, a subset of the applications were executed on Storm and Spark using the Azure Platform and the results have demonstrated the usefulness of the benchmark suite in comparing these systems.
107

A Suíte Imágenes para violão de Carlos Aguirre : um estudo técnico-interpretativo

Iravedra, Rafael January 2014 (has links)
O presente trabalho fornece ferramentas técnico-interpretativas para a construção de uma performance da suíte Imágenes para violão do compositor argentino Carlos Aguirre. Através de uma análise estrutural das obras que compõem essa suíte e sua relação com os gêneros da música popular em que se baseiam, assim como dados biográficos e estilísticos do compositor e suas obras para violão, apresentamos material para uma maior compreensão das peças. Na segunda parte do trabalho, expomos sugestões de digitação de mão direita e mão esquerda como alternativas às indicadas na edição. Versões gravadas pelo compositor com outros instrumentos de duas peças dessa suíte foram analisadas como fonte para ideias interpretativas no violão. Para a resolução das dificuldades técnicas presentes em Imágenes, propõem-se exercícios embasados principalmente no conceito de versão zero de Fernández (2000). / This work offers interpretative and technical tools for the construction of a performance of the suite Imágenes for guitar, by the Argentinian composer Carlos Aguirre. Through a structural analysis of the pieces that form the suite and its relation with other genders of folk music on which they are based, as well as biographic and stylistic information of the composer and his works for guitar, we present relevant material for a better comprehension of these pieces. In the second section of this work, we present fingering suggestions for both hands as alternatives to those indicated in the original edition. Versions recorded by the composer with other instruments of two pieces of the suite were analyzed as sources for interpretative ideas for the guitar. To resolve technical difficulties in Imágenes, we propose exercises, mainly based on Fernández’ (2000) concept of version zero.
108

O processo de transcrição da Suíte 20 de Johann Jacob Froberger para violão solo

Funck, César Souza January 2006 (has links)
Este trabalho trata do processo de transcrição da Suíte 20 de J. J Froberger para violão solo. O objetivo geral é descrever o processo de transcrição com base em modelos de transcrição dos séculos XVII e XXI. A partir destas análises foi construído um referencial teórico para aplicação na transcrição da Suíte 20. A identificação dos elementos típicos do chamado stile brisé a partir do referencial foi essencial para o processo de transcrição da suíte 20, que se utilizou de vários procedimentos similares. No anexo deste artigo consta uma edição comparativa da versão original da Suíte 20 com a transcrição, bem como outra edição com a parte do violão solo e sugestões de execução.
109

Radamés Gnattali: - \"Suíte para quinteto de sopros\" - Estudo analítico e interpretativo / Radamés Gnattali: - \"Suíte para quinteto de sopros\" - Estudo analítico e interpretativo

Jamil Mamedio Bark 23 February 2007 (has links)
O presente trabalho tem como principal objetivo realizar um estudo analítico e interpretativo da Suíte para quinteto de sopros de Radamés Gnattali. Para introduzir e contextualizar esse estudo, apresenta, na Primeira Parte, um levantamento biográfico e histórico da vida do compositor. A Segunda Parte focaliza a obra. Introduz aspectos da forma Suíte, bem como das formas características dos movimentos: Prelúdio, Valsa, Modinha e Choro, além de enumerar considerações sobre a formação Quinteto de Sopros. Segue com o estudo analítico da obra através das técnicas de análise musical desenvolvidas por Arnold Schoenberg, Wallace Berry e Joaquín Zamacois. Desse estudo são levantadas informações a respeito da linguagem empregada, quais os elementos composicionais característicos utilizados pelo compositor e como ele os manipula. Também de acordo com esse estudo analítico, estão indicadas sugestões sobre a execução da obra, apontando aspectos relevantes da interpretação nos cinco instrumentos envolvidos. A conclusão reúne as informações de maior interesse obtidas da análise efetuada, e de orientações a respeito da execução da obra. Em anexo se encontram: relação de obras e fonografia de Radamés Gnattali, a partitura e um CD com a gravação da Suíte executada pelo Quinteto de Sopros de Curitiba, grupo do qual o autor dessa pesquisa faz parte. / The main objective of the present research is to present an Analysis and an interpretative Study of the Suíte for Woodwind Quintet by Radamés Gnattali. For the sake of contextualization, the First Part presents biographical and historical data of the composer\'s life. The Second Part focuses on the piece. It starts with aspects of the Suit and introduces the forms involved in each movement: Prelúdio, Valsa, Modinha and Choro. It follows with the Analysis of the piece according to the techniques of musical analysis developed by Arnold Schoenberg Wallace Berry e Joaquín Zamacois. The analytical process leads up to information about the used compositional language, the typical compositional elements, and how the composer uses them. Furthermore, according to this analytical study, there are suggestions concerning the performance of the piece, pointing to relevant aspects of woodwind quintet interpretation. The conclusion gathers the most prominent information acquired from the overall Analysis of the work, and from the suggestions on the performance of this piece as well. As appendixes, there are a list of works by Radamés Gnattali and his phonography, the music score, and a recording on CD of the piece, performed by Wind Quintet Curitiba, group founded by the author of this research.
110

Fallstudie för distribuerad installation av operativsystem

Andersson, Christopher January 2009 (has links)
Rapporten undersöker om det är möjligt att använda Clonezilla för distribuerad installation av Windows Vista som alternativ till Symantec Ghost. Ett ytterligare krav är att installationen ska vara automatiserad och inte kräva något extra arbete efter installationens slut. Dessutom ska datorerna vara redo att användas i en Windows-domän efter en färdig installation. Programmet Clonezilla är av typen open source och är fritt att använda medan Symantec Ghost är en kommersiell produkt som kräver flertalet licenser beroende på antalet datorer. Clonezilla körs i Linux och saknar grafiskt gränssnitt, Symantec däremot har ett eget gränssnitt för att överskådligt hantera datorer och distribuera operativsystem i välkänd Windows-miljö. Båda lösningarna testas under flera praktiska experiment i labbmiljö. De två programmen jämförs och utvärderas gällande prestanda och användarvänlighet.  Resultaten visar på att skillnaden gällande prestanda är marginell. Gällande användarvänlighet är skillnaden för de båda programmen större då Symantec erbjuder ett grafiskt gränssnitt tillsammans med hjälpavsnitt för produkten. Båda lösningarna fungerar för ändamålet och har olika fördelar respektive nackdelar.

Page generated in 0.0311 seconds