• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 296
  • 17
  • 15
  • 15
  • 15
  • 8
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 1
  • Tagged with
  • 315
  • 315
  • 76
  • 57
  • 56
  • 55
  • 53
  • 45
  • 35
  • 35
  • 30
  • 30
  • 29
  • 29
  • 28
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Estudo de caso de uma extensão de middlewares de TV digital interativa para suporte a aplicações residentes não-nativas

Goulart, Leandro Jekimim [UNESP] 27 July 2009 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:29:40Z (GMT). No. of bitstreams: 0 Previous issue date: 2009-07-27Bitstream added on 2014-06-13T20:19:46Z : No. of bitstreams: 1 goulart_lj_me_sjrp.pdf: 1065777 bytes, checksum: d51b5d665c42eb528918982e19434970 (MD5) / Ao longo dos últimos anos diversos sistemas de TV Digital foram desenvolvidos em todo o mundo, com destaque para o sistema de TV Digital norte-americano (ATSC), europeu (DVB), japonês (ISDB) e brasileiro (SBTVD). Todos estes sistemas diferem entre si em algum aspecto, mas todos apresentem muitas semelhanças conceituais e estruturais, o que permitiu a construção de plataformas de aplicações e serviços interativos comuns ou interoperáveis entre estes sistemas. Em todos estes sistemas, ambientes de aplicação foram desenvolvidos com o objetivo de oferecer serviços interativos através das redes e receptores de TV Digital. Diversos tipos de aplicações são definidos, com variações sobre o acoplamento ou não com o conteúdo audiovisual, a origem da aplicação (nativa ou do broadcast), entre outros aspectos. Este trabalho traz uma nova proposta, a de aplicações residentes não-nativas, um grupo de aplicações que adicionadas e removidas por usuários, executando no topo das APIs disponibilizadas pelo middleware, mas não associadas aos canais de TV Digital. É discutido então uma proposta para desenvolvimento destas extensões, o cenário escolhido para o estudo de caso, composto por implementação de referência de middleware (OpenMHP) e aplicação (Quizlet), o estudo de caso com os dados coletados, discussão e novas propostas. Os resultados são realizados com base na compatibilidade desta implementação de referência com as aplicações MHP existentes. / Not available.
172

Arborização de vias urbanas : potencial de sombreamento das espécies /

Silva, Wilton Dias da. January 2016 (has links)
Orientador: João Roberto Gomes de Faria / Banca: Maria Solange G. de Fontes / Banca: Lea Cristina Lucas de Souza / Resumo: A arborização de vias urbanas pode se constituir num elemento bastante eficaz na amenização de altas temperaturas na camada intraurbana, através de mecanismos de sombreamento e evapotranspiração. Entretanto, entre os variados tipos de espécies arbóreas, quais seriam as mais indicadas para utilização na arborização das vias, a fim de mitigar a temperatura do ar no ambiente urbano? A utilização de ferramentas computacionais é uma alternativa para análise desta questão, tendo em vista que, o uso destes programas auxilia as pesquisas na área de planejamento e avaliação do ambiente construído, por meio da simulação de variados cenários. Um programa bastante utilizado para estudos de interação entre a vegetação e microclimas urbanos é o ENVI-Met, o qual, no entanto, não contém em seu banco de dados, parâmetros relativos a espécies brasileiras, em particular as de cerrado, o que pode gerar cenários microclimáticos incorretos. O objetivo desta pesquisa é propor um método para avaliação do potencial de sombreamento de espécies usadas em arborização de vias urbanas. Para tanto, foram realizados medições de radiação solar incidente sob copas de algumas espécies, usadas no sombreamento de vias urbanas da cidade de Bauru (SP), cujos resultados foram comparados com os parâmetros das mesmas espécies simulados pelo ENVI-Met. A partir do tratamento dos dados foi gerada uma ferramenta, através da qual é possível extrapolar os resultados para escolha de outras espécies. Assim, espera-se que est... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The afforestation of the urban streets can be a very effective element in the mitigation of high temperatures in urban layer through shading mechanisms and evapotranspiration. However, among the various types of tree species, which are the best indicated for use in street afforestation, to mitigate the air temperature in the urban environment? The use of computational tools would be an alternative to analyze this question, given that the use of these programs help in the research on planning and evaluation of the built environment through the simulation of various scenarios. A program widely used to study the interaction between urban vegetation and microclimates is the ENVI-Met, which, however, does not contain parameters in your database relating to brazilians species, particularly the cerrado species, which can create incorrect microclimatic scenarios. The aims of this research is to propose a method to evaluation of potencial shading of species used in afforestation of urban streets. For that, radiation measurements were performed in incident solar canopies of some species used in shading urban streets of the city of Bauru (SP), whose results were compared with the parameters of the same species simulated by ENVI-Met. From the processing, a tool was generated through which it is possible to extrapolate the results to select other species. Thus, it is expected that this method contributes to the indication of species that contain potential for mitigating the air temperatur... (Complete abstract click electronic access below) / Mestre
173

Geoprocessamento e computação inteligente : possibilidades, vantagens e necessidades /

Pereira, Carlos José de Almeida. January 2008 (has links)
Orientador: Lucia Helena de Oliveira Gerardi / Banca: Dulce Consuelo Andreatta Whitaker / Banca: João Francisco de Abreu / Banca: Lindon Fonseca Matias / Banca: Mônica Giacomassi de Menezes de Magalhães / Resumo: As técnicas de análise de dados e de busca de soluções fornecidas pela Computação Inteligente tiveram, nos últimos tempos, um grande avanço em seu desenvolvimento. Essas técnicas têm sido utilizadas com eficácia e eficiência no tratamento de problemas complexos e/ou que possuam uma grande quantidade de dados a serem processados. A integração destas técnicas com as ferramentas computacionais de produção e análise de informações geográficas (Geoprocessamento) é, portanto, muito vantajosa, especialmente com relação à grande quantidade de dados geralmente envolvida nas questões de natureza espacial. Este trabalho apresenta dois exemplos de uso de técnicas de Computação Inteligente em procedimentos de produção e análise de informações geográficas: um Sistema de Raciocínio Nebuloso (baseado na Lógica Nebulosa) para a construção de um mapa de fertilidade de solos, e uma Rede Neural Artificial para a identificação de agrupamentos espaciais em dados sócio-econômicos. Os dois exemplos foram conduzidos utilizando-se um software especialmente construído para esta finalidade, denominado GAIA - Geoprocessamento Apoiado por Inteligência Artificial -, e que doravante está disponível como Software Livre para qualquer pesquisador interessado em utilizar estas ferramentas. O estudo conclui que o uso das técnicas provenientes da computação inteligente, em comparação com técnicas tradicionais de análise de dados, contribuiu para um aumento da qualidade dos resultados obtidos. / Abstract: Data analysis and problem solving techniques supplied by Soft Computing have had, lately, a great advance in their development. These techniques have been used with effectiveness and efficiency to deal with complex problems and/or problems that have too much data to be processed. The integration of such techniques with the tools for computational geographic information analysis (Geocomputation) is therefore very advantageous, especially in relation to the great quantity of data normally involved in spatial matters. This study presents two examples on how to use Soft Computing techniques in conjunction with geographic information analysis procedures: a Fuzzy Reasoning System (based on Fuzzy Logic) to build a soil fertility map, and an Artificial Neural Network to identify spatial clusters in socioeconomic data. Both examples were conducted using a software specifically developed towards this objective, called GAIA - Artificial Intelligence Supported Geocomputation, from now on available as a Free Software to any interested researcher. The study arrives at the conclusion that the use of soft computing techniques, as compared to classical procedures, leads to an increased quality on the final results. / Doutor
174

Uma plataforma para manuseio, análise e avaliação de dados de observação e controle de simulações

Sidou, Pedro Niederhagebock January 2017 (has links)
Atualmente, com a melhoria das técnicas de paralelização, cada vez mais vem sendo empregado o uso de clusteres de computadores para programas exigentes de alta performance. Porém, para um programa rodar adequadamente em paralelo, o mesmo deve ser escrito de maneira paralelizável. A proposta deste trabalho é o desenvolvimento de uma plataforma computacional que facilite a escrita de programas orientados à análise de dados climáticos e simulações de fenômenos atmosféricos escritos em paralelo. A plataforma foi pensada de maneira a ser o mais exível possível, permitindo que novas funcionalidades sejam adicionadas através de plugins. Em um futuro próximo, pretende-se disponibilizá-la para uso público com licença GNU General Public License (GNU GPL) e código aberto. Para demonstrar seu potencial de uso, foi realizado um estudo exploratório com dados provenientes do projeto de reanálise Twentieth Century Reanalysis version 2 (20CRv2). Tal estudo visa obter informações sobre que parâmetros e escalas de tempo são importantes para a descrição do fenômeno da zona de convergência do Atlântico sul (ZCAS). / Since parallel computing technologies are improving very fast, computer clusteres are getting more and more employed for highly demanding computational tasks. Nevertheless, for a software to run in a cluster, it needs to be written in a parallel way, which is not necessarily a simple task. Therefore, the aim of this work is to develop a computer platform capable of manipulating, analysing and evaluating climate observational data and controlling simulation in a parallel manner. Features can be added to the platform through plugins, making it very exible and extensible for a very large range of tasks. A simple application is purposed to demonstrate the platform's potential uses. The application consists of a exploratory study of data from the 20th century reanalysis project concerning the South American Convergence Zone (SACZ), a very important phenomena in the south hemisphere.
175

Calibre vascular retiniano e a pressão arterial medida por monitoramento ambulatorial da pressão arterial

Pakter, Helena Messinger January 2010 (has links)
É bem conhecido que alterações vasculares iniciam como um processo silencioso e assintomático. A identificação precoce de anormalidades vasculares na retina em pacientes assintomáticos pode permitir a detecção de pacientes em risco de desenvolver DCV. Por prover visualização direta do leito vascular, a retina pode ser estudada não invasivamente mostrando o grau de acometimento da microcirculação. Avanços nas técnicas de fotografia retiniana e de análise digital de imagem tem permitido a mensuração objetiva de alterações vasculares da retina. Com isso, é possível quantificar anormalidades na microvasculatura retiniana, imprescindível para o estudo da fisiopatologia da hipertensão arterial sistêmica, bem como para a avaliação da associação com doença cardiovascular. Um software desenvolvido pela autora desta tese e colaboradores é capaz de medir calibre de arteríolas e vênulas de retinografias digitalizadas. Esse software, nomeado Retinal Analyser System (RAS), foi atualizado e houve a inclusão e testagem de um fator de escala ou calibração, apresentado no Artigo 1 dessa tese. Os métodos de análise de imagens da retina utilizados para medir calibre dos vasos retinianos não determinam exatamente o que está sendo medido. Assim, havia necessidade de investigar se o calibre medido no software RAS corresponde ao lúmen vascular somente ou se inclui a parede vascular. O Artigo 2 dessa tese apresenta a comparação de medidas de calibre de vasos retinianos, em retinografias coloridas com angiografias fluoresceínicas. Nesse artigo concluímos que, como as diferenças encontradas entre os dois métodos foram muito pequenas, o método microdensitométrico mede o lúmen vascular. Os calibres vasculares retinianos avaliados quantitativamente por métodos digitalizados tem mostrado uma associação significativa com incidência e gravidade da hipertensão arterial casual. No entanto, nas últimas décadas, tem sido discutido o valor da medida casual da pressão arterial para fins prognósticos. Em função da variação contínua da pressão arterial, de momento a momento, de acordo com as atividades do indivíduo, novos métodos podem complementar a avaliação através de medidas repetidas da pressão arterial, permitindo a detecção da pressão arterial usual. Tendo em vista essas considerações, o Artigo 3 dessa tese avaliou a associação entre os diferentes parâmetros da pressão arterial, medida pela MAPA, e os calibres vasculares retinianos. A relação entre pressão arterial e calibre arteriolar e venular da retina no momento da obtenção retinografia também foi estudada. Demonstramos que a pressão diastólica média das 24 horas, da vigília e do sono teve associação inversa e significativa com calibre arteriolar e razão arterio-venosa, mas não com calibre venular. A pressão arterial medida na hora da retinografia não mostrou associação com o calibre dos vasos retinianos. Assim concluímos que a associação entre o calibre arteriolar dos vasos retinianos e a pressão arterial não é influenciada pela variação instantânea da pressão arterial e, provavelmente, depende de lesões histológicas da parede arteriolar secundária à hipertensão sustentada. Através da MAPA também é possível avaliarmos a variação temporal da pressão arterial ao longo de um período de 24 horas, e assim estudar o ritmo circadiano e a ritimicidade da pressão arterial. Uma maneira de analisar a ritimicidade da pressão arterial é através do método Cosinor, um método de análise de regressão periódica, baseada na adaptação da função do coseno, para valores da pressão arterial com período de 24 horas. O método Cosinor gera, em cada elemento (indivíduo ou população), os seguintes parâmetros de validação do ritmo circadiano: MESOR (sigla em inglês para média do ritmo ajustada estatísticamente), acrofase e amplitude. O estudo do ritmo circadiano da pressão arterial, avaliado pela da análise de cosinor, e sua associação com os calibres vasculares retinianos, resultou no artigo 4 dessa tese. Nesse artigo, mostramos que o MESOR associa-se significativa e inversamente com calibre arteriolar, com uma magnitude de 0.8 a 1 micron de redução no calibre para um aumento de 10 mmHg do MESOR da pressão arterial. O calibre venular não mostrou associação com o MESOR. Também usamos a análise de Cosinor para população e avaliamos as diferenças nos ritmos da pressão arterial entre as populações do primeiro e dos demais quintis de calibre vascular. Através desta análise observamos que amplitude e acrofase da pressão arterial são estatisticamente diferente entre as populações do primeiro e demais quintis de calibre venoso, mas não arteriolar. Em resumo, enquanto o MESOR está associado ao calibre arteriolar, a amplitude e a acrofase estão associadas ao calibre venular. Concluindo, essa tese mostra, através de seus 4 artigos, a aplicação do software RAS para medida de calibres vasculares retinianos e a associação dessas medidas com pressão arterial, em uma população de pacientes hipertensos. A associação entre o calibre vascular retiniano, a pressão arterial medida 24 horas e o seu ritmo, demonstrada nessa tese, fortalece a hipótese que a avaliação da microvasculatura retiniana pode ser um marcador clínico importante de lesão em órgão. / It is well known that vascular changes begin as a silent and asymptomatic process. Early identification of retinal vascular abnormalities in asymptomatic patients may allow the detection of patients at risk. By providing unique visualization of the vascular bed, the retina can be studied no invasively and show the degree of microcirculation involvement. Advances in techniques of retinal photography and digital image analysis have allowed objective measurement of retinal vascular changes. Thus, it is possible to quantify abnormalities in the retinal microvasculature, essentially to study hypertension pathophysiology, and to assess its association to cardiovascular disease. Software developed by our research group is able to measure the caliber of arterioles and venules of digitized fundus. This software, named Retinal Analyzer System (RAS), has been updated by including and testing a scale factor, presented in Article 1 of this thesis. The current methods of image analysis used to measure the caliber of retinal vessels do not determine exactly what is being measured. Thus there was need to investigate whether the caliber measured in RAS software corresponds to the vascular lumen only or whether it includes the vascular wall. Article 2 of this thesis presents a comparison of the measurements of retinal vessels calibers in color fundus photography to those in fluorescein angiography. In this article we show that the differences found between the two methods were very small, and concluded that the microdensitometry method measures mainly the vascular lumen. The retinal vascular calibers measured quantitatively by microdensitometric methods have shown a significant association with incidence and severity of hypertension. However, studies evaluating these associations are based on casual blood pressure and, in recent decades, it has been discussed the value of casual blood pressure measurement. In light of continuous variation in blood pressure from moment to moment, according to the individual's activities, new methods can complement the assessments through repeated measurements of blood pressure, allowing the detection of usual blood pressure. Given these considerations, Article 3 of this thesis examined the association between different parameters of the blood pressure measured by ABPM, and retinal vascular caliber. The relationship between blood pressure at the time of retinography acquisition and retinal arteriolar and venular caliber was also studied. We show that the mean 24 hours, daytime and night time diastolic blood pressure were significantly and inversely associated with arteriolar caliber and arteriovenous ratio, but not with venular caliber. The pressure measured at the time of acquisition of the fundus showed no association with the caliber of retinal vessels, thus the association between arteriolar retinal vessels caliber and blood pressure is not influenced by instantaneous variation of blood pressure and probably depends of histological damage of arteriolar wall secondary to sustained hypertension. Using ABPM is also possible to evaluate the temporal variation of blood pressure over a period of 24 hours, and then study the circadian rhythm of blood pressure. One way to analyze the blood pressure rhythm is using the Cosinor method, a method of periodic regression analysis, based on the adaptation of the cosine function, for values of blood pressure with 24-hour period. The method Cosinor generates the following validation parameters of the circadian rhythm: MESOR (acronym for "Midline Estimated Statistic Of Rhythm"), acrophase and amplitude. The study of circadian rhythm of blood pressure, as assessed by analysis COSINOR and its association with retinal vascular caliber, resulted in Article 4 of this thesis. In this paper we show that MESOR is associated significantly and inversely with arteriolar caliber, with a magnitude of 0.8 to 1 micron reduction to an increase of 10 mmHg of blood pressure MESOR. The venular caliber was not associated with MESOR. We also use the Cosinor analysis to study differences in the rhythms of blood pressure among populations in the first quintile and the rest quintiles of vascular caliber. Through this analysis we found that amplitude and acrophase of blood pressure were statistically different between the populations of the first and the other quintiles of venous caliber, but not arterioles. In conclusion, this thesis shows, through its four articles, the application of RAS software to measure retinal vascular caliber and the association of these measurements with blood pressure in a population of hypertensive patients. The association between retinal vascular calibers, blood pressure measured 24 hours and rhythm, as demonstrated in this thesis, strengthens the hypothesis that assessment of the retinal microvasculature may be an important clinical marker of organ damage.
176

Simulações computacionais do escoamento cardiovascular guiadas por ressonância magnética

Rispoli, Vinicius de Carvalho 10 December 2014 (has links)
Tese (doutorado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2014. / Submitted by Ana Cristina Barbosa da Silva (annabds@hotmail.com) on 2015-02-20T17:57:17Z No. of bitstreams: 1 2014_ViniciusdeCarvalhoRispoli.pdf: 16939736 bytes, checksum: 8dfa17c58667403d827192cadef858c7 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2015-04-29T21:10:38Z (GMT) No. of bitstreams: 1 2014_ViniciusdeCarvalhoRispoli.pdf: 16939736 bytes, checksum: 8dfa17c58667403d827192cadef858c7 (MD5) / Made available in DSpace on 2015-04-29T21:10:38Z (GMT). No. of bitstreams: 1 2014_ViniciusdeCarvalhoRispoli.pdf: 16939736 bytes, checksum: 8dfa17c58667403d827192cadef858c7 (MD5) / As doenças cardiovasculares representam hoje uma das maiores causas de morte no mundo. Desta forma, o conhecimento dos padrões de escoamento sanguíneo no corpo humano se faz importante no diagnóstico e pesquisa de algumas doenças. Utilizando a ressonância magnética (RM), o escoamento sanguíneo pode ser mensurado in vivo diretamente usando ressonância magnética (RM) com contraste de fase (CF) ou através da codificação de velocidade em Fourier (CVF). Por outro lado, o escoamento sanguíneo pode também ser simulado utilizando uma abordagem baseada em modelos da dinâmica dos fluidos computacional (DFC). O CF tem como desvantagens os longos tempos de aquisição, a resolução espaço-temporal limitada, efeitos de volume parcial e baixa relação sinal-ruído (SNR). Por outro lado, a codificação de velocidade em Fourier é um método de imageamento por ressonância magnética promissor para realizar medidas do escoamento cardiovascular. A CVF oferece SNR consideravelmente maior que o CF e também é robusto aos efeitos de volume parcial. Os conjuntos de dados com CVF são adquiridos com baixa resolução espacial devido aos longos tempos de aquisição relacionados a sua alta dimensionalidade, (x,y,v,t), mas proporcionam a distribuição de velocidade associada a cada um dos seus grandes voxels. Entretanto, não um mapa de velocidades do escoamento. Finalmente, a DFC proporciona alta resolução temporal e espacial, além de tempos de aquisição reduzidos. Porém a sua acurácia é dependente das hipóteses do modelo. O objetivo deste trabalho é apresentar um método capaz de integrar medidas diretas de RM (CF ou CVF) a um algoritmo para determinar solução das equações da dinâmica dos fluidos, tendo como principal interesse a redução no tempo de exame num ambiente clínico. Desta forma, este trabalho apresenta duas contribuições originais: (i) um método para extrair mapas de velocidade de alta resolução espacial a partir de dados com CVF de baixa resolução espacial; e (ii) um método para reconstruir campos de velocidade que são influenciados ao mesmo tempo pelas medidas diretas por RM (CF ou CVF) e pelos modelos físicos da dinâmica dos fluidos. _________________________________________________________________________________ ABSTRACT / Cardiovascular diseases represents today one of the leading causes of death worldwide. Thus, knowledge of the blood flow patterns in the human body is important for diagnosis and research of certain diseases. Using magnetic resonance (MRI), in vivo 3D blood flow patterns can be either measured directly using phase–contrast (PC) MRI or Fourier velocity encoding (FVE) MRI. On the other hand, blood flow patterns can be obtained from model-based computational fluid dynamics (CFD) calculations. PC–MRI suffers from long scan times, limited spatio–temporal resolution, partial–volume effects and low signal–to–noise ratio (SNR). Fourier velocity encoding (FVE) is a promising magnetic resonance imaging method for measurement of cardiovascular blood flow. FVE provides considerably higher SNR than phase contrast imaging, and is robust to partial–volume effects. FVE data is usually acquired with low spatial resolution, due to scantime restrictions associated with its higher dimensionality, (x; y; v; t), and provides the velocity distribution associated with a large voxel, but does not directly provides a velocity map. Since the acquisition time is a disadvantage of FVE, then, preferably, it should be acquired with rapid spiral trajectories. Finally, CFD provides arbitrarily high spatial and temporal resolution and reduced scan times, but its accuracy hinges on the model assumptions. The objective of this work is to present a method capable of integrate direct MRI (PC or FVE) measures inside a CFD solver on the way to reduce scan time in a clinical environment. This work presents two main original contributions: (i) a method to derive velocity maps with high spatial resolution from low spatial resolution FVE data; and (ii) a numerical framework for constructing a flow field that is influenced by both direct measurements (PC–MRI or FVE) and a fluid physics model.
177

Metadados para recuperação da informação em ambiente virtual

Santiago, Mônica Cristina Costa 30 September 2004 (has links)
Made available in DSpace on 2015-10-19T11:50:10Z (GMT). No. of bitstreams: 1 monicasantiago2004.pdf: 543328 bytes, checksum: 9b7d3383f133c7063fff2120aeb543fc (MD5) Previous issue date: 2004-09-30 / This research analyses metadata use in Brazil and abroad, based on cataloging, classification and indexing theory and techniques, focused on information retrieval system and its evolution, from manual, automated systems till internet/web. In the virtual environment, the information retrieval, its evaluation criteria and tools like classification schemes, subject headings and thesaurus, are studied. Metadata concepts, definitions, types and attributes are presented and syntax and interoperability are the focal point in the identified metadata schemes. The results refer to metadata use mapping in Brazil and abroad, stressing the Dublin Core. The conclusion points out metadata knowledge and use in Brazil, specially Mark and Dublin Core / Análise de metadados no exterior e no Brasil, tendo a catalogação, classificação e indexação como fundamentos teóricos e técnicos, nas suas interrelações, e com foco nos sistemas de recuperação da informação, acompanhados na sua trajetória evolutiva desde sistemas manuais, automatizados até a Internet/Web. No ambiente virtual a recuperação da informação é estudada, com seus critérios de avaliação e instrumentos como esquemas de classificação bibliográfica, cabeçalhos de assuntos e tesauros. Os metadados são abordados nos seus conceitos, definições, tipos, características e funções e, nos esquemas identificados, a sintaxe e interoperabilidade são destacadas. Os resultados referem-se ao mapeamento de metadados no Brasil e em outros países, com ênfase no Dublin Core. As conclusões apontam o conhecimento de metadados e seu uso no Brasil, sobretudo o MARC e Dublin Core
178

Técnicas e arquitetura para captura de traços e execução especulativa / Tecnhiques and architecture for trace detection and speculative execution

Porto, João Paulo 17 August 2018 (has links)
Orientador: Guido Costa Souza de Araújo / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-17T08:05:03Z (GMT). No. of bitstreams: 1 Porto_JoaoPaulo_D.pdf: 1983380 bytes, checksum: edef40fbafe26ce2d849308b08daf786 (MD5) Previous issue date: 2011 / Resumo: É sabido que o modelo de desenvolvimento de micro-processadores baseado na extração de Instruction-Level Parallelism (ILP) de código sequencial atingiu seu limite. Encontrar soluções escaláveis e eficientes que permitam a manutenção de inúmeras instruções em execução simultaneamente tem se mostrado um desafio maior que o imaginado. Neste sentido, arquitetos e micro-arquitetos de computadores vêm buscando soluções alternativas para o desenvolvimento de novas arquiteturas. Dentre as soluções existentes, vêm ganhando força as baseadas na extração de Thread-Level Parallelism (TLP). Resumidamente, TLP é um tipo de paralelismo que tenta quebrar um programa sequencial em tarefas relativamente independentes entre si para executá-las em paralelo. TLP pode ser extraído por hardware ou software. Idealmente, uma solução híbrida deve ser utilizada, com o software realizando a identificação das oportunidades de extração de TLP, e com o hardware provendo suporte para execução do código gerado. Com tal solução de compromisso, o hardware fica livre da necessidade de especular, e o software pode trabalhar com maiores garantias. Nesta Tese, estudaram-se formas automáticas de paralelização e extração de TLP. Inicialmente, focou-se em traces dinâmicos de execução de programas sequenciais. Técnicas existentes (tais como MRET e Trace Trees) mostraram-se inapropriadas, de modo que desenvolveu-se uma nova técnica chamada Compact Trace Tree (CTT), que mostrou-se mais rápida que Trace Trees. Trace Tree (TT) também apresentam grande nível de especialização de código (tail duplication), característica ausente em MRET. Além de CTT, esta Tese apresenta Trace Execution Automata (TEA), um autômato que representa traces de execução. Esta representação revelou, em nossos experimentos, quase 80% de economia de espaço quando comparada com a representação usual. A seguir, o foco da Tese foi voltado para laços de execução e para paralelização estática de código sequencial através de Decoupled Software Pipeline (DSWP). Nosso primeiro resultado nesta direção, usando Java, mostrou claramente que sem nenhum suporte em hardware, a paralelização estática de programas poderia atingir um ganho de desempenho médio de 48% nas aplicações paralelizadas. Finalmente, a Tese propõe um modelo de execução paralelo baseado em DSWP que permite a consistência de dados entre as diversas threads de programas paralelizados. Apesar de não avaliar esta arquitetura completamente, os resultados iniciais são promissores. Além disso, o suporte necessário em hardware é simples e acomoda-se sobre o protocolo de coerência de cache existente, sem alterações sensíveis no processador / Abstract: The usual, Insturction-Level Parallelism (ILP)-oriented, microprocessor development model is known to have reached a hard-to-break limit. Finding scalable and efficient solutions that keep several instructions on-the-fly simultaneously has proven to be moredifficult than imagined. In this sense, computer architects and micro-architects have been seeking alternatives to develop new architectures. Among all, the TLP-based solutions are gaining strength. In short, TLP strives to break a sequential program into quasi-independent tasks in order to execute them in parallel. TLP can be extracted either by hardware or software. Ideally, a hybrid solution would be employed, with the software being responsible to identifying TLP opportunities, and the hardware offering support for the parallel code execution. With such solution, the hardware is free from the heavy speculation burden, whilst the software can be parallelized with more warranties. In this Thesis, automatic parallelization and TLP strategies were studied. The research first focused on dynamic execution traces. Existing techniques, such as MRET and Trace Trees proved unsuitable for our goals, which led us to develop a new trace identification technique called Compact Trace Trees, which showed to be faster than Trace Trees. Compact Trace Trees also present trace specialization, which MRET lacks. Besides Compact Trace Trees, this Thesis presents a new trace representation called Trace Execution Automata, an automaton representing the execution traces. This technique revealed nearly 80% memory size savings when compared to the usual, code duplication representation. Next, the Thesis' focus shifted to parallelizing loops statically. Our initial result in this direction, using Java and without any hardware support, clearly revealed that static parallelization of sequential programs could reach a 48% average speedup when compared to their sequential execution. Finally, a new, Decoupled Software Pipelining-based execution model with automatic data coherence amongst parallelized programs'threads is proposed by the Thesis. Despite the lack of a full model evaluation, the initial results are promising. Differently from other proposals, the hardware support necessary for this architecture is simple and builds upon the existing cache coherence protocol, without any modifications to this sensitive system component / Doutorado / Doutor em Ciência da Computação
179

Jemadarius : uma WEB-API autoconfigurável para a internet das coisas

Barros, Eric Bernardes Chagas 24 February 2015 (has links)
Due to the fast growth of the Internet of Things, many concepts of distributed systems need to be adapted to this new paradigm. Concepts such as autonomic computing, context awareness and adaptability should be incorporated into devices, while maintaining the level of energy consumption and use of acceptable memory. They also need to receive support from larger and robust computer systems due to the large amount of data that needs to be transmitted in these pervasive computing systems. This work performs the implementation of an autonomic system emphasizing the self-configuration of devices and aided by cloud computing through a Web-API that was developed for this purpose. The results were obtained from tests performed on Z1 device with the help of the Contiki, running inside Cooja simulator. The results revealed that there is an overflow of the code developed for the tested devices, but with some adjustments you can get a good level of energy consumption and it is possible to reach the self-configuration of devices on the Internet of Things. / Devido ao rápido crescimento da Internet das Coisas, muitos conceitos de sistemas distribuídos precisam ser adaptados a esse novo paradigma. Conceitos como computação autonômica, sensibilidade ao contexto e adaptabilidade devem ser incorporados aos dispositivos, mas mantendo o nível de consumo de energia e utilização de memória aceitável. Além disso, também precisam receber o apoio de sistemas computacionais maiores e robustos devido à grande quantidade de dados que necessitam serem trafegados nesses sistemas computacionais pervasivos. Este trabalho realiza a implementação de um sistema autonômico dando ênfase à autoconfiguração dos dispositivos e auxiliados pela computação nas nuvens através de uma Web-API que foi desenvolvida com esse propósito. Os resultados encontrados foram obtidos com testes realizados no dispositivo Tmotesky e Z1 com o auxílio do Contiki, rodando dentro do simulador Cooja. Os resultados conseguidos revelaram que existe um overflow do código desenvolvido para os dispositivos testados, mas que com adaptações é possível obter um bom nível de consumo de energia e que é possível alcançar à autoconfiguração de dispositivos na Internet das Coisas.
180

Estrategias numericas para solução de modelos de não-equilibrio para absorção gasosa com reações quimicas complexas (regime estacionario e dinamico)

Carvalho, Frede de Oliveira 31 August 2000 (has links)
Orientador: João Alexandre Ferreira da Rocha Pereira / Tese (doutorado) - Universidade Estadual de Campinas. Faculdade de Engenharia Quimica / Made available in DSpace on 2018-07-27T04:51:19Z (GMT). No. of bitstreams: 1 Carvalho_FrededeOliveira_D.pdf: 7412225 bytes, checksum: b0f8f7e3c4c3ce4ab25289e0c28f336a (MD5) Previous issue date: 2000 / Resumo: A absorção com reações químicas é muito comum em processos de separação industriais. Os tradicionais modelos de estágios de equilíbrio têm sido o principal caminho para o projeto e a simulação, no regime estacionário e não-estacionário, dos equipamentos para o contato gás-líquido. Os modelos de não-equilíbrio apresentam uma descrição mais realística do processo de interação gás-líquido. Nestes modelos de não-equilíbrio, a obtenção das taxas de transferência de massa com reação química entre as fases gás e líquido são muito importantes. No presente trabalho são desenvolvidas e investigadas estratégias numéricas aplicadas a modelos de não-equilíbrio da absorção acompanhada por reações químicas complexas numa coluna de pratos, em ambos regimes, estacionário e não-estacionário. Para isto, considera-se uma coluna de pratos de dimensões industriais na absorção do dióxido de carbono por uma solução de Monoetanolamina (MEA) e Dietanolamina (DEA) (reações paralelas competitivas) . O modelo de não-equilíbrio desenvolvido (modelo de duas fases) é formado pelas equações referentes a fases gás, fase líquido e a modelos ou teorias para descrição da transferência de massa com reação entre as fases. O cálculo dos fluxos de transferência de massa entre as fases em cada estágio da coluna requer a complexa solução de um sistema de equações diferenciais acopladas ordinárias (e muitas vezes parciais), referentes a considerar-se o fenômeno de transferência representado respectivamente, pela teoria de duas resistências (considerando o regime estacionário) ou o modelo do filme-penetração (regime não-estacionário). Na estratégia numérica desenvolvida para o modelo baseado na teoria de duas resistências, utilizou-se a colocação ortogonal spline com um único ponto spline , e um único ponto no segundo elemento. Esta metodologia é também utilizada na solução das equações diferenciais parciais não-lineares acopladas, originadas do modelo em regime não-estacionário (modelo do filme-penetração). Esta última estratégia envolve a conversão das equações diferenciais parciais (EDP's) em equações diferenciais ordinárias EDO' s (Métodos das Linhas com a colocação ortogonal spline) e utiliza a subrotina DASSL (petzold,1989) para a solução do sistema de equações algébricas diferenciais (EAD's) formado. Na estratégia numérica desenvolvida para simulação no regime estacionário, do equipamento de contato gás-líquido (coluna completa), a teoria de duas resistências (fluxos mássicos entre as fases) foi considerada. Nesta estratégia os fluxos de massa entre as fases e as fases gás e líquido são tratadas separadamente (modelo de duas fases). As equações correspondentes a teoria de duas resistências foram resolvidas utilizando a colocação ortogonal "spline" com o método de Newton-Raphson para solução do sistema algébrico não-linear gerado. Os balanços de massa das fases gás e líquido foram resolvidos utilizando respectivamente o método de Runge-Kutta e a solução de equações algébricas derivadas da estequiométria das reações para a fase líquida. Para superar a demanda computacional exigida na solução dos modelos de nãoequilíbrio, foi introduzida e investigada uma metodologia que envolve o desenvolvimento de uma Rede Neural para obter os fluxos mássicos entre as duas fases em cada estágio. A Rede Neural (treinada com dados simulados de fluxos mássicos entre as fases gás e líquido) foi acoplada ao sistema de equações para a fase gás e líquido (modelo de duas fases), resultando este conjunto de equações em um modelo denominado de neural-híbrido. O sistema de equações algébricos diferenciais (EAD's) originados com esta estratégia numérica, para o modelo completo da coluna no regime dinâmico, foi resolvido com a utilização da subrotina LSODAR . Os resultados obtidos indicaram que, no futuro, as estratégias desenvolvidas poderão ser utilizadas na otimização e controle de processos de absorção gás-líquido com reações químicas / Abstract: Gas absorption with chemical reactions is a very common industrial separation processo Until now the traditional equilibrium stage model have been the main tools to the design and unsteady state simulations of the gas-liquid contact equipment. The nonequilibrium model based on mass transfers' fundamentais presents a more realistic description of the gas-liquid interaction processo In the Non-equilibrium model, is very important the description of mass transfers of gas-liquid interface in both, unsteady and steady state. The present work shows numerical strategies to solve a non-equilibrium model of absorption accompanied by complex chemical reaction on plate columns in both, unsteady and steady state. The absorption of carbon dioxide in aqueous solution of MEA and DEA (parallel chemical reactions) in an industrial plate column was considered. The Non-equilibrium model (two phasis model) is formed of models or theory for interfacial fluxes description and bulk phasis equations at each stage (gas and liquid). The mass transfer rate between the two phases in each stage of the column requires the complex solution of a system of simultaneous coupled ordinary (and perhaps partial) differential equations. In the numerical strategy for solving the two-resistance theory (twofilm model), The solution of the set of equations was obtained using a computational scheme though orthogonal collocation on finite elements (spline collocation) with one point spline and with one point in the second element. Also this methodology is applied to the solution of nonlinear-coupled partial differential equations considering unsteady state mo deI ( film-penetration model ) for mass-transfer at interface. The last application involves the conversion ofthe PDEs to ODEs (method oflines) and the use ofthe DASSL solver (Petzold, 1989) for the nonlinear differential and algebraic equation (DAE) system. In the numerical strategy for solving the steady state simulations of this gas-liquid contact equipment ( complete column), the two-resistance theory was considered. In this numerical algorithms the film and the bulk phase's equations are treated separately. The equations for the two-resistance theory was solved using spline orthogonal collocation type of discretization schemes with Newton-Raphson method for solving the nonlinear algebraic system created. The bulk phase's balances were solved using the fourth-order Runge-Kutta method for gas phase and algebraic equation system from mass balance for liquid phase. The aim of this work is to present an altemative way to overcome the computational demand and slowness to solve the non-equilibrium models for both the unsteady and steady state. The methodology involves the development of the neural networks to obtain the mass flux between the two phases in each stage. The neural networks coupled to the equation system for each bulk phase in each stage result in a hybrid-neural model. The differential and algebraic equation (DAE) systems also created with these numerical strategies for the complete columns model was also solved with LSOLDAR The last numerical strategies explain and investigated in this work proved to be useful, requires little computational demand with results agreement with the literature data. This strategy is more efficient than others when considering the computational time. The numerical strategies explain and investigated in this work proved that is not impossible use the non-equilibrium model in study of Gas absorption with chemical reactions. This fact could be a good reason for future use of those strategies in optimization and control of absorption process / Doutorado / Sistemas de Processos Quimicos e Informatica / Doutor em Engenharia Química

Page generated in 0.0908 seconds