• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8754
  • 46
  • 2
  • Tagged with
  • 8802
  • 8802
  • 8802
  • 8802
  • 1982
  • 1921
  • 1921
  • 1841
  • 1318
  • 1226
  • 1195
  • 1056
  • 881
  • 790
  • 583
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Escalonamento est?tico de processos de aplica??es paralelas MPI em m?quinas agregadas heterog?neas com aux?lio de hist?ricos de monitora??o

Caringi, Augusto Mecking 19 January 2006 (has links)
Made available in DSpace on 2015-04-14T14:50:21Z (GMT). No. of bitstreams: 1 380878.pdf: 1375038 bytes, checksum: 4a0949656d8c8c055a95425d6e4ae376 (MD5) Previous issue date: 2006-01-19 / Em um sistema de processamento paralelo heterog?neo, a redu??o do tempo de resposta das aplica??es pode ser alcan?ada se for levada em considera??o a natureza heterog?nea do ambiente computacional. Este trabalho enquadra-se neste contexto e descreve o modelo cujo objetivo ? otimizar o desempenho de aplica??es paralelas MPI executadas sobre m?quinas agregadas heterog?neas. Para isto, desenvolve-se uma estrat?gia de escalonamento global dos processos que comp?em a aplica??o, a qual visa realizar um mapeamento equilibrado de processos aos n?s no in?cio da execu??o (est?tico), de modo a balancear a carga e tendo por conseq??ncia a minimiza??o do tempo de execu??o. Isto se d? de forma transparente ao usu?rio e ? gradativamente refinado ao longo das execu??es da aplica??o, atrav?s de um ciclo de adapta??o apoiado pela an?lise autom?tica de informa??es de monitora??o obtidas em execu??es pr?vias da mesma. Para avaliar o modelo, foi desenvolvida uma ferramenta que implementa o m?todo proposto. Esta ferramenta foi instalada e configurada no Centro de Pesquisa em Alto Desempenho (CPAD) localizado na PUCRS e uma an?lise de algumas aplica??es paralelas executadas atrav?s da ferramenta, no agregado principal do CPAD, ? apresentada.
62

Qualidade de servi?o em redes intra-chip : implementa??o e avalia??o sobre a rede Hermes

Mello, Aline Vieira de 16 January 2007 (has links)
Made available in DSpace on 2015-04-14T14:50:23Z (GMT). No. of bitstreams: 1 391995.pdf: 1694229 bytes, checksum: ee45120ceb9e6be4fdb62fcce97ad619 (MD5) Previous issue date: 2007-01-16 / A proposi??o de redes intra-chip (NoCs) para futuros e modernos sistemas embarcados baseia-se no fato de que barramentos apresentam degrada??o do desempenho quando compartilhados por um grande n?mero de n?cleos. Mesmo a pesquisa de NoCs sendo um campo relativamente novo, a literatura possui muitas proposi??es de arquiteturas de tais redes. Muitas destas proposi??es objetivam prover garantias de qualidade de Servi?o (QoS), o que ? essencial para aplica??es de tempo real e multim?dia. O m?todo mais amplamente usado para obter algum grau de garantia de QoS ? dividido em duas etapas. A primeira etapa ? caracterizar a aplica??o atrav?s da modelagem de tr?fego e simula??o. A segunda etapa consiste em dimensionar uma determinada rede para alcan?ar garantias de QoS. Projetos de NoCs destinados a atender QoS usualmente prov?em estruturas especializadas para permitir ou a cria??o de conex?es (chaveamento por circuito) ou a defini??o de prioridades para fluxos sem conex?o. ? poss?vel identificar tr?s desvantagens neste m?todo de duas etapas. Primeiro, n?o ? poss?vel garantir QoS para novas aplica??es que venham a ser executadas no sistema, se estas s?o definidas depois da fase de projeto da rede. Segundo, mesmo com garantias de lat?ncia fim-a-fim, m?todos sem o estabelecimento de conex?o podem introduzir jitter. Terceiro, modelar tr?fego precisamente para uma aplica??o complexa ? uma tarefa muito dif?cil. Se este problema ? contornado pela simplifica??o da fase de modelagem, erros podem ser introduzidos, conduzindo a uma parametriza??o da NoC pobremente adaptada para atender ? QoS requerida. Este documento tem dois principais objetivos. O primeiro ? avaliar o compromisso ?rea-desempenho e as limita??es do chaveamento por circuito e do escalonamento baseado em prioridades para prover QoS. Esta avalia??o mostra quando tais implementa??es s?o realmente apropriadas para atender requisitos de QoS, e quando mecanismos mais elaborados s?o necess?rios. O segundo objetivo ? propor o uso de um escalonamento baseado em taxas para atender requisitos de QoS, considerando o estado da NoC em tempo de execu??o. A avalia??o do chaveamento por circuito e do escalonamento baseado em prioridades mostra que: (i) chaveamento por circuito pode garantir QoS somente para um pequeno n?mero de fluxos; esta t?cnica apresenta baixa escalabilidade e pode desperdi?ar largura de banda; (ii) escalonamento baseado em prioridades pode apresentar comportamento melhor esfor?o e, em situa??es de pior caso, pode conduzir a uma lat?ncia inaceit?vel para fluxos de baixa prioridade, al?m de ser sujeito a jitter. Por estas limita??es, o escalonamento baseado em taxas surge com uma op??o para melhorar o desempenho de fluxos QoS quando cen?rios de tr?fego vari?veis s?o usados.
63

Os impactos da revolução digital na indústria da comunicação / The impact of the digital revolution in communication industry

Villegas, Greicy Marianne Lopes Guimarães Cahuana 21 September 2016 (has links)
Submitted by Filipe dos Santos (fsantos@pucsp.br) on 2016-11-24T16:02:57Z No. of bitstreams: 1 Greicy Marianne Lopes Guimarães Cahuana Villegas.pdf: 7059904 bytes, checksum: 144c08c88bb929dfc87ce788f786ea8d (MD5) / Made available in DSpace on 2016-11-24T16:02:57Z (GMT). No. of bitstreams: 1 Greicy Marianne Lopes Guimarães Cahuana Villegas.pdf: 7059904 bytes, checksum: 144c08c88bb929dfc87ce788f786ea8d (MD5) Previous issue date: 2016-09-21 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / With the technological advances of the last decade, sets up a new world. In this new scenario, change people and their daily life, mediated by new tools. New modes of interaction bring with them new possibilities, as well as new challenges. The research object deals with the advertising hybridization process, combined with the interactivity and distribution possibilities via sharing. We had as objective to describe and analyze the breaks of the current advertising model, the transitions of creative and production processes and trends in the communications industry in their new settings. The panorama of the advertising market is moving. On one side advertisers seeing their investments in communication falling in efficacy compared to a few decades ago and demanding new solutions to their agencies. On the other agencies, which until the other day felt comfortable to hold campaigns in the traditional format, looking for these new solutions, It is not enough to combine more creativity to the purchase of space on TV channels most watched and magazines wider audience. Today every advertising agency is faced with the same challenge: to create integrated campaigns in different formats involving multiple digital tools, that add value to the brand and reach a consumer increasingly demanding and participatory. In view of this we have the following cases: media convergence and the interactions of the media environment generate new advertising settings, incorporation into the advertising language elements such as entertainment and interactivity lead to hybridization between those elements and the original functions of advertising, which are to inform and persuade; the hybridization strategies of advertising language lead in persuade, making it a new media product, advertising entertainment and interactive advertising. In the investigation of these hypotheses in the fundamentals in various theoretical concepts and authors such as Pierre Lévy, Henry Jenkins, Martha Gabriel, Ricardo Ramos, Rogério Covaleski. There is much to be done so that the full potential of interactive media is maximized by agencies and advertisers. These need to be alert the changes that are occurring and prepared to adapt their services to this new reality, acting with competence and effectiveness. Competitive advantage will be in the hands of those who mobilize in order to meet new market demands .So, to win the market is crucial both the training of professionals who provide specialized services for advertising agencies, as the appropriate technologies for the use of interactive language. Some advertising agencies in Brazil are already adjusting to the changes required by digital technologies, thus bring cases of successful placements that take advantage of the great potential of these media / Com os avanços tecnológicos da última década, configura-se um novo mundo. Neste novo cenário, mudam as pessoas e o seu dia a dia, mediado por novas ferramentas. Novos modos de interação trazem consigo novas possibilidades, tanto quanto novos desafios. O objeto de pesquisa trata sobre o processo de hibridização da propaganda, aliadas à interatividade e às possibilidades de distribuição via compartilhamento. Tivemos como objetivos descrever e analisar as rupturas do modelo publicitário vigente, as transições de processos criativos e produtivos e as tendências na indústria da comunicação, em suas novos formatos. O panorama do mercado publicitário é de movimento. De um lado, anunciantes vendo seus investimentos em comunicação caindo em eficácia em comparação a algumas décadas atrás e exigindo novas soluções de suas agências. De outro lado agências, que até outro dia sentiam-se confortáveis em realizar campanhas no formato tradicional, procurando essas tais novas soluções, pois não basta mais aliar criatividade à compra de espaços em canais de TV de maior audiência e revistas de maior público. Hoje toda agência de publicidade depara-se com o mesmo desafio: criar campanhas integradas, em formatos diferenciados que envolvam as múltiplas ferramentas digitais, que agreguem valor à marca e atinjam um consumidor cada vez mais exigente e participativo. Diante disto temos as seguintes hipóteses: a convergência midiática e as interações do ambiente midiático geram novas configurações publicitárias; a incorporação na linguagem publicitária de elementos como entretenimento e interatividade levam à hibridização entre aqueles elementos e as funções originais da publicidade, que são informar e persuadir; as estratégias de hibridização da linguagem publicitária levam-na a persuadir, entreter e interagir, concomitantemente, tornando-a um novo produto midiático, favorecendo ao mesmo tempo o entretenimento publicitário e a propaganda interativa. Na investigação destas hipóteses nos fundamentamos em diversos conceitos teóricos e autores como: Pierre Lévy, Henry Jenkins, Martha Gabriel, Ricardo Ramos, Rogério Covaleski. Há muito a ser feito para que todo o potencial das mídias interativas sejam aproveitados ao máximo pelas agências e anunciantes. Estes precisam estar atentos às mudanças que estão ocorrendo e preparados para adaptar seus serviços a esta nova realidade, atuando com competência e eficácia. A vantagem competitiva estará nas mãos daqueles que se mobilizarem no sentido de atender às novas demandas do mercado. Desta forma, para conquistar o mercado é fundamental tanto a capacitação dos profissionais que prestam serviços especializados para as agências de publicidade, quanto a adequação das tecnologias para a utilização da linguagem interativa. Algumas agências de publicidade no Brasil já estão se ajustando às transformações exigidas pelas tecnologias digitais, reunindo assim cases de sucesso de veiculações que aproveitam o grande potencial dessas mídias
64

Correção logarítmica no potencial Newtoniano e sua aplicação a galáxias espirais

Campos, Juliano Pereira 03 August 2007 (has links)
Made available in DSpace on 2016-12-23T14:20:01Z (GMT). No. of bitstreams: 1 Dissertacao_JULIANO.pdf: 763669 bytes, checksum: 11338cd37be8259b36f7d082711b3ff7 (MD5) Previous issue date: 2007-08-03 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Uma caracterização bem elaborada das massas das galáxias é de fundamental importância para entendermos a formação e a evolução das galáxias, assim como o Universo. A velocidade circular das galáxias espirais é utilizada para estimar a massa das galáxias. Os dados observacionais das curvas de rotação mostram que as velocidades circulares permanecem praticamente constantes, mesmo a grandes distâncias do centro galáctico onde a influência da matéria luminosa é muito atenuada. Com essa constatação observacional, origina-se um dos problemas mais controvertidos das astrofísicas galáctica e extra-galáctica: o que causaria esse fenômeno. Alguns pesquisadores tentam solucionar o problema da planitude das curvas de rotação adicionando uma componente extra de matéria, a matéria escura; outros pesquisadores propõem uma correção no potencial gravitacional Newtoniano. Apresentamos neste trabalho, uma correção logarítmica no potencial gravitacional Newtoniano como uma alternativa de explicação do problema da planitude das curvas de rotação, sem a necessidade de acrescentar matéria escura. Além disso, a estrutura logarítmica da correção abre possibilidade de conexão com a teoria de cordas cósmicas. Apesar de utilizarmos uma distribuição simplificada de massa - tipo disco, os resultados analíticos obtidos no presente trabalho mostram uma excelente concordância com os dados observacionais das curvas de rotação da maioria das galáxias LSB analisadas. Esses resultados nos incentivam a investir na sofisticação do modelo. / A well elaborated characterization of the masses of the galaxies is of basic importance to understand the formation and the evolution of the galaxies, as well as the Universe. The circular speed of the spiral galaxies is used to estimate the mass of the galaxies. The observacional data of the rotation curves exactly show that the circular speeds practically remain constant at large distances of the galactic center, where the influence of the luminous mass is very attenuated. With this observacional evidence, of originates one of the controvertial problems of astrophysics galactic and the extra-galactic: what it could cause this phenomenon? Some researchers try to solve the problem of the flattenning of the rotation curves adding one extra component of mass, the dark matter; other researchers consider a correction in the Newtonian gravitational potential. We present in this work, a logarithmic correction in the Newtonian gravitational potential as an alternative for the explanation of the problem of the flattenning of the rotation curves without the necessity to add dark matter. Moreover, the logarithmic structure of the correction opens possibility of connection with the theory of cosmic strings. Although the use of a simplified disk mass distribution, the obtained analytical results in the present work show to an excellent agreement with the observational data of the curves of rotation of the majority of analyzed galaxies LSB. These results stimulate to invest in the sophistication of the model.
65

O efeito da largura de Fetch no desempenho das arquiteturas super escalar, trace cache e DTSVLIW

Freitas, Christian Daros de 29 October 2003 (has links)
Made available in DSpace on 2016-12-23T14:33:33Z (GMT). No. of bitstreams: 1 dissertacao.pdf: 525748 bytes, checksum: d81fee4d754843c091457bdd3b0ce230 (MD5) Previous issue date: 2003-10-29 / Superscalar machines fetch multiple scalar instructions per cycle from the instruction cache. However, machines that fetch no more than one instruction per cycle from the instruction cache, such as Dynamically Trace Scheduled VLIW (DTSVLIW) machines, have shown performance comparable to that of Superscalars. In this paper we present experiments which show that fetching a single instruction from the instruction cache per cycle allows the same performance achieved fetching multiple instructions per cycle thanks to the execution locality present in programs. We also present the first direct comparison between the Superscalars, Trace Cache and DTSVLIW architectures. Our results show that a DTSVLIW machine capable of executing up to 16 instructions per cycle can perform 21.9% better than a Superscalar and 6.6% better than a Trace Cache with equivalent hardware. In the comparison between a DTSVLIW machine and an Alpha 21264 machine, we have shown that the DTSVLIW can perform 24,17% better than Alpha using integer programs, and 60,36% better than Alpha using floating point programs. / Máquinas Super Escalares trazem múltiplas instruções escalares da cache de instruções por ciclo. Contudo, máquinas que buscam na cache de instruções apenas uma instrução escalar por ciclo de relógio têm demonstrado níveis de desempenho comparáveis aos de máquinas Super Escalares, como é o caso de máquinas que seguem a arquitetura Dynamically Trace Scheduled VLIW (DTSVLIW). Neste trabalho, é mostrado através de experimentos que basta trazer uma instrução escalar por ciclo de máquina da cache de instruções para atingir praticamente o mesmo desempenho obtido trazendo várias instruções por ciclo graças à localidade de execução existente nos programas. Fazemos, também, a primeira comparação direta entre as arquiteturas Super Escalar, Trace Cache e DTSVLIW. Os resultados dos experimentos mostram que uma máquina DTSVLIW, capaz de executar até 16 instruções por ciclo, tem desempenho 21.9% superior que uma Super Escalar hipotética e 6.6% superior que uma Trace Cache com hardware equivalente. Quando comparada com uma máquina Alpha 21264, a máquina DTSVLIW apresenta um desempenho 24,17% superior, para os programas inteiros e, 60,36% superior, para os programas de ponto flutuante do SPEC2000.
66

Infraware: um middleware de suporte a aplicações sensíveis ao contexto

Pessoa, Rodrigo Mantovaneli 20 October 2006 (has links)
Made available in DSpace on 2016-12-23T14:33:36Z (GMT). No. of bitstreams: 1 dissertacao.pdf: 1887742 bytes, checksum: f51c09ec0938d73cd3ba9127f01996a1 (MD5) Previous issue date: 2006-10-20 / New mobile computing technologies and the increasing use of portable devices make computers more present on human life activities with each passing day. This favors the rising of a new computing paradigm: the Ubiquitous Computing. In this scenario, context-aware mobile applications stand out among others, improving user interaction by supporting new adaptive behavior according to context changes. Recent research points out the need for developing specialized middleware infrastructure for the management of dynamic contextual information. These new infrastructures provide the adequate facilities for the development of a large range of contextaware mobile applications, in several domains. This work proposes the design of a middleware to support the development and execution of context-aware applications. The architecture is defined by using relevant functional requirements of this new class of applications. Related aspects of the middleware s main components are presented. This work also presents the design and implementation of an essential component of the proposed middleware, responsable for the inference of new context information and context perception. / O desenvolvimento de novas tecnologias de computação móvel e o crescente emprego de dispositivos portáteis têm tornado a computação cada vez mais presente na realização de diversas atividades humanas, favorecendo o surgimento de um novo paradigma computacional: a Computação Ubíqua. Nesse novo cenário, destacam-se as aplicações móveis sensíveis ao contexto, que aprimoram a interação com os seus usuários ao se beneficiarem do uso de informações contextuais. Pesquisas recentes destacam a necessidade do desenvolvimento de infra-estruturas especializadas de middleware para o gerenciamento de informações contextuais dinâmicas. Essas novas infra-estruturas fornecem facilidades adequadas ao desenvolvimento de uma ampla variedade de aplicações móveis, sensíveis ao contexto, em domínios diversos. Este trabalho propõe uma arquitetura de middleware para suporte ao desenvolvimento e execução de aplicações móveis sensíveis ao contexto. A arquitetura é definida a partir do levantamento de requisitos funcionais representativos para essa nova classe de aplicações. Aspectos relacionados aos principais componentes da arquitetura são apresentados. O trabalho também apresenta o projeto e implementação de um dos componentes essenciais da arquitetura proposta, responsável pela inferência de novas informações contextuais e pela percepção de contexto.
67

A geometria hiperbólica e sua consistência

Terdiman, Esther Wajskop 15 September 1989 (has links)
Made available in DSpace on 2016-04-27T16:58:35Z (GMT). No. of bitstreams: 1 Esther Wajskop Terdiman.pdf: 6034547 bytes, checksum: 0f8a98944513fb5f72fb5bc761c1cdc1 (MD5) Previous issue date: 1989-09-15 / Históricamente, sabemos que as tentativas infrutíferas da demonstração do Postulado das Paralelas de Euclides levaram à conclusão da independência desse axioma. O trabalho de Saccheri, nesse sentido, partindo da demonstração por absurdo da famosa proposição, resultou no aparecimento dos primeiros teoremas básicos da Geometria não-Euclidiana. Nosso propósito é fazer uma exposição axiomática da Geometria Hiperbólica, com demonstração de todos teoremas necessários a esse estudo. A seguir, verificamos a consistência do sistema axiomático relativamente a um plano Euclidiano, utilizando para isso a inversão em relação à circunferência, bem como introduzindo os conceitos de razão dupla, quádruplas harmônicas e perspectividade, para justificar a construção das paralelas-limite de Janos Bolyai. A consistência esta apresentada por meio do primeiro modelo de Poincaré, por isomorfismo.
68

Inversão de dados eletromagnéticos com o regularizador Variação Total e o uso da matriz de sensibilidade aproximada

LUZ, Edelson da Cruz 20 December 2012 (has links)
Submitted by Cleide Dantas (cleidedantas@ufpa.br) on 2014-05-22T12:11:30Z No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Tese_InversaoDadosEletromagneticos.pdf: 3113358 bytes, checksum: 5be6334b23281e76cdc2db18d5c271cd (MD5) / Rejected by Irvana Coutinho (irvana@ufpa.br), reason: Indexar assuntos on 2014-08-06T16:08:31Z (GMT) / Submitted by Cleide Dantas (cleidedantas@ufpa.br) on 2014-08-28T16:30:54Z No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Tese_InversaoDadosEletromagneticos.pdf: 3113358 bytes, checksum: 5be6334b23281e76cdc2db18d5c271cd (MD5) / Approved for entry into archive by Irvana Coutinho (irvana@ufpa.br) on 2014-09-10T16:56:49Z (GMT) No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Tese_InversaoDadosEletromagneticos.pdf: 3113358 bytes, checksum: 5be6334b23281e76cdc2db18d5c271cd (MD5) / Made available in DSpace on 2014-09-10T16:56:49Z (GMT). No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Tese_InversaoDadosEletromagneticos.pdf: 3113358 bytes, checksum: 5be6334b23281e76cdc2db18d5c271cd (MD5) Previous issue date: 2012 / ANP - Agência Nacional do Petróleo / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Neste trabalho apresentamos um estudo da aplicação do regularizador “Variação Total” (VT) na inversão de dados geofísicos eletromagnéticos. O regularizador VT reforça a proximidade entre os parâmetros adjacentes, mas, quando a influência de uma descontinuidade é sentida nos dados, este permite mudanças abruptas sobre os parâmetros. Isso faz com que o método seja uma alternativa válida, quando os dados observados usados na inversão provém de um ambiente geológico com uma distribuição suave de condutividade, mas que pode apresentar descontinuidades em lugares como as interfaces entre as camadas geoelétricas, como na margem de uma zona de óleo ou de um corpo de sal, que podem ser zonas muito resistivas no interior de sedimentos condutivos. Quando, devido a baixa resolução nos dados, o método não tem informações o suficiente para identificar a interface, o regularizador variação total reforça a proximidade entre os parâmetros adjacentes fazendo um transição suave entre as condutividades camadas, da mesma forma que é apresentado pela suavidade global. O método de Variação Total permite que modelos menos suaves sejam alcançados porque na norma L1 a medida de desajuste entre os pares de parâmetros adjacentes, dará o mesmo valor se a variação dos parâmetros é suave ou se a variação é abrupta, o que não é o caso se o mesmo desajuste é medido na norma L2, pois em uma distribuição suave a medida do desajuste é menor, sendo assim favorecida pela minimização desta norma. O uso deste regularizador permite uma melhor estimativa do tamanho de um corpo, seja ele resistivo ou condutivo. O trabalho está apresentado na forma de três artigos, cada um descrevendo uma etapa no desenvolvimento do problema da inversão, seguindo uma sequência de complexidade crescente no problema direto. O primeiro artigo neste trabalho é intitulado “Inversão de dados do CSEM marinho 1D de meio estratificado anisotrópico com o regularizador Variação Total”. Este descreve o passo inicial no desenvolvimento do problema: a inversão de dados do CSEM marinho de modelos estratificados 1D com anisotropia na condutividade das camadas. Este problema se presta bem para este desenvolvimento, porque tem solução computacional muito mais rápida do que o 2D, e nele já estão presentes as características principais dos dados do método CSEM marinho, como a largura muito grande da faixa de amplitudes medidas em um levantamento, e a baixa resolução, inerente às baixas frequências empregadas. A anisotropia acrescenta uma dificuldade a mais no problema, por aumentar o nível de ambiguidade nos dados e demandar ainda mais informação do que no caso puramente isotrópico. Os resultados mostram que a aplicação dos vínculos de igualdade do método VT permite a melhor identificação de uma camada alvo resistiva do que a simples aplicação dos vínculos tradicionais de suavidade. Até onde podemos aferir, esta solução se mostra superior a qualquer outra já publicada para este problema. Além de ter sido muito importante para o desenvolvimento de códigos em paralelo. O segundo artigo apresentado aqui, “Inversão de dados Magnetotelúricos com o regularizador Variação Total e o uso da matriz de sensibilidade aproximada”, trata da inversão de dados do método Magnetotelúrico em ambientes 2D. Este problema demanda um esforço computacional muito maior do que o primeiro. Nele, estudamos a aplicação do método dos estados adjuntos para gerar uma boa aproximação para as derivadas necessárias para a construção da matriz de sensibilidade usada na inversão. A construção da matriz de sensibilidade é a etapa que demanda mais tempo no processo de inversão, e o uso do método de estados adjuntos foi capaz de reduzir muito este tempo, gerando derivadas com um bom nível de aproximação. Esta etapa da pesquisa foi fundamental pelo problema direto ser matematicamente e computacionalmente muito mais simples do que o do CSEM marinho 2D. Novamente em comparação com a aplicação do regularizador de suavidade global, o regularizador de Variação Total permitiu, neste problema, uma melhor delimitação das bordas de heterogeneidades bidimensionais. A terceira parte deste trabalho, apresentada no artigo “Inversão de dados do CSEM marinho 2.5D com o regularizador Variação Total e o uso da matriz de sensibilidade aproximada”, apresenta a apliação do método de Variação Total ao problema da inversão de dados CSEM marinho 2.5D. Usamos o método dos estados adjuntos para gerar uma boa aproximação para as derivadas necessárias para a construção da matriz de sensibilidade usada na inversão, acelerando assim o processo de inversão. Para deixar o processo de inversão ainda mais rápido, lançamos mão da programação em paralelo com o uso de topologia. A comparação entre a aplicação do regularizador de suavidade global, e o regularizador de Variação Total permitiu, assim como nos casos anteriores, uma melhor delimitação das bordas de heterogeneidades bidimensionais.
69

Interpolação de dados de campo potencial através da camada equivalente / The gridding of scattered potential field data using the equivalente layer technique

MENDONÇA, Carlos Alberto 15 September 1992 (has links)
Submitted by Cleide Dantas (cleidedantas@ufpa.br) on 2014-05-23T12:48:16Z No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Tese_InterpolacaoDadosCampo.pdf: 33808459 bytes, checksum: a7f6be55d96cfd7756e05cd531cf3d20 (MD5) / Rejected by Irvana Coutinho (irvana@ufpa.br), reason: Indexar os assuntos on 2014-08-07T16:15:10Z (GMT) / Submitted by Cleide Dantas (cleidedantas@ufpa.br) on 2014-08-28T13:13:13Z No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Tese_InterpolacaoDadosCampo.pdf: 33808459 bytes, checksum: a7f6be55d96cfd7756e05cd531cf3d20 (MD5) / Approved for entry into archive by Irvana Coutinho (irvana@ufpa.br) on 2014-09-18T11:32:57Z (GMT) No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Tese_InterpolacaoDadosCampo.pdf: 33808459 bytes, checksum: a7f6be55d96cfd7756e05cd531cf3d20 (MD5) / Made available in DSpace on 2014-09-18T11:32:57Z (GMT). No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Tese_InterpolacaoDadosCampo.pdf: 33808459 bytes, checksum: a7f6be55d96cfd7756e05cd531cf3d20 (MD5) Previous issue date: 1992 / PETROBRAS - Petróleo Brasileiro S.A. / O uso da técnica da camada equivalente na interpolação de dados de campo potencial permite levar em consideração que a anomalia, gravimétrica ou magnética, a ser interpolada é uma função harmônica. Entretanto, esta técnica tem aplicação computacional restrita aos levantamentos com pequeno número de dados, uma vez que ela exige a solução de um problema de mínimos quadrados com ordem igual a este número. Para viabilizar a aplicação da técnica da camada equivalente aos levantamentos com grande número de dados, nós desenvolvemos o conceito de observações equivalentes e o método EGTG, que, respectivamente, diminui a demanda em memória do computador e otimiza as avaliações dos produtos internos inerentes à solução dos problemas de mínimos quadrados. Basicamente, o conceito de observações equivalentes consiste em selecionar algumas observações, entre todas as observações originais, tais que o ajuste por mínimos quadrados, que ajusta as observações selecionadas, ajusta automaticamente (dentro de um critério de tolerância pré-estabelecido) todas as demais que não foram escolhidas. As observações selecionadas são denominadas observações equivalentes e as restantes são denominadas observações redundantes. Isto corresponde a partir o sistema linear original em dois sistemas lineares com ordens menores. O primeiro com apenas as observações equivalentes e o segundo apenas com as observações redundantes, de tal forma que a solução de mínimos quadrados, obtida a partir do primeiro sistema linear, é também a solução do segundo sistema. Este procedimento possibilita ajustar todos os dados amostrados usando apenas as observações equivalentes (e não todas as observações originais) o que reduz a quantidade de operações e a utilização de memória pelo computador. O método EGTG consiste, primeiramente, em identificar o produto interno como sendo uma integração discreta de uma integral analítica conhecida e, em seguida, em substituir a integração discreta pela avaliação do resultado da integral analítica. Este método deve ser aplicado quando a avaliação da integral analítica exigir menor quantidade de cálculos do que a exigida para computar a avaliação da integral discreta. Para determinar as observações equivalentes, nós desenvolvemos dois algoritmos iterativos denominados DOE e DOEg. O primeiro algoritmo identifica as observações equivalentes do sistema linear como um todo, enquanto que o segundo as identifica em subsistemas disjuntos do sistema linear original. Cada iteração do algoritmo DOEg consiste de uma aplicação do algoritmo DOE em uma partição do sistema linear original. Na interpolação, o algoritmo DOE fornece uma superfície interpoladora que ajusta todos os dados permitindo a interpolação na forma global. O algoritmo DOEg, por outro lado, otimiza a interpolação na forma local uma vez que ele emprega somente as observações equivalentes, em contraste com os algoritmos existentes para a interpolação local que empregam todas as observações. Os métodos de interpolação utilizando a técnica da camada equivalente e o método da mínima curvatura foram comparados quanto às suas capacidades de recuperar os valores verdadeiros da anomalia durante o processo de interpolação. Os testes utilizaram dados sintéticos (produzidos por modelos de fontes prismáticas) a partir dos quais os valores interpolados sobre a malha regular foram obtidos. Estes valores interpolados foram comparados com os valores teóricos, calculados a partir do modelo de fontes sobre a mesma malha, permitindo avaliar a eficiência do método de interpolação em recuperar os verdadeiros valores da anomalia. Em todos os testes realizados o método da camada equivalente recuperou mais fielmente o valor verdadeiro da anomalia do que o método da mínima curvatura. Particularmente em situações de sub-amostragem, o método da mínima curvatura se mostrou incapaz de recuperar o valor verdadeiro da anomalia nos lugares em que ela apresentou curvaturas mais pronunciadas. Para dados adquiridos em níveis diferentes o método da mínima curvatura apresentou o seu pior desempenho, ao contrário do método da camada equivalente que realizou, simultaneamente, a interpolação e o nivelamento. Utilizando o algoritmo DOE foi possível aplicar a técnica da camada equivalente na interpolação (na forma global) dos 3137 dados de anomalia ar-livre de parte do levantamento marinho Equant-2 e 4941 dados de anomalia magnética de campo total de parte do levantamento aeromagnético Carauari-Norte. Os números de observações equivalentes identificados em cada caso foram, respectivamente, iguais a 294 e 299. Utilizando o algoritmo DOEg nós otimizamos a interpolação (na forma local) da totalidade dos dados de ambos os levantamentos citados. Todas as interpolações realizadas não seriam possíveis sem a aplicação do conceito de observações equivalentes. A proporção entre o tempo de CPU (rodando os programas no mesmo espaço de memória) gasto pelo método da mínima curvatura e pela camada equivalente (interpolação global) foi de 1:31. Esta razão para a interpolação local foi praticamente de 1:1. / The equivalent layer technique is an useful tool to incorporate (in the process of interpolation of potential field data) the constraint that the anomaly is a harmonic function. However, this technique can be applied only in surveys with small number of data points because it demands the solution of a least-squares problem involving a linear system whose order is the number of data. In order to make feasible the application of the equivalent layer technique to surveys with large data sets we developed the concept of equivalent data and the EGTG method. Basically, the equivalent data principle consists in selecting a subset of the data such that the least-squares fitting obtained using only this selected subset will also fit all the remaining data within a threshold value. The selected data will be called equivalent data and the remaining data, redundant data. This is equivalent to splitting the original linear systems in two sub-systems. The first one related with the equivalent data and, the second one, with the redundant data in such way that, the least-squares solution obtained by the first one, will reproduce all the redundant data. This procedure enables fitting all the measured data using only the equivalent data (and not the entire data set) reducing, in this way, the amount of operations and the demand of computer memory. The EGTG method optimizes the evaluation of dot products in solving least-squares problems. First, the dot product is identified as being a discrete integration of a known analytic integral. Then, the evaluation of the discrete integral is approximated by the evaluation of the analytic integral. This method should be applied when the evaluation of analytic integral needs less computational efforts than the discrete integration. To determine the equivalent data we developed two algorithms namely DOE and DOEg. The first one identifies the equivalent data of the whole linear systems while the second algorithm identifies the equivalent data in sub-systems of the entire linear systems. Each DOEg's iteration consists of one application of the DOE algorithm in a given subsystem. The algorithm DOE yields an interpolating surface that fits all data points allowing a global interpolation. On the other hand, the algorithm DOEg optimizes the local interpolation because it employs only the equivalent data while the other current algorithms for local interpolation employ all data. The interpolation methods using the equivalent layer technique was comparatively tested with the minimum curvature method by using synthetic data produced by prismatic source model. The interpolated values were compared with the true values evaluated from the source model. In all tests, the equivalent layer method had a better performance than the minimum curvature method. Particularly, in the case of bad sampled anomaly, the minimum curvature method does not recover the anomalies at the points where the anomaly presents high curvature. For data acquired at different levels, the minimum curvature method presented the worse performance while the equivalent layer produced very good results. By applying the DOE algorithm, it was possible to fit, using an equivalent layer model, 3137 gravity free-air data and 4941 total field anomaly data from the marine Equant-2 Project and the aeromagnetic Carauari-Norte Project, respectively. The DOEg algorithm was also applied in the same data sets optimizing the local interpolation. It is important to stress that none of these applications would have been possible without the concept of equivalent data. The ratio between CPU times (executing the programs with the same memory allocation) required by the minimum curvature method and the equivalent layer method in global interpolation was 1:31. This ratio was 1:1 in local interpolation.
70

Análise econômica da produção de biodiesel para a agricultura familiar no município de Corbélia-PR / Economical Analysis of biodiesel production for family agriculture in the municipality of Corbélia-PR

Borsoi, Augustinho 03 February 2012 (has links)
Made available in DSpace on 2017-07-10T15:14:42Z (GMT). No. of bitstreams: 1 Augustinho Borsoi.pdf: 1096663 bytes, checksum: 924a7bc21d838e8f033dbbd628a41ad1 (MD5) Previous issue date: 2012-02-03 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / This study aimed to assess the economic feasibility of biodiesel production in an associative form by family farmers from the municipality of Corbélia-PR. Biodiesel has proven to be a socio-economic and environmental alternative for the partial or total substitution of diesel oil due to its similar physicochemical characteristics. In Brazil, the biodiesel has great social appeal by the utilization of raw material that comes from family agriculture. However, the participation of family farmers acting directly in the transformation of vegetal oil into biodiesel still requires studies concerning to its economic feasibility. The present work was developed by means of a simulation, in order to verify the economic feasibility of the installation of a biodiesel plant able to produce 1000 L day-1 by family farmers. The raw material used for the extraction of oil were soy, sunflower, and canola, in the summer and winter crops, once that pies made of these oilseeds can be used to feed cattle. Cash flow, with expenses (output) and revenue (input) before and after the installation of the plant were elaborated. From the cash flow, it was possible to perform the economical analysis, by using the following as indicators: Net present value (NPV), Internal rate of return (IRR) and Payback period. The IRR for the project was 43%, the NPV was R$ 92,049.96 and the payback was 2.57 years. Based on these indicators, one can conclude that the production of biodiesel in association by the family farmers showed economic feasibility. It is also relevant to highlight the importance of interaction among the property s activities, by using pies to feed the cattle. / O estudo teve por objetivo avaliar a viabilidade econômica da produção de biodiesel de forma associativa por agricultores familiares do município de Corbélia-PR. O biodiesel apresenta-se como uma alternativa socioeconômica e ambiental para a substituição parcial ou total do óleo diesel, devido a suas características físico-químicas semelhantes. No Brasil, o biodiesel tem grande apelo social, uma vez que a matéria-prima utilizada para sua produção é oriunda da agricultura familiar. No entanto, a participação de agricultores familiares atuando diretamente na transformação de óleo vegetal em biodiesel ainda requer estudos quanto à sua viabilidade econômica. Este trabalho foi desenvolvido por meio de uma simulação, para verificar se a instalação de uma usina de biodiesel com capacidade para 1000 L dia-1 por agricultores familiares seria viável. Como matérias-primas para a extração de óleo foram utilizadas: soja, girassol e canola, nas safras de verão e inverno, já que a torta dessas oleaginosas pode ser utilizada na alimentação de bovinos de leite. Foram elaborados fluxos de caixa com os custos (saídas) e receitas (entradas) antes e depois da instalação da usina. A partir do fluxo de caixa, foi realizada a análise econômica, na qual foram usados como indicadores o valor presente líquido (VPL), a taxa interna de retorno (TIR) e o período de retorno de capital (payback). A TIR do projeto foi de 43%, o VPL, de R$ 92.049,96 e o payback, de 2,57 anos. Concluiu-se, a partir desses indicadores, que a produção de biodiesel em associação pelos agricultores familiares apresentou viabilidade econômica. Destacou-se, também, a importância da interação entre as atividades da propriedade, por meio do uso da torta para alimentação do gado de leite.

Page generated in 0.0397 seconds