• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 82
  • 49
  • 15
  • 5
  • 3
  • 3
  • 3
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 192
  • 56
  • 48
  • 47
  • 29
  • 19
  • 18
  • 17
  • 17
  • 16
  • 16
  • 16
  • 15
  • 15
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Estudo da dinâmica do fogo na área da Estação Ecológica Serra Geral do Tocantins: uso de técnicas de sensoriamento remoto

Costa, Jobherlane Farias 29 March 2018 (has links)
A presente pesquisa trata de uma análise da Estação Ecológica Serra Geral do Tocantins (EESGT) localizada entre os Estados do Tocantins e da Bahia, tendo como principal objetivo investigar a ação do fogo, antes e depois da sua criação, ou seja, entre os anos de 1998 e 2015. A metodologia utilizada foi o Sensoriamento Remoto com o qual aplicou-se diferentes técnicas que permitiram observar a ação do fogo com base nos Aspectos Regionais, NDVI, Focos de Calor e Cicatrizes do Fogo (queimadas e incêndios florestais) e a Recorrência destas áreas. Desta maneira, utilizou-se um conjunto de imagens de satélites Landsat Sensor -TM e Ressourcesat - 1, dos anos de 1998, 2001, 2007, 2012 e 2015, obtidas no período seco entre junho e outubro. Com os softwares QGis e ArcGIS® foi aplicado o Índice de Diferença de Vegetação Normalizado (NDVI) que permitiu a identificação de áreas atingidas pelo fogo, as quais foram aferidas ou confirmadas com a sobreposição dos focos de calor e observação visual de uma composição colorida (RGB) de imagem de satélite. No mesmo sentido, foi realizado uma classificação supervisionada de imagens de satélite, o que permitiu a identificação e o delineamento das cicatrizes de fogo e consequentemente, a ação do fogo na área de pesquisa. Entre os resultados obtidos, pode-se observar que no ano de 1998, a ação do fogo correspondeu a cerca de 50% de área, no ano de 2001 cerca de 46%, no ano de 2007 cerca de 68%, no ano de 2012 cerca de 54% e 2015 cerca de 41%. De maneira geral, pode-se observar uma redução da ação do fogo na área da EESGT nos últimos anos, o que pode estar associado“os fatores à diferentes formas” de manejo do fogo, o que precisa ser aprofundado com o andamento de novas pesquisas. Também foi possível observar, que anterior a criação da unidade, até o ano de 2001, os valores correspondentes a ação do fogo (50 e 46%) não reduziram, após a criação da unidade, no ano de 2007(68%) aumentaram. Porém, nos últimos anos ocorre uma redução da ação de fogo anos de 2012 e 2015 (54 e 41%), sendo um sinal positivo quanto a conservação do Cerrado e manutenção da função da unidade. / The present research deals with an analysis of the Estação Ecológica Serra Geral do Tocantins, located between the states of Tocantins and Bahia, with the main objective of investigating the fire action, before and after its creation, that is, between 1998 and 2015. The methodology used was the Remote Sensing with which different techniques were applied to observe the fire action based on the Regional Aspects, NDVI, Heat Sources and Fire Scars (burnings and forest fires) and Recurrence of these areas. A set of Landsat Sensor-TM and Ressourcesat-1 satellite images from 1998, 2001, 2007, 2012 and 2015 were obtained in the dry period between June and October. As the QGis and ArcGIS® software were applied Standardized Vegetation Difference Index (NDVI) that allowed the identification of areas affected by fire, which were measured or confirmed with the overlap of heat fires and visual observation of a color composition (RGB) satellite imagery. n the same direction a supervised classification of satellite images was carried out, which allowed the identification and the design of the fire scars and consequently the fire action in the research area. Among the results obtained, it can be observed that in 1998 the fire action corresponded to about 50% of area, in 2001 about 46%, in 2007 about 68%, in the year of 2012 about 54% and 2015 about 41%. In general, it can be observed a reduction of the fire action in the area of the EESGT in the last years, which may be associated the “factors to the different forms” of fire management, which needs to be deepened with the progress of new researches. It was also possible to observe that before the creation of the unit, until the year 2001, the values corresponding to the action of the fire (50 and 46%) did not reduce, after the creation of the unit, in the year of 2007 (68%) yes they increased. However, in recent years there has been a reduction in the fire action for the years 2012 and 2015 (54 and 41%), which is a positive sign for the conservation of the Cerrado and maintenance of the unit's function.
152

Variação do peso-normalizado pelo tamanho de foraminíferos planctônicos como proxy para avaliação de processos de dissolução durante os últimos 70 mil anos no Sudoeste do Atlântico

Mega, Aline Martins 16 August 2017 (has links)
Submitted by Biblioteca de Pós-Graduação em Geoquímica BGQ (bgq@ndc.uff.br) on 2017-08-16T16:46:32Z No. of bitstreams: 1 Mega, A. M..pdf: 4299230 bytes, checksum: 4ff04b898e1e7eebe891e2a5a4dfcd98 (MD5) / Made available in DSpace on 2017-08-16T16:46:32Z (GMT). No. of bitstreams: 1 Mega, A. M..pdf: 4299230 bytes, checksum: 4ff04b898e1e7eebe891e2a5a4dfcd98 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Universidade Federal Fluminense. Instituto de Química. Programa de Pós-Graduação em Geoquímica, Niterói, RJ / Os oceanos funcionam como um reservatório natural de carbono, no qual sua solubilidade na superfície dos oceanos varia de acordo com a temperatura. Antes do período industrial, as variações na concentração de CO2 atmosférico estavam fortemente associadas às transições glacial-interglacial (G-IG), onde os menores valores de CO2 na atmosfera foram registrados nos períodos glaciais, decorrente do aumento da solubilidade do CO2 nos oceanos. Nesses períodos, o aumento da solubilidade do CO2 na coluna d’água estimulou a produção de íons carbonato, beneficiando organismos que calcificam carbonato de cálcio (CaCO3) em suas conchas e esqueletos. O processo inverso, ou seja, menor solubilidade do CO2 e, consequentemente, menor disponibilidade de íons carbonatos nos oceanos marcou os períodos interglaciais. O presente estudo teve como objetivo avaliar os efeitos das variações no peso-normalizado pelo tamanho (do inglês, size-normalized weight, SNW) de foraminíferos planctônicos durante os últimos 70.000 anos no Sudoeste do Atlântico visando compreender os efeitos da calcificação e/ou dissolução do carbonato e da microestrutura das testas de foraminíferos planctônicos que viviam na porção superior da coluna d'água (G. ruber-white e G. sacculifer-sem saco). Para tanto, foi utilizado um testemunho coletado na Bacia de Santos a 2225 m de profundidade, que compreende os últimos 185 mil anos, dos quais os primeiros 70 mil anos foram estudados. Os resultados mostraram que ambas as espécies apresentaram um aumento do SNW na transição entre os períodos G-IG, associado com indícios de dissolução nas testas do período glacial, quando observada a microestrutura. Esses resultados demonstram a ação corrosiva das águas de fundo durante os glaciais e diferem dos obtidos em outros estudos realizados no Atlântico Norte que registram características menos corrosivas durante o último glacial em profundidades de até 3500 metros. A redução no peso das testas durante o período glacial foi atribuída à ação da dissolução dos carbonatos. A dissolução pode ocorrer abaixo da camada denominada lisoclina, porém apesar da grande mudança na profundidade da lisoclina durante os glaciais no Atlântico Sul, o testemunho, ainda assim, estaria 800 m acima da influência da lisoclina. Acima da lisoclina, a dissolução dos carbonatos pode ocorrer por diversos outros fatores, tais como pelo aumento da geração de CO2 pela atividade bentônica durante eventos de aumento de produtividade. Essa atividade bentônica tornaria a camada da interface água-sedimento corrosiva às estruturas carbonáticas. Nesse sentido, foram registrados no testemunho estudado um aumento nos teores de sílica e ferro, nutrientes que poderiam estimular um aumento da produtividade primaria, o que se refletiria nos altos níveis de carbono orgânico também registrados no testemunho durante o período glacial, estimulando, assim, a atividade bentônica. Outra possibilidade que explicaria a dissolução observada é decorrente de mudança na geometria das massas d’água durante os glaciais, o qual promoveria o contato do sedimento com massas d’água Antárticas (Águas de Fundo Antárticas-AFA), que são mais corrosivas. Entretanto, estudos anteriores realizados com o mesmo testemunho e baseados em isótopos de neodímio não corroboram a ocorrência de mudanças na geometria das massas d’água na região, pelo menos para os últimos 25 mil anos. / Oceans work as a natural reservoir of carbon, where the solubility in the surface varies with temperature. Before the industrial period, variations in the atmospheric CO2 concentration were strongly associated with the glacial-interglacial (G-IG) transitions, where the lowest atmosphere CO2 values were recorded in the glacial periods, due to the increase in the CO2 solubility. In these periods, the increase of the CO2 solubility in the water column stimulated the production of carbonate ions, benefiting organisms that calcify calcium carbonate (CaCO3) in their shells. The inverse process, that is, the lower CO2 solubility and, consequently, lower carbonate ions availability in the oceans marked the interglacial periods. The objective of this study was to evaluate the effects of size-normalized weight during the last 70.000 years in the Southwest Atlantic to understand the effects of calcification and/or dissolution of carbonate and microstructure analysis of the Planktonic foraminifera that lived in the upper portion of the water column (G. ruber-white) and G. sacculifer). For that, a core collected in the Santos Basin at 2225 m depth was used, which includes the last 185 thousand years, of which the first 70 thousand years were studied. The results showed that both species showed an increase in SNW at the transition between the G-IG periods, associated with evidence of dissolution in the glacial period, when the microstructure was observed. These results demonstrate the corrosive action of the bottom waters during the glaciers and differ from those obtained in other studies conducted in the North Atlantic that record less corrosive characteristics during the last glacial in depths of up to 3500 meters. The reduction in the weight of the shells during the glacial period was attributed to the action of the carbonate dissolution. The dissolution may occur below the lysoclin layer, but despite the large change in lysoclin depth during the glaciers in the South Atlantic, the corer would still be 800 m above the influence of lysoclin. Above lysoclin, the carbonate dissolution can occur due to several other factors, such as the increase of CO2 generation by benthic activity during productivity increase events. This benthic activity would make the water-sediment interface layer corrosive to carbonate structures. In this sense, an increase in silica and iron contents was recorded in the studied corer, nutrients which could stimulate an increase in primary productivity, which would be reflected in the high levels of organic carbon also recorded in the corer during the glacial period, stimulating benthic activity. Another possibility that would explain the observed dissolution is due to a change in the geometry of the water masses during the glaciers, which would promote the contact of the sediment with Antarctic water masses (Antarctic Bottom Water-ABW), which are more corrosive. However, previous studies carried out with the same evidence and based on neodymium isotopes do not corroborate the occurrence of changes in the geometry of water masses in the region, at least 25 ka years
153

EqualizaÃÃo adaptativa e autodidata de canais lineares e nÃo-lineares utilizando o algoritmo do mÃdulo constante / Autodidact and adaptive equalization of the nonlinear and linear channels using the constant module algorithm

Carlos Alexandre Rolim Fernandes 05 August 2005 (has links)
Conselho Nacional de Desenvolvimento CientÃfico e TecnolÃgico / Este trabalho trata da proposiÃÃo de algoritmos para equalizaÃÃo cega de canais lineares e nÃao-lineares inspirados no Algoritmo do MÃdulo Constante (CMA). O CMA funciona de maneira bastante eficiente com constelaÃÃes nas quais todos os pontos possuem a mesma amplitude, como em modulaÃÃes do tipo Phase Shift Keying (PSK). Entretanto, quando os pontos da constelaÃÃo podem assumir diferentes valores de amplitudes, como em modulaÃÃes do tipo Quadrature Amplitude Modulation (QAM), o CMA e seus derivados muitas vezes nÃo funcionam de forma satisfatÃria. Desta forma, as tÃcnicas aqui propostas sÃo projetadas para melhorar a performance do CMA em termos de velocidade de convergÃncia e precisÃo, quando operando em sinais transmitidos com diversos mÃdulos, em particular para a modulaÃÃo QAM. Assim como o CMA, para possuir um bom apelo prÃtico, essas tÃcnicas devem apresentar bom compromisso entre complexidade, robustez e desempenho. Para tanto, as tÃcnicas propostas utilizam o Ãltimo sÃmbolo decidido para definir uma estimaÃÃo de raio de referÃncia para a saÃda do equalizador. De fato, esses algoritmos podem ser vistos como generalizaÃÃes do CMA e de alguns derivados do CMA para constelaÃÃes com mÃltiplos raios. A proposiÃÃo de algoritmos do tipo gradiente estocÃstico à concluÃda com o desenvolvimento de tÃcnicas originais, baseadas no CMA, para equalizaÃÃo de canais do tipo Wiener, que consiste em um filtro linear com memÃria, seguido por um filtro nÃo-linear sem memÃria. As expressÃes para a adaptaÃÃo do equalizador sÃo encontradas com o auxÃlio de uma notaÃÃo unificada para trÃs diferentes estruturas: i) um filtro de Hammerstein; ii) um filtro de Volterra diagonal; e iii) um filtro de Volterra completo. Um estudo teÃrico acerca do comportamento do principal algoritmo proposto, o Decision Directed Modulus Algorithm (DDMA) à realizado. SÃo analisadas a convergÃncia e a estabilidade do algoritmo atravÃs de uma anÃlise dos pontos de mÃnimo de sua funÃÃo custo. Outro objetivo à encontrar o valor teÃrico do Erro MÃdio QuadrÃtico MÃdio em Excesso - Excess Mean Square Error (EMSE) fornecido pelo DDMA considerando-se o caso sem ruÃdo. Ao final, à feito um estudo em que se constata que o algoritmo DDMA possui fortes ligaÃÃes com a soluÃÃo de Wiener e com o CMA. VersÃes normalizadas, bem como versÃes do tipo Recursive Least Squares (RLS), dos algoritmos do tipo gradiente estocÃstico estudados sÃo tambÃm desenvolvidas. Cada famÃlia de algoritmos estudada fie composta por quatro algoritmos com algumas propriedades interessantes e vantagens sobre as tÃcnicas clÃssicas, especialmente quando operando em sinais QAM de ordem elevada. TambÃm sÃo desenvolvidas versÃes normalizadas e do tipo RLS dos algoritmos do tipo CMA estudados para equalizaÃÃo de canais nÃo-lineares. O comportamento de todas as famÃlias de algoritmos desenvolvidos à testado atravÃs de simulaÃÃes computacionais, em que à verificado que as tÃcnicas propostas fornecem ganhos significativos em desempenho, em termos de velocidade de convergÃncia e erro residual, em relaÃÃo Ãs tÃcnicas clÃssicas. / This work studies and proposes algorithms to perform blind equalization of linear and nonlinear channels inspired on the Constant Modulus Algorithm (CMA). The CMA works very well for modulations in which all points of the signal constellation have the same radius, like in Phase Shift Keying (PSK) modulations. However, when the constellation points are characterized by multiple radii, like in Quadrature Amplitude Modulation (QAM) signals, the CMA does not work properly in many situations. Thus, the techniques proposed here are designed to improve the performance of the CMA, in terms of speed of convergence and residual error, when working with signals transmitted with multiple magnitude, in particular with QAM signals. As well as for the CMA, these techniques should have a good compromise among performance, complexity and robustness. To do so, the techniques use the last decided symbol to estimate reference radius to the output of the equalizer. In fact, they can be seen as modifications of the CMA and of some of its derivatives for constellations with multiple radii. The proposition of stochastic gradient algorithms is concluded with the development of new adaptive blind techniques to equalize channels with a Wiener structure. A Wiener filter consists of a linear block with memory followed by a memoryless nonlinearity, by using the CMA. We develop expressions for the adaptation of the equalizer using a unified notation for three different equalizer filter structures: i) a Hammerstein filter, ii) a diagonal Volterra filter and iii) a Volterra filter. A theoretical analysis of the main proposed technique, the Decision Directed Modulus Algorithm (DDMA), is also done. We study the convergence and the stability of the DDMA by means of an analysis of the minima of the DDM cost function. We also develop an analytic expression for the Excess Mean Square Error (EMSE) provided by the DDMA in the noiseless case. Then, we nd some interesting relationships among the DDM, the CM and the Wiener cost functions. We also develop a class of normalized algorithms and a class of Recursive Least Squares (RLS)-type algorithms for blind equalization inspired on the CMA-based techniques studied. Each family is composed of four algorithms with desirable properties and advantages over the original CM algorithms, specially when working with high-level QAM signals. Normalized and RLS techniques for equalization of Wiener channels are also developed. The behavior of the proposed classes of algorithms discussed is tested by computational simulations. We verify that the proposed techniques provide significative gains in performance, in terms of speed of convergence and residual error, when compared to the classical algorithms.
154

Algoritmos adaptativos LMS normalizados proporcionais: proposta de novos algoritmos para identificação de plantas esparsas / Proportional normalized LMS adaptive algorithms: proposed new algorithms for identification of sparse plants

Castelo Branco, César Augusto Santana 12 December 2016 (has links)
Submitted by Rosivalda Pereira (mrs.pereira@ufma.br) on 2017-06-23T20:42:44Z No. of bitstreams: 1 CesarCasteloBranco.pdf: 11257769 bytes, checksum: 911c33f2f0ba5c1c0948888e713724f6 (MD5) / Made available in DSpace on 2017-06-23T20:42:44Z (GMT). No. of bitstreams: 1 CesarCasteloBranco.pdf: 11257769 bytes, checksum: 911c33f2f0ba5c1c0948888e713724f6 (MD5) Previous issue date: 2016-12-12 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPQ) / This work proposes new methodologies to optimize the choice of the parameters of the proportionate normalized least-mean-square (PNLMS) adaptive algorithms. The proposed approaches use procedures based on two optimization methods, namely, the golden section and tabu search methods. Such procedures are applied to determine the optimal parameters in each iteration of the adaptation process of the PNLMS and improved PNLMS (IPNLMS) algorithms. The objective function for the proposed procedures is based on the a posteriori estimation error. Performance studies carried out to evaluate the impact of the PNLMS and IPNLMS parameters in the behavior of these algorithms shows that, with the aid of optimization techniques to choose properly such parameters, the performance of these algorithms may be improved in terms of convergence speed for the identification of plants with high sparseness degree. The main goal of the proposed methodologies is to improve the distribution of the adaptation energy between the coefficients of the PNLMS and IPNLMS algorithms, using parameter values that lead to the minimal estimation error of each iteration of the adaptation process. Numerical tests performed (considering various scenarios in which the plant impulse response is sparse) show that the proposed methodologies achieve convergence speeds faster than the PNLMS and IPNLMS algorithms, and other algorithms of the PNLMS class, such as the sparseness controlled IPNLMS (SC-IPNLMS) algorithm. / Neste trabalho, novas metodologias para otimizar a escolha dos parâmetros dos algoritmos adaptativos LMS normalizados proporcionais (PNLMS) são propostas. As abordagens propostas usam procedimentos baseados em dois métodos de otimização, a saber, os métodos da razão áurea e da busca tabu. Tais procedimentos são empregados para determinar os parâmetros ótimos em cada iteração do processo de adaptação dos algoritmos PNLMS e PNLMS melhorado (IPNLMS). A função objetivo adotada pelos procedimentos propostos é baseada no erro de estimação a posteriori. O estudo de desempenho realizado para avaliar o impacto dos parâmetros dos algoritmos PNLMS e IPNLMS no comportamento dos mesmos mostram que, com o auxílio de técnicas de otimização para escolher adequadamente tais parâmetros, o desempenho destes algoritmos pode ser melhorado, em termos de velocidade de convergência, para a identificação de plantas com elevado grau de esparsidade. O principal objetivo das metodologias propostas é melhorar a distribuição da energia de ativação entre os coeficientes dos algoritmos PNLMS e IPNLMS, usando valores de parâmetros que levam ao erro de estimação mínimo em cada iteração do processo de adaptação. Testes numéricos realizados (considerando diversos cenários nos quais a resposta impulsiva da planta é esparsa) mostram que as metodologias propostas alcançam velocidades de convergência superiores às dos algoritmos PNLMS e IPNLMS, além de outros algoritmos da classe PNLMS, tais como o algoritmo IPNLMS com controle de esparsidade (SCIPNLMS).
155

[en] DECOMPOSITION AND RELAXATION ALGORITHMS FOR NONCONVEX MIXED INTEGER QUADRATICALLY CONSTRAINED QUADRATIC PROGRAMMING PROBLEMS / [pt] ALGORITMOS BASEADOS EM DECOMPOSIÇÃO E RELAXAÇÃO PARA PROBLEMAS DE PROGRAMAÇÃO INTEIRA MISTA QUADRÁTICA COM RESTRIÇÕES QUADRÁTICAS NÃO CONVEXA

TIAGO COUTINHO CARNEIRO DE ANDRADE 29 April 2019 (has links)
[pt] Esta tese investiga e desenvolve algoritmos baseados em relaxação Lagrangiana e técnica de desagregação multiparamétrica normalizada para resolver problemas não convexos de programação inteira-mista quadrática com restrições quadráticas. Primeiro, é realizada uma revisão de técnias de relaxação para este tipo de problema e subclasses do mesmo. Num segundo momento, a técnica de desagregação multiparamétrica normalizada é aprimorada para sua versão reformulada onde o tamanho dos subproblemas a serem resolvidos tem seu tamanho reduzido, em particular no número de variáveis binárias geradas. Ademais, dificuldas em aplicar a relaxação Lagrangiana a problemas não convexos são discutidos e como podem ser solucionados caso o subproblema dual seja substituído por uma relaxação não convexa do mesmo. Este método Lagrangiano modificado é comparado com resolvedores globais comerciais e resolvedores de código livre. O método proposto convergiu em 35 das 36 instâncias testadas, enquanto o Baron, um dos resolvedores que obteve os melhores resultados, conseguiu convergir apenas para 4 das 36 instâncias. Adicionalmente, mesmo para a única instância que nosso método não conseguiu resolver, ele obteve um gap relativo de menos de 1 por cento, enquanto o Baron atingiu um gap entre 10 por cento e 30 por cento para a maioria das instâncias que o mesmo não convergiu. / [en] This thesis investigates and develops algorithms based on Lagrangian relaxation and normalized multiparametric disaggregation technique to solve nonconvex mixed-integer quadratically constrained quadratic programming. First, relaxations for quadratic programming and related problem classes are reviewed. Then, the normalized multiparametric disaggregation technique is improved to a reformulated version, in which the size of the generated subproblems are reduced in the number of binary variables. Furthermore, issues related to the use of the Lagrangian relaxation to solve nonconvex problems are addressed by replacing the dual subproblems with convex relaxations. This method is compared to commercial and open source off-the-shelf global solvers using randomly generated instances. The proposed method converged in 35 of 36 instances, while Baron, the benchmark solver that obtained the best results only converged in 4 of 36. Additionally, even for the one instance the methods did not converge, it achieved relative gaps below 1 percent in all instances, while Baron achieved relative gaps between 10 percent and 30 percent in most of them.
156

The Box-Cox 依變數轉換之技巧 / The Box-Cox Transformation: A Review

曾能芳, Chan, Lan Fun Unknown Date (has links)
The use of transformation can usually simplify the analysis of data, especiallywhen the original observations deviate from the underlying assumption of linearmodel. Box-Cox transformation receives much more attention than others. Inthis dissertation, we will review the theory about the estimation, hypotheses test on transformation parameter and about the sensitivity of the linear model parameters. Monte Carlo simulation is used to study the performance of the transformation. We also display whether Box-Cox transformation makes the transformed observations satisfy the assumption of linear model actually.
157

BEHAVIOUR OF BURIED PIPELINES SUBJECT TO NORMAL FAULTING

SAIYAR, MASOUMEH 01 February 2011 (has links)
Thesis (Ph.D, Civil Engineering) -- Queen's University, 2011-01-31 20:52:11.162 / One of the most severe hazards for buried pipelines, which are sometimes referred to as lifelines due to their essential role in delivering vital resources, is the hazard due to Permanent Ground Deformation (PGD). Earthquake induced PGD can be caused by surface faulting, landslides and seismic settlement. In this thesis, the behaviour of buried pipelines subject to normal faulting has been experimentally investigated through a series of centrifuge tests performed on both continuous and jointed pipelines. Both pipe and soil displacements were measured using image analysis. Signal processing techniques were then developed to filter this data so as to enable the calculation of curvature and other aspects of the response from the observed pipe deformations. First, a series of centrifuge tests was conducted on continuous pipelines of varying materials, representing a wide range of pipe stiffness relative to the soil and investigating the effect of pipe stiffness relative to the soil on soil-pipe interaction. The experimentally derived p-y curves at different locations along the pipe were compared to the recommended soil-pipe interaction models in the relevant guidelines. These p-y curves showed that the central shearing region was not captured well with independent soil springs. The response of the pipelines predicted by the ALA (2001) guideline, however, was shown to match the experimental data within 50%. Two new simplified design approaches were then developed. The first features calculations based on simplified pressure distributions. The second featured peak curvature normalized using a characteristic length, ipipe, the distance from peak to zero moment. A series of centrifuge tests using brittle pipes was also performed. The pipes were buried at three different depths, and the post-failure fracture angle of the pipe was measured to be used as an input for design of liners. Based on the experimental data, a computationally efficient approach was developed to estimate the initial fracture angle which occurs immediately after the pipe breaks. The last series of centrifuge tests was conducted on jointed pipelines with five different joint stiffnesses to investigate the flexural behaviour of jointed pipelines under normal faulting. Based on the observed pipe response, a simplified kinematic model was proposed to estimate the maximum joint rotation for a given geometry, pipe segment length, and the magnitude of the imposed ground displacement. / Ph.D
158

Entwicklung eines Modells dynamisch-muskulärer Arbeitsbeanspruchungen auf Basis digitaler Menschmodelle

Mühlstedt, Jens 31 August 2012 (has links) (PDF)
Arbeitswissenschaftliche digitale Menschmodelle werden als Werkzeuge virtueller Ergonomie zur Gestaltung menschengerechter Produkte und Arbeitsplätze genutzt. Der bislang nur qualitativ beschriebene Praxiseinsatz wird durch theoretische Analysen und eine empirische Studie systematisiert und darauf aufbauend werden die Schwachstellen der Systeme erörtert. Ein wesentlicher Ansatzpunkt für Weiterentwicklungen ist die Erarbeitung ergonomischer Bewertungsverfahren bzw. -modelle, insbesondere für Belastungen aufgrund von Bewegungen. Digitale Menschmodelle bieten das Potenzial, aus simulierten Bewegungsdaten und den damit zusammenhängenden Belastungen eine Bewertung der Arbeitsvorgänge zu generieren. In dieser Arbeit wird daher ein neues arbeitswissenschaftliches Bewertungsmodell für muskuläre Beanspruchungen erforscht, d.h. methodisch hergeleitet und evaluiert. Dazu ist ein Versuchsstand zur Standardisierung und Belastungserzeugung notwendig. In der darauffolgenden Laborstudie werden die Belastungsparameter statischer Momentanteil, Winkelgeschwindigkeit und Momentrichtung variiert und die daraus entstehende Veränderung der muskulären Beanspruchung von Probanden erforscht. Ein dafür benötigtes, neues Verfahren zur Normalisierung wird vorgestellt. Die Laborstudie zeigt, dass der statische Momentanteil linear steigend mit der Arbeitsbeanspruchung zusammenhängt. Die durchschnittliche Winkelgeschwindigkeit beeinflusst die Arbeitsbeanspruchung je nach Muskeltyp entweder linear steigend oder ohne Zusammenhang. / Digital human models for human factors are used as tools for virtual ergonomics and the design of products and workplaces. In this work the use of the systems is analysed with theoretical models and an empirical study. Therefore, disadvantages of the systems are identified. A main idea for further developments is the research on ergonomic approaches and models, especially for movements and the strain caused by movements. Digital human models are capable to assess work processes based on data from simulations. In this work a new human factors orientated rating model for muscular strains is developed and evaluated. A test stand generates and standardizes the stress. In a laboratory survey the stress parameters are analysed. The variation of the static torque part, the angular velocity and the torque direction cause changes in the muscular strains. Hence, these muscular strains are measured electromyographically. A new normalisation method, the normalized standard movement, is introduced. The survey shows the existence of a correlation of static torque part and work strain. Depending on the muscle type, the angular velocity either affects the work strain linear increasing or does not affect it.
159

Existence and orbital stability of normalized solutions for nonlinear Schrödinger equations / Solutions normalisées pour équations de Schrödinger

Gou, Tianxiang 29 September 2017 (has links)
Dans cette thèse nous étudions l’existence et la stabilité orbitale de solutions ayant une norme prescrite pour deux types d’équations Schrödinger non linéaires dans , à savoir, une classe de systèmes non linéaires couplés de Schrödinger dans et une classe d’équations non linéaires de Schrödinger du quatrième ordre dans . Ces deux types d’équations non linéaires de Schrödinger surviennent dans de nombreuses applications en mathématiques et physique, et sont devenus une grande attention dans les années récentes. D’un point de vue physique, de telles solutions sont souvent référées comme des solutions normalisées, qui sont obtenues comme points critiques d’énergie fonctionnelle associée sous contrainte avec une norme. Les éléments clés de nos preuves sont les méthodes variationnelles. / In this thesis, we are concerned with the existence and orbital stability of solutions having prescribed -norm for two types of nonlinear Schrödinger equations in , namely a class of coupled nonlinear Schrödinger systems in and a class of fourth-order nonlinear Schrödinger equations in . These two types of nonlinear Schrödinger equations arise in a variety of mathematical and physical models, and have drawn wide attention to research in recent years. From a physical point of view, such solutions are often referred as normalized solutions, which correspond to critical points of the underlying energy functional restricted to -norm constraint. The main ingredients of our proofs are variational methods.
160

Comparação de técnicas para a determinação de semelhança entre imagens digitais

Tannús, Marco Túlio Faissol 25 May 2008 (has links)
The retrieval of similar images in databases is a wide and complex research field that shows a great demand for good performance applications. The increasing volume of information available in the Internet and the success of textual search engines motivate the development of tools that make possible image searches by content similarity. Many features can be applied in determining the similarity between images, such as size, color, shape, color variation, texture, objects and their spatial distribution, among others. Texture and color are the most important features which allow a preliminary analysis of image similarity. This dissertation presents many techniques introduced in the literature, which analyze texture and color. Some of them were implemented, their performances were compared and the results were presented. This comparison allows the determination of the best techniques, making possible the analysis of their applicability and can be used as a reference in future works. The quantitative performance analyses were done using the ANMRR metric, defined in the MPEG-7 standard, and the confusion matrices were presented for each of the tested techniques. Two groups of quantitative tests were realized: the first one was applied upon a gray scale texture database and the second one, upon a color image database. For the experiment with the gray scale texture images, the techniques PBLIRU16, MCNC and their combination presented the best performances. For the experiment with the color images, SCD, HDCIG and CSD techniques performed best. / A recuperação de imagens semelhantes em bancos de dados é um campo de pesquisa amplo, complexo e que apresenta grande demanda por aplicativos que apresentem bons resultados. O volume crescente de informações disponibilizadas ao público e o sucesso das ferramentas de busca textuais na Internet motivam a criação de utilitários que possibilitem a busca de imagens por semelhança de conteúdo. Podem-se utilizar várias características para a determinação da semelhança entre imagens digitais, tais como tamanho, cor, forma, variação de cores, textura, objetos e sua disposição espacial, entre outras. A textura e a cor são as duas características mais importantes que permitem uma análise preliminar da semelhança. Este trabalho apresenta várias técnicas constantes da literatura, que analisam textura e cor. Algumas dessas técnicas foram implementadas, seus desempenhos foram analisados e comparados e os resultados foram apresentados detalhadamente. Esse comparativo amplo permite determinar as melhores técnicas, possibilita a análise da aplicabilidade de cada uma delas e pode ser utilizada como referência em estudos futuros. As análises quantitativas de desempenho foram realizadas utilizando a métrica ANMRR, definida no padrão MPEG-7, e as matrizes de confusão, apresentadas para cada técnica testada. Dois grupos de testes quantitativos foram realizados: o primeiro utilizando um banco de imagens de texturas em tons de cinza e o segundo utilizando um banco de imagens coloridas. Os resultados dos testes com o banco de texturas em tons de cinza mostraram que as técnicas PBLIRU16, MCNC e sua combinação apresentaram os melhores desempenhos. Para o banco de imagens coloridas, os melhores desempenhos foram observados com a utilização das técnicas SCD, HDCIG e CSD. / Mestre em Ciências

Page generated in 0.0412 seconds