191 |
Em outro ponto da rede: desenvolvimento geográfico desigual e o \"vaivém\" do capital nas operações de Contact Center / At another point of the network: uneven geographical development and come and go of capital in Contact Center operationsAlmeida, Marina Castro de 03 December 2013 (has links)
Esta pesquisa tem como objetivo principal analisar a apropriação do desenvolvimento geográfico desigual brasileiro pelas empresas de Contact Center. A constituição e expansão das operações brasileiras de teleatendimento estão atreladas às privatizações do setor de telecomunicações, com a aquisição das empresas estatais por grandes transnacionais, e a consequente terceirização dos serviços a partir do final da década de 1990. A análise da divisão territorial do trabalho das operações de teleatendimento revela a presença de forças centrípetas, com a manutenção do controle nas principais metrópoles brasileiras, e centrífugas, com a dispersão das unidades de produção para os centros urbanos não metropolitanos e para a região Nordeste. O uso seletivo da densidade técnica e informacional do território permite às empresas a incorporação lucrativa de áreas onde os recursos, principalmente, capital e trabalho, são desvalorizados. / The present work intends to analyze the exploitation of Brazilian uneven geographical development by Contact Center companies. Since the end of the 1990s, the establishment and expansion of Brazilian operations telemarketing has been linked to the privatization of the telecommunications sector, with the subsequent acquisition of state enterprises by large transnational corporations, with has resulted in the outsourcing of services. The corporations territorial division of labor shows the presence of both centripetal forces, with maintenance control in major Brazilian cities, and centrifugal forces, with the dispersion of production facilities in non- metropolitan and urban centers in the Northeast. The selective use of technical and informational density allows companies to lucratively incorporate areas where resources, especially labor and capital, are devalued.
|
192 |
[en] HYBRID METHOD BASED INTO KALMAN FILTER AND DEEP GENERATIVE MODEL TO HISTORY MATCHING AND UNCERTAINTY QUANTIFICATION OF FACIES GEOLOGICAL MODELS / [pt] MÉTODO HÍBRIDO BASEADO EM FILTRO DE KALMAN E MODELOS GENERATIVOS DE APRENDIZAGEM PROFUNDA NO AJUSTE DE HISTÓRICO SOB INCERTEZAS PARA MODELOS DE FÁCIES GEOLÓGICASSMITH WASHINGTON ARAUCO CANCHUMUNI 25 March 2019 (has links)
[pt] Os métodos baseados no filtro de Kalman têm tido sucesso notável na
indústria do petróleo nos últimos anos, especialmente, para resolver problemas
reais de ajuste de histórico. No entanto, como a formulação desses métodos
é baseada em hipóteses de gaussianidade e linearidade, seu desempenho
é severamente degradado quando a geologia a priori é descrita em termos
de distribuições complexas (e.g. modelos de fácies). A tendência atual em
soluções para o problema de ajuste de histórico é levar em consideração
modelos de reservatórios mais realistas com geologia complexa. Assim, a
modelagem de fácies geológicas desempenha um papel importante na caracterização
de reservatórios, como forma de reproduzir padrões importantes
de heterogeneidade e facilitar a modelagem das propriedades petrofísicas
das rochas do reservatório. Esta tese introduz uma nova metodologia para
realizar o ajuste de histórico de modelos geológicos complexos. A metodologia
consiste na integração de métodos baseados no filtro de Kalman em
particular o método conhecido na literatura como Ensemble Smoother with
Multiple Data Assimilation (ES-MDA), com uma parametrização das fácies
geológicas por meio de técnicas baseadas em aprendizado profundo (Deep
Learning) em arquiteturas do tipo autoencoder. Um autoencoder sempre
consiste em duas partes, o codificador (modelo de reconhecimento) e o decodificador
(modelo gerador). O procedimento começa com o treinamento de
um conjunto de realizações de fácies por meio de algoritmos de aprendizado
profundo, através do qual são identificadas as principais características das
imagens de fácies geológicas, permitindo criar novas realizações com as mesmas
características da base de treinamento com uma reduzida parametrização
dos modelos de fácies na saída do codificador. Essa parametrização é
regularizada no codificador para fornecer uma distribuição gaussiana na
saída, a qual é utilizada para atualizar os modelos de fácies de acordo com
os dados observados do reservatório, através do método ES-MDA. Ao final,
os modelos atualizados são reconstruídos através do aprendizado profundo
(decodificador), com o objetivo de obter modelos finais que apresentem características
similares às da base de treinamento.
Os resultados, em três casos de estudo com 2 e 3 fácies, mostram que
a parametrização de modelos de fácies baseada no aprendizado profundo
consegue reconstruir os modelos de fácies com um erro inferior a 0,3 por cento. A
metodologia proposta gera modelos geológicos ajustados que conservam a
descrição geológica a priori do reservatório (fácies com canais curvilíneos),
além de ser consistente com o ajuste dos dados observados do reservatório. / [en] Kalman filter-based methods have had remarkable success in the oil
industry in recent years, especially to solve several real-life history matching
problems. However, as the formulation of these methods is based on the
assumptions of gaussianity and linearity, their performance is severely degraded
when a priori geology is described in terms of complex distributions
(e.g., facies models). The current trend in solutions for the history matching
problem is to take into account more realistic reservoir models, with complex
geology. Thus the geological facies modeling plays an important role in the
characterization of reservoirs as a way of reproducing important patterns
of heterogeneity and to facilitate the modeling of the reservoir rocks petrophysical
properties. This thesis introduces a new methodology to perform
the history matching of complex geological models. This methodology consists
of the integration of Kalman filter-based methods, particularly the
method known in the literature as Ensemble Smoother with Multiple Data
Assimilation (ES-MDA), with a parameterization of the geological facies
through techniques based on deep learning in autoencoder type architectures.
An autoencoder always consists of two parts, the encoder (recognition
model) and the decoder (generator model). The procedure begins with the
training of a set of facies realizations via deep generative models, through
which the main characteristics of geological facies images are identified, allowing
for the creation of new realizations with the same characteristics of
the training base, with a low dimention parametrization of the facies models
at the output of the encoder. This parameterization is regularized at
the encoder to provide Gaussian distribution models in the output, which
is then used to update the models according to the observed data of the
reservoir through the ES-MDA method. In the end, the updated models
are reconstructed through deep learning (decoder), with the objective of
obtaining final models that present characteristics similar to those of the
training base.
The results, in three case studies with 2 and 3 facies, show that the parameterization
of facies models based on deep learning can reconstruct facies
models with an error lower than 0.3 percent. The proposed methodology generates
final geological models that preserve the a priori geological description of
the reservoir (facies with curvilinear channels), besides being consistent with
the adjustment of the observed data of the reservoir.
|
193 |
Análise do impacto do ajuste a valor justo dos ativos biológicos no resultado anualSerraglio, Ederson Luiz 21 January 2016 (has links)
Submitted by Silvana Teresinha Dornelles Studzinski (sstudzinski) on 2016-04-25T17:49:40Z
No. of bitstreams: 1
Ederson Luiz Serraglio_.pdf: 547041 bytes, checksum: 04c4c62c591c6689c3d77ce196d1fd3b (MD5) / Made available in DSpace on 2016-04-25T17:49:40Z (GMT). No. of bitstreams: 1
Ederson Luiz Serraglio_.pdf: 547041 bytes, checksum: 04c4c62c591c6689c3d77ce196d1fd3b (MD5)
Previous issue date: 2016-01-21 / Nenhuma / Em 2009 o pronunciamento do Comitê de Pronunciamentos Contábeis (CPC) 29, que trata dos Ativos Biológicos e Produtos Agrícolas, modificou a forma de contabilização destes ativos pelas companhias. Dentre as mudanças, está a avaliação periódica e a necessidade de mensuração a valor justo. A consequência desta alteração proposta pelo CPC 29 é que a mensuração a valor justo provoca variabilidade do saldo dos ativos biológicos através de ganhos ou perdas. Esses ganhos ou perdas desde então são alocados imediatamente ao resultado do exercício. O objetivo deste estudo é analisar o impacto da mensuração a valor justo dos ativos biológicos no resultado anual. Para o estudo, foram selecionadas 41 companhias que apresentavam ativos biológicos em suas demonstrações financeiras no período de 2010 a 2014, sendo elas 25 companhias de capital aberto e 16 companhias de capital fechado, presentes na listagem das 500 maiores e melhores segundo a Revista Exame. Na pesquisa se analisou as demonstrações financeiras, principalmente as notas explicativas, e como método de análise utilizaram-se técnicas estatísticas e econométricas. Os resultados encontrados confirmam que a utilização da mensuração a valor justo em ativos biológicos provoca impactos positivos sobre o resultado do exercício, e que as companhias analisadas não utilizaram o mecanismo de ajuste a valor justo de seus ativos biológicos com a finalidade de alteração dos seus resultados. Na pesquisa ainda se identificou que o mecanismo de ajuste a valor justo por si só não resulta em elevação da volatilidade dos resultados das companhias, e que tanto este resultado quanto os ajustes provenientes da mensuração pelo valor justo são afetados pela oscilação dos preços dos produtos biológicos comercializados por estas companhias. Assim, considera-se que o estudo contribui para apresentar a influência da utilização da mensuração a valor justo dos ativos biológicos no resultado anual das companhias. / In 2009 the pronouncement of the Accounting Pronouncements Committee (CPC) 29, about Biological Assets and Agricultural Products, changed the accounting of these assets by companies. Among the changes are the periodic evaluation and the necessity of measurement at fair value. A natural consequence of this amendment proposed by CPC 29 is that the measurement at fair value causes variability of the biological assets through profit or loss. These gains or losses since then are applied immediately to the annual result. The objective of this study is to analyze the impact of measurement at fair value of biological assets in the annual results. Using a sample of 41 companies that had biological assets in their financial statements in the period 2010 to 2014, being 25 public companies and 16 privately held companies listed in the 500 biggest and best according to Revista Exame. The research analyzed the financial statements, especially the notes, and the hypotheses were tested using statistical and econometric techniques. Results show that the use of measurement at fair value of biological assets causes a positive impact on the annual result, and that the analyzed companies do not used this adjustment mechanism of its biological assets to change their results. The results also show that the adjustment mechanism alone does not produce an increase in the volatility of results of the companies, but that the adjustments are affected by fluctuations in the prices of the products marketed by these companies. Thus, it is considered that the study contributes to show the influence of the use of the measurement at fair value of biological assets in the annual results of companies.
|
194 |
Influência do tipo de argamassamento e da utilização de peças de ajuste dimensional na resistência à compressão da alvenaria de blocos de concreto / Influence of mortar bedding type and use of adjustment dimensional parts in the compressive strength of masonry of concrete blocksIzquierdo, Orieta Soto 16 March 2011 (has links)
A alvenaria estrutural destaca-se na indústria da construção civil atual pelas vantagens que apresenta em comparação com outros sistemas convencionais, devendo ainda ser estudada para um melhor aproveitamento do sistema. Este trabalho estuda a alteração de resistência de compressão em paredes de alvenaria estrutural devida ao lançamento da argamassa de assentamento apenas nas laterais dos blocos em comparação com o lançamento total e à inserção de peças de ajuste dimensional para o acerto de modulações de paredes de alvenaria. Foram realizados os ensaios experimentais correspondentes à caracterização dos materiais empregados e os ensaios de resistência à compressão das unidades, prismas e mini-paredes. Todos os materiais cumpriram com os requisitos normalizados para sua correta utilização nos testes experimentais. Os resultados dos ensaios à compressão dos elementos demonstraram que o efeito do tipo de argamassamento influenciou notavelmente na resistência à compressão da alvenaria, apresentando melhor desempenho o argamassamento total. O uso de peças de ajuste dimensional (rapaduras) não reduziu a resistência à compressão das mini-paredes. / Currently, the structural masonry still has some advantages in the construction industry as compared with conventional systems, however it should continue to be studied for a better utilization of the system. This research studies the change of compressive strength of masonry walls due to the placement of mortar only on the sides of the blocks compared to the total release; and the insertion of adjustment dimensional parts for the settlement of modulations masonry walls. The experimental tests corresponding of characterization of materials used and compressive strength tests of the units, prisms, and mini-walls were made. All materials complied with the standard requirements for its correct use in the experimental tests. The results of the compression tests of the elements demonstrated that the effect of mortar bedding type significantly influenced the compressive strength of masonry with full mortar bedding showing better performance. The use of adjustment dimensional parts did not reduce the compressive strength of mini-walls.
|
195 |
Avaliação da qualidade de ajuste e predição de modelos não lineares: uma aplicação em dados de crescimento de frutos de cacaueiro / Evaluation of the quality of fit and prediction of nonlinear models: an application in growth data of cacao fruitsEloy, Raquel Aline Oliveira 09 February 2018 (has links)
Atualmente o Brasil é o quinto maior produtor de cacau no mundo e a sua produção está diretamente ligada ao ponto certo da colheita, colher frutos verdes ou verdoengos faz com que suas sementes tenham menor peso, em 1000 frutos maduros as amêndoas secas pesam em média 40 kg, colher frutos verdoengos, ou seja, frutos que estão parcialmente maduros, faz com que esse peso caia para 36 kg em média uma perda verificada de 10%, já quando os frutos estão verdes o peso passa a ser em média de 32 kg, possuindo uma perda de 20%, por isso é importante conhecer as fases de crescimento, que permite estabelecer formas adequadas de manejo, adubação e irrigação. Dentre as características biométricas do fruto do cacaueiro as que tem maior relevância econômica são o comprimento, o diâmetro e o volume. Uma forma de explicar relações de crescimento e produtividade de plantas, árvores, frutos ou animais é por meio da utilização de modelos de crescimento, pois possuem parâmetros com interpretação biológica. Os mais utilizados nestas áreas são os modelos: Logístico, Gompertz, Von Bertalanffy, Richards e Brody, sendo os dois últimos mais utilizados para descrever o crescimento animal. O objetivo do trabalho é avaliar a qualidade de ajuste e de predição dos modelos não lineares, Logístico, Gompertz e Von Bertalanffy, para medidas de comprimento e diâmetro do fruto do cacau, com a finalidade de predizer o seu volume. Para predizer o volume do fruto foi utilizado a fórmula de volume do esferoide prolato. Os critérios AIC e BIC foram utilizados para verificar qual dos modelos se ajusta melhor à essas medidas, já para verificar qual modelo se ajusta melhor na predição do volume do fruto, foram relacionadas as estatísticas: viés médio, índice de concordância, eficiência da modelagem e o desdobramento do quadrado médio do erro de predição. / Currently Brazil is the fifth largest producer of cocoa in the world and its production is directly linked to the right point of harvest, harvesting green or green fruits makes their seeds have less weight, in 1000 mature fruits dry almonds weight on average 40 kg, harvested green fruits, that is, fruits that are partially ripe, causes this weight to fall to 36 kg on average a verified loss of 10%, when the fruits are green the weight becomes an average of 32 kg, with a loss of 20%, so it is important to know the growth phases, which allows to establish appropriate forms of management, fertilization and irrigation. Among the biometric characteristics of the cacao fruit, the most economically important are length, diameter and volume. One way to explain growth and productivity relationships of plants, trees, fruits or animals is through the use of growth models, since they have parameters that with biological interpretation are the most used in these areas: Logistics, Gompertz, Von Bertalanffy, Richards and Brody, the last two being most used to describe animal growth. The objective of this work is to evaluate the quality of fit and prediction of the non linear models, Logistic, Gompertz and Von Bertalanffy, for measures of length and diameter of the fruit of the cocoa, in order to predict its volume. To predict the volume of the fruit, the volume formula of the prolate spheroid was used. The AIC and BIC criteria were used to verify which model best fits these measures, and to verify which model best fits the fruit volume prediction, the statistics were related: mean bias, concordance index, modeling efficiency, and the unfolding of the mean square of the prediction error.
|
196 |
Estudo da secagem da clara de ovo em camada de espuma (foam-mat drying). / Study of the drying of egg white foam-mat drying.PEREIRA, Tamires dos Santos. 28 May 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-05-28T17:43:32Z
No. of bitstreams: 1
TAMIRES DOS SANTOS PEREIRA - DISSERTAÇÃO PPGSA PROFISSIONAL 2015..pdf: 2702576 bytes, checksum: 45431567404c5290f49012771848f87a (MD5) / Made available in DSpace on 2018-05-28T17:43:32Z (GMT). No. of bitstreams: 1
TAMIRES DOS SANTOS PEREIRA - DISSERTAÇÃO PPGSA PROFISSIONAL 2015..pdf: 2702576 bytes, checksum: 45431567404c5290f49012771848f87a (MD5)
Previous issue date: 2015-12-17 / O ovo em sua forma integral ou a clara e gema apresentam-se como ingrediente
fundamental em inúmeros produtos alimentares ao agregar propriedades nutricionais
e funcionais. A secagem é uma maneira bem sucedida de conservação dos ovos,
considerando algumas vantagens como: ocupar menos espaço no estoque;
facilidade de transporte; boa uniformidade; utilização mais fácil e ter qualidade
microbiológica estável. Uma vantagem considerável na secagem em camada de
espuma é a sua capacidade de manter a alta qualidade dos produtos, apresentando
grandes possibilidades para a indústria alimentícia, além da baixa temperatura
empregada e com tempo de desidratação reduzido devido à maior área de contato
com o ar. Este trabalho tem como objetivo estudar a cinética de secagem em
camada de espuma das claras dos ovos de granja e de capoeira (caipira), bem
como ajustar os dados experimentais das curvas de secagem com modelos
cinéticos como o de Henderson e Pabis, Midilli e Kucuk, Page e um modelo linear.
Foram determinadas características da espuma, como densidade, expansão,
capacidade de incorporação de ar e estabilidade da espuma. O estudo da influência
das variáveis independentes sobre a secagem foi feito de acordo com um
planejamento experimental fatorial completo 23 + 4 pontos centrais. As variáveis
operacionais a serem estudadas (variáveis de entrada) foram: espessura da camada
de espuma; tempo de agitação da espuma e temperatura de secagem. E as
variáveis dependentes do processo (variáveis de saída) foram tempo de secagem e
umidade final, teor de proteínas e luminosidade (cor). Foi realizada a caracterização
físico-química, microscópica e de cor do pó obtido. A clara de ovo, por conter
naturalmente propriedades espumantes devido ao alto teor e estrutura de suas
proteínas apresentou resultados satisfatórios em relação à caracterização física da
espuma. Todos os experimentos apresentaram uma boa reprodutibilidade, com
curvas representadas caracteristicamente pela taxa constante e a taxa decrescente.
Para o ajuste dos dados da clara de capoeira os modelos não lineares que melhor
representaram os dados experimentais foram o de Midilli e Kucuk e o modelo de
Page seguidos do modelo linear que foi utilizado para o ajuste dos dados até os 150
minutos de secagem. O modelo de Midilli e Kucuk apesar de apresentar o melhor
coeficiente de determinação (R2) não foi estatisticamente significativo. Para a clara
de granja o modelo linear apresentou o melhor ajuste considerando o tempo máximo
de 130 minutos de secagem, seguido pelos modelos não lineares de Midilli e Kucuk
e o de Page respectivamente. O processo de secagem da clara de ovo pelo método
de camada de espuma mostrou-se satisfatório quanto aos parâmetros avaliados,
sendo que as condições testadas não influenciaram de forma significativa em
características tecnológicas importantes do produto final, como o teor de proteínas. / The egg in their entirety form or the white and the yolk present as essential ingredient
in many food products by adding nutritional and functional properties. Drying is a
successful way of conservation of eggs, whereas some advantages as to occupy
less space ease of transport, good uniformity, easier to use and be stable
microbiological quality. A considerable advantage in the foam-mat drying is its ability
to maintain high product quality, presenting great opportunities for the food industry,
besides the low temperature employed and reduced dehydration of time due to the
larger area of contact with air. This work aims to study the drying kinetics in foam-mat
drying the white of the farm eggs and capoeira (caipira) and to adjust the
experimental data of the curves of dryness with the kinetic model obtained as
Henderson and Pabis, Midilli and Kucuk , Page and a linear model. The study of the
influence of the independent variables about dryness was made according to an
experimental factorial plan complete 23 + 4 central points. The operational variables
to be studied (input variables) were: thickness of the foam layer; shaking time of
foam and drying temperature. And the dependent variables of the process (output
variables) were drying time and final moisture content, protein content and brightness
(color). It was made physicochemical characterization, and microscopic color of the
powder obtained was performed. Egg whites to contain naturally foaming properties
due to the high content and structure of its proteins showed satisfactory results
regarding the physical characteristics of the foam. All experiments showed good
reproducibility with curves represented by the characteristically constant rate and
decreasing rate. For the adjustment of the data of the capoeira white data nonlinear
models that best represent the experimental data were of Midilli and Kucuk and
followed by Page linear model was used to fit the data until 150 minutes drying. The
model of Midilli and Kucuk despite having the best coefficient of determination (R2)
was not statistically significant. For the white of the farm linear model showed the
best fit considering the maximum time of 130 minutes drying, followed by non-linear
models and Midilli and Kucuk and the Page respectively. The process of drying the
egg white froth layer method was satisfactory for the evaluated parameters, and the
conditions tested did not influence significantly on important technological
characteristics of the final product as the protein.
|
197 |
Processos preliminares da infecção viral: estudo estereoquímico da proteína E do Dengue / Preliminary processes of viral infection: stereochemical study of the E protein of DengueRicardo Oliveira dos Santos Soares 26 July 2013 (has links)
A Infecção pelo dengue afeta todas as regiões tropicais e subtropicais do globo, registra aproximadamente 390 milhões de casos por ano, e se destaca como um problema emergente de proporções crescentes, especialmente no Brasil, que atualmente responde por 60% dos casos no continente americano. Assim, ações para criar, adaptar e atender as condições para promover avanços na compreensão do processo de infecção pelo vírus em nível molecular pode ser de grande valor, tanto para enfrentar os desafios impostos pela conjuntura atual do dengue, quanto pela possibilidade de ampliar o conhecimento de mecanismos moleculares para outros vírus relacionados. Aqui, focando na proteína E do envelope do vírus do dengue, abordamos o problema da infecção viral sob os aspectos estruturais da proteína do envelope (E) quando enfrenta as condições ambientais distintas ao longo do caminho desde o trato digestivo do vetor exotérmico até a maquinaria celular do hospedeiro homeotérmico. Para este efeito, empregamos simulações de Dinâmica Molecular, avaliando e quantificando os processos de rearranjo conformacional do o domínio III isolado da proteína E dos quatro sorotipos de dengue, os quais são induzidos por alterações nos parâmetros termodinâmicos intensivos (pH 3, 5 e 7, T = 298K e 310K). Além disso, a configuração quaternária pentarradial de cinco domínios III é estudada, correlacionando flexibilidades específicas das regiões de loops a ajuste induzido a eventuais ligantes. Nós também verificamos a estabilidade estrutural do complexo DIII com o fragmento da região ligante de antígeno de um anticorpo monoclonal (Fab 1A1D-2), bem como as forças de interação entre a interface de ligação, identificando resíduos-chave. Além disso, os eventos relacionados com a interação da proteína E (tanto na forma monomérica quanto na dimérica) com o envelope lipídico viral são minuciosamente estudados, abrindo o caminho para um possível estudo centrado na formação de trímeros da proteína E, levando à fusão de membranas e subsequente inoculação do RNA viral no citoplasma. Finalmente, alternativas são propostas para a compreensão do mecanismo de ação da fosfolipase do veneno de Crotalus durissus terrificus - a cascavel sul-americana, que tem se mostrado eficaz na inibição in vitro da infecção pelo vírus do dengue. / Dengue infection burdens all tropical and subtropical regions of the globe, registers approximately 390 million cases annually, and stands out as an emerging problem of increasing proportions, especially in Brazil, which currently accounts for 60% of cases in the American continent. Thus, actions to create, adapt and meet conditions to promote advances in understanding the process of virus infection at the molecular level can be of great value both to meet the challenges posed by current conjuncture of dengue, and for the possibility to extend the knowledge of the molecular mechanisms to related viruses. Here, focusing on the E protein of the dengue virus envelope, we address the problem of viral infection under stereochemical aspects of the envelope (E) protein when it undergoes the distinct environmental conditions along the pathway from the exothermic vector\'s digestive tract to the homeothermic host\'s cell machinery. To this end, we employ molecular dynamics to assess and quantify the processes of conformational rearrangement of isolated domain III of the E protein of the four serotypes of dengue, as induced by changes on intensive thermodynamic parameters (pH 3, 5 and 7; T = 298K and 310K). Further, the 5-fold quaternary configuration of five domains III is studied, correlating specific loop regions flexibilities with induced fit with eventual ligands. We also check the structural stability and interaction forces between the interface of the complex DIII and the antigen binding fragment of a monoclonal antibody (Fab 1A1D-2), identifying key residues. Additionally events related to the interaction of the E protein (both as a monomer and as a dimer) with the viral membrane are thoroughly studied, paving the way for a possible study focused on the formation of trimers of E protein, leading to membrane fusion and subsequent inoculation of viral RNA in the cytoplasm. Finally, alternatives are proposed for understanding the mechanism of action of the phospholipase from the venom of Crotalus durissus terrificus - the South American rattlesnake, which has proven effective in vitro inhibition of Dengue virus infection.
|
198 |
Estudo das dispersões metrológicas em redes neurais artificiais do tipo Multilayer Perceptrons através da aplicação em curvas de calibração. / Study of metrological dispersions in Mulltilayer Perceptrons, one type of artificial neural networks, through calibration curve application.Itamar Magno Barbosa 07 December 2009 (has links)
Este trabalho é um estudo das dispersões metrológicas em aproximações de funções tidas como não conhecidas ou não totalmente conhecidas. A metodologia alternativa para esse fim são as redes neurais artificiais do tipo Multilayer Perceptrons (MLP), aqui utilizadas como aproximadoras de funções. As funções aproximadas são curvas de calibração decorrentes de indicações de instrumentos ou sistemas de medição numa calibração. Essas curvas levam consigo propriedades metrológicas e possuem, neste trabalho, papel de ponte entre os elementos considerados da teoria metrológica e os elementos considerados da teoria da Inteligência Computacional: as Multilayer Perceptrons (MLPs). Uma balança externa de medição de esforços aerodinâmicos e uma Língua Eletrônica (LE), aplicada na medição da concentração de cátions, foram os meios de aplicação dos conceitos dessa metodologia alternativa. As proposições desta tese visam implementar melhorias na exatidão do ajuste das curvas de calibração por meio da consideração dos seguintes fatores: grandezas de influências, incertezas nos Valores Objetivos (VOs), tendência de medição de erros sistemáticos ocultos ou não solvidos e indicadores de desempenho metrológicos. A indicação da qualidade na medição ou a indicação da competência metrológica de um laboratório de calibração é estabelecida pelos valores das incertezas, e a curva de calibração é o ponto de partida para os cálculos desses valores. Visto que o estabelecimento dessa curva é uma das dificuldades para o cálculo das incertezas e a própria curva é uma fonte de incerteza, sua aproximação requer uma a cuidadosa e meticulosa metodologia, daí a importância estratégica deste trabalho. As dispersões metrológicas possuem conotação de incertezas nas medições e elas são a base para a determinação de seu valor numérico; assim, os indicadores de desempenho podem representar essas dispersões e a recíproca também é verdadeira: a incerteza padrão pode ser um dos indicadores de desempenho. Sintetizando, nesta tese é mostrado de que forma a teoria da inteligência computacional adentra na teoria da metrologia e vice versa, nas esferas dos elementos aqui considerados. / The present study investigates metrological dispersions in fitting partially or totally unknown functions. An alternative method is the application of a multilayer perceptron neural network used here to fit functions. The fitting functions are calibration curves from calibration indications of measurement systems or instruments. These curves hold metrological properties and establish a link between elements of Metrological theory and elements of Computing Intelligence theory: the Multilayer Perceptrons. An external balance of aerodynamic forces and moments and an electronic tongue applied in the measurement of cation concentrations were the measurement systems used to apply the concepts of this alternative methodology. This thesis proposes improvements in the accuracy of fitting calibration curves considering the following factors: influence quantities, uncertainties about target values, tendency of hidden or not solved systematic errors and metrological performance functions. The measurement quality indicator or the laboratory metrological competence indicator is established by uncertainty values and the calibration curve is the starting point for the calculation of these values. The establishment of this curve is one of the difficulties in assessing uncertainties and the curve itself is an uncertainty source. Therefore, a careful and meticulous methodology is necessary in curve approximation, which explains the strategic importance of this work. Metrological dispersions have connotation of uncertainty in measurements and are the basis for calculating their numerical values, the performance functions can represent metrological dispersions and the opposite is also true: the standard uncertainty can be a performance function. Making a synthesis, this thesis demonstrates how computing intelligence theory takes into account the metrological theory and vice versa, in the elements of these theories that were discussed in the present study.
|
199 |
Condição macroeconômica e estrutura de capital, evidências do Brasil entre os anos de 1995 e 2013Gavioli, Karen Priscilla da Cunha 11 February 2015 (has links)
Made available in DSpace on 2016-03-15T19:26:25Z (GMT). No. of bitstreams: 1
Karen Priscila da Cunha Gavioliprot.pdf: 1194372 bytes, checksum: 6a6571efb045aaeed718f45bba378e72 (MD5)
Previous issue date: 2015-02-11 / Given the broad topic in the field of capital structure, this work aims to contribute to the advancement of studies analyzing firms belonging to São Paulo Stock Exchange (BOVESPA), from 1995 to 2013. With the focus on identifying the behavior of financial leverage and the speed adjustment under different macroeconomic conditions, analogously with Cook and Tang (2010) and Mukherjee and Mahakud (2012). Some studies realized in other countries and also in Brazil used the macroeconomic variables as part of the company's debt composition, and there are, by all stakeholders, the need to improve knowledge on how companies react to changes of these macroeconomic variables. From a sample of 334 Brazilian, the panel was used in the art, applying the fixed effects method and then using dynamic through the GMM method (General Method of Moments) as a way to compare the results obtained in the static model and understand the leverage adjustment speed. Our results demonstrate that Brazilian companies are influenced by GDP and M4 when there is an unfavorable moment in the economy, adjusting their leverage faster, unlike in the case of the Selic interest rate, interest spread, inflation and exchange. In general, it appears that in Brazil companies tend to increase leverage when there is less growth for not sufiencientes reserves to survive the fall of the growth, and benefits from the low rates of times to get the most benefit front of banks and companies of development. / Diante do vasto tema no campo da estrutura de capital, esta dissertação visa contribuir no avanço dos estudos analisando empresas pertencentes a Bolsa de Valores de São Paulo (BOVESPA), no cenário de 1995 a 2013. Com foco em identificar o comportamento da alavancagem financeira e a velocidade de ajuste em diferentes condições macroeconômicas, analogamente com Cook e Tang (2010) e Mukherjee e Mahakud (2012). Alguns estudos em outros Países e no Brasil utilizaram as variáveis macroeconômicas como integrante na composição de endividamento da empresa, e há por parte de todos os agentes a necessidade de aprimorar o conhecimento em como as empresas reagem às mudanças dessas variáveis macroeconômicas. A partir de uma amostra de 334 empresas brasileiras, foi utilizado a técnica em painel, aplicando-se o método de efeitos fixos e em seguida utilizando o dinâmico por meio do método de GMM (General Method of Moments) como forma de comparar os resultados obtidos no modelo estático e entender a velocidade de ajustamento da alavancagem. Nossos resultados demonstram que as empresas brasileiras são influenciadas pelo PIB e M4 quando há um momento desfavorável na economia, ajustando a sua alavancagem mais rapidamente, diferentemente no caso das taxas de juros Selic, spread de juros, inflação e câmbio. De modo geral, verifica-se que no Brasil as empresas tendem aumentar a alavancagem quando há menor crescimento por não ter reservas sufiencientes para sobreviver a queda do crescimento, e beneficia-se do momentos de taxas baixas para obter maior benefício frente aos bancos e empresas de fomento.
|
200 |
Simulação fluidodinâmica de um leito fluidizado empregando correlações de arrasto gás-sólido ajustadas por valores experimentaisKestering, Daniel Augusto 31 October 2016 (has links)
Submitted by Silvana Teresinha Dornelles Studzinski (sstudzinski) on 2017-03-16T12:44:59Z
No. of bitstreams: 1
Daniel Augusto Kestering_.pdf: 4709572 bytes, checksum: bd1166e3946f589fd86f700a714928c2 (MD5) / Made available in DSpace on 2017-03-16T12:44:59Z (GMT). No. of bitstreams: 1
Daniel Augusto Kestering_.pdf: 4709572 bytes, checksum: bd1166e3946f589fd86f700a714928c2 (MD5)
Previous issue date: 2016-10-31 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / PROSUP - Programa de Suporte à Pós-Gradução de Instituições de Ensino Particulares / A investigação dos modelos de arrasto gás-sólido é fundamental para se obter bons resultados de fluidização utilizando dinâmica dos fluidos computacional. A tecnologia de fluidização é muito utilizada para conversão térmica de combustíveis sólidos e tem como principal vantagem a boa mistura entre gás e sólido. O presente trabalho utiliza dois softwares para simulação de leitos fluidizados, MFIX e Ansys Fluent, para comparar os modelos de arrasto de Syamlal e O`Brien (1987) e Di Felice (1994). A abordagem utilizada para modelagem do problema é o modelo de dois fluidos (Two Fluid Model, TFM), juntamente com a teoria cinética para escoamento laminar (Kinetic Theory for Granular Flow, KTGF). Um método para ajuste do modelo de DF (DI FELICE, 1994), baseado no trabalho de Esmaili e Mahinpey (2011), é sugerido, assim como o modelo de SO (SYAMLAL; O`BRIEN,1987) é ajustado utilizando dados em condição de mínima fluidização. Foram conduzidos experimentos para obtenção de velocidade e fração de vazios em condição de mínima fluidização a fim de ajustar ambos os modelos. As partículas utilizadas nos experimentos foram esferas de vidro de 1,21 mm, 0,8 mm e areia de fundição de 0,29 mm. O método proposto representa de forma adequada os dados obtidos em mínima fluidização das três partículas. Com os modelos de arrasto ajustados, simulações numéricas em regime de fluidização foram conduzidas em domínio bidimensional e tridimensional. Os resultados obtidos nestas simulações apresentam boa concordância com resultados experimentais em queda de pressão do leito e borbulhamento. Concomitantemente, um código para obtenção de modelo de arrasto utilizando o algoritmo EMMS/Bubbling foi desenvolvido e simulações numéricas bidimensionais foram conduzidas, para teste e validação. Os resultados do código mostram que o modelo segue a mesma tendência de Shi, Wang e Li (2011), que desenvolveram o modelo EMMS/Bubbling. / The investigation of gas-solid drag models is a key to obtain good results of fluidization by using computational fluid dynamic tools. The fluidization technology is used for solid fuel thermal conversion and its main advantage is the high gas-solid mixture. The present effort uses two software for fluidized beds simulation, MFIX and Ansys Fluent, in order to compare the drag models of Syamlal and O`Brien (1987) and Di Felice (1994). Two Fluid Model is the approach used to model together with Kinetic Theory for Granular flow. A method to adjust DF drag model (DI FELICE, 1994), based on Esmaili and Mahinpey (2011), is suggested, as well as SO drag model (SYAMLAL; O’BRIEN, 1987) is adjusted using data obtained from minimum fluidization condition. Experiments were realized to obtain velocity and void fraction at minimum fluidization condition in order to adjust both models. Glass beads with diameter of 1,21 mm and 0,8 mm and sand with diameter of 0,29 mm were used on experiments. The purposed method fits the data obtained on minimum fluidization condition of the three particles, in accordance with experimental data. With the models adjusted, numerical simulation were conducted using drag models for two- and three-dimensional domain. The results of this simulations agrees with experimental data of pressure drop and bubble formation. Simultaneously, a code to obtain a drag model using EMM/Bubbling algorithm was developed and numerical simulation were conducted. Results of EMMS show that the model have the same tendency of results of Shi, Wand and Li (2011), who developed EMMS/Bubbling model.
|
Page generated in 0.0499 seconds