• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 17
  • 1
  • Tagged with
  • 18
  • 18
  • 14
  • 11
  • 5
  • 5
  • 5
  • 4
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Validação de equações para estimar o subfator CiII por resíduos de milho em superfície /

Sousa, Sabrina da Silva Nascimento January 2019 (has links)
Orientador: Marcílio Vieira Martins Filho / Resumo: O processo de erosão é um dos principais agentes causadores da degradação do solo. A validação de modelos é um passo fundamental no desenvolvimento de uma ferramenta de predição da erosão aplicável e válida. Logo, é importante avaliar o desempenho dos modelos existentes para assegurar que as estimativas geradas por eles concordem com a realidade. O objetivo do presente trabalho foi avaliar modelos para a predição do subfator cobertura e manejo (CiII) relativo à erosão entressulcos. Um experimento fatorial completo foi conduzido com cinco doses de resíduo de milho (0; 0,05; 0,15; 0,40 e 0,80 kg m-2), quatro declives (5,2%; 10,6%; 15,3% e 36,4%) e duas repetições, sob condições de chuva simulada, com prévio umedecimento do solo, para determinar as taxas de erosão em entressulcos (Di) e enxurrada (R). Avaliou-se a erosão em entressulcos (Di) e o subfator cobertura e manejo (CiII), em parcelas experimentais de 0,5 x 0,75 m, em solo recentemente preparado. No declive de 5,2% com solo descoberto a perda de solo obtida correspondeu a 458,30 kg ha-1, esse valor pode ser reduzido para 67,13 kg ha-1 com o uso de 90 % de cobertura do solo por resíduos de milho. Já os 1.448,33 kg ha-1 de solo perdido no tratamento com solo descoberto a 36,4% de declive pode ser reduzido para 188,67 kg ha-1, caso seja adotado o uso de 90% de cobertura do solo. Testes de validação com base na raiz quadrada do erro médio (RMSE), eficiência do modelo (EF) e diferença média ( MD ) permitiram concluir que : as... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The erosion process is one of the main agents that cause soil degradation. The validation of models is a fundamental step in the development of an applicable and valid erosion prediction tool. Therefore, it is important to evaluate the performance of existing models to ensure that the estimates generated by them fit the reality. The objective of the present work was to evaluate models for the prediction of the subfactor cover and management (CiII) related to interrill erosion. A complete factorial experiment was conducted with five doses of corn residue (0.0; 0.05; 0.15; 0.40 and 0.80 kg m-2), four slopes (5.2%; 10.6%; 15.3% and 36.4%) and two replications, under simulated rainfall conditions, with previous soil humidification, to determine the erosion rate (Di) and runoff rate (R). Interrill erosion (Di) and subfactor cover and management (CiII) were evaluated in experimental plots of 0.5 × 0.75 m in freshly prepared soil. In the 5.2% slope with uncovered soil the loss of soil obtained corresponded to 458.30 kg ha-1, this value can be reduced to 67.13 kg ha-1 with the use of 90% soil cover by residues of corn. However, the 1.448.33 kg ha-1 of soil lost in treatment with uncovered soil at 36.4% of slope can be reduced to 188.67 kg ha-1, if the use of 90% of soil cover is adopted. Validation tests based on the root mean square error (RMSE), model efficiency (EF) and mean error (MD) allowed us to conclude that: the models CiII = e-2.50 CS / 100, CiII = e-2.33 CS / 100 and CiII ... (Complete abstract click electronic access below) / Mestre
2

Aplicação de descritores topológicos e modelos estatísticos para o descobrimento de potenciais antagonistas da integrina alfa4 beta1 / Topological descriptors and statistical models applied to the discovery of potential alpha4 beta1 integrin antagonists

Silva, Gilberto Ferreira da January 2012 (has links)
Submitted by Alessandra Portugal (alessandradf@ioc.fiocruz.br) on 2013-09-24T19:31:30Z No. of bitstreams: 1 Gilberto Ferreira da Silva_Tese.pdf: 10525757 bytes, checksum: fed4f4587ca5231f5b7517d0ec5bee91 (MD5) / Made available in DSpace on 2013-09-24T19:31:30Z (GMT). No. of bitstreams: 1 Gilberto Ferreira da Silva_Tese.pdf: 10525757 bytes, checksum: fed4f4587ca5231f5b7517d0ec5bee91 (MD5) Previous issue date: 2012 / Fundação Oswaldo Cruz. Instituto Oswaldo Cruz. Vice Direção de Ensino, Informação e Comunicação. Rio de Janeiro, RJ, Brasil. / Doenças autoimunes abrangem uma grande variedade de desordens inflamatórias, até hoje consideradas incuráveis, tais como Artrite Reumatoide, Asma, Colite Ulcerativa, Doença de Crohn, Esclerose Múltipla, Hepatite Autoimune, e outras. Elas são caracterizadas pelo acúmulo exagerado e desmotivado de leucócitos em alguns órgãos, atacando células sadias do próprio organismo, lesionando e destruindo tecidos importantes. As integrinas, receptores glicoproteínicos expressos na superfície dos leucócitos, têm papel importante nesse processo: elas modulam a adesão dos leucócitos através da interação com seus ligantes primários, VCAMs (Vascular Cell Adhesion Molecules), expressos no tecido afetado. A interação integrina/ligante é que viabiliza a migração do leucócito do vaso sanguíneo para o interior do tecido. Sendo assim, uma alternativa terapêutica promissora, ainda sob investigação, para essas doenças é a administração de antagonistas, moléculas que tenham afinidade pelas integrinas de modo a se ligar a elas preferencialmente aos ligantes primários, dessa maneira inibindo a passagem dos leucócitos para o sítio da inflamação. No caso de Artrite Reumatoide, Asma e Esclerose Múltipla, a integrina de maior importância é a α4β1, para a qual uma boa quantidade de antagonistas já foi identificada. Infelizmente, porém, por variados motivos, nenhuma dessas drogas tem viabilidade para aplicação a seres humanos. Um indicador quantitativo da capacidade, exibida por uma droga, de inibir determinado processo biológico ou bioquímico é o índice IC50, definido pelo FDA como "a concentração (dessa droga) requerida para a inibição de 50% do processo in vitro". A partir, pois, de uma lista, compilada da literatura, de moléculas com capacidade, já experimentalmente quantificada, de antagonismo à integrina α4β1, nós participamos da busca de novos antagonistas construindo e aplicando modelos estatísticos de estimativa do índice IC50 para novas moléculas. As ferramentas que usamos são oriundas da Topologia Molecular, um campo de pesquisas da Teoria dos Grafos em Química, que busca inferir quantitativamente características importantes das moléculas a partir da topologia (vértices, arestas, adjacências, etc.) de grafos correspondentes a essas moléculas. / Autoimmune diseases cover a large variety of inflammatory disorders like Rheumatoid Arthritis, Asthma, Ulcerative Colitis, Crohn Disease, Multiple Sclerosis, Autoimmune Hepatitis, and others. To date, all them seem to be incurable. They are characterized by excessive and unnecessary accumulation of leukocytes in healthy organs, attacking the body's own healthy cells, injuring and destroying important tissues. Integrins, glycoprotein receptors expressed on the surface of leukocytes, play an important role in this process: they modulate leukocyte adhesion and migration from the blood vessel into the tissue through interaction with its ligands primary VCAMs (Vascular Cell Adhesion Molecules), expressed in the affected tissue. Thus, a promising alternative treatment for those diseases, still under investigation, is the administration of antagonists: molecules that bind to integrins with affinity comparable to that of their primary ligands, thereby inhibiting the migration of leukocytes to the site of inflammation. For rheumatoid arthritis, asthma and multiple sclerosis, the most important integrin is α4β1, for which several antagonists have been identified and published. Unfortunately, for various reasons, none of these drugs is feasible for application to humans; this way, the search for new antagonists is still active. A quantitative indicator of the ability of a drug to inhibit a biological or biochemical process is the IC50 index, defined by the FDA as "the concentration (of the drug) required for 50% inhibition of process in vitro". We perform participate in the search for new α4β1 antagonists by: starting with a list of antagonists compiled from the literature with their experimentally evaluated IC50 evaluated experimentally compiled from the literature, we build and apply statistical models to estimate the IC50 index for new molecules. We use tools derived from molecular topology, a research field of research of Chemical Graph Theory, which aims to infer quantitatively important characteristics of the molecules from the topology (vertices, edges, adjacencies , etc.) of the graphs corresponding to these molecules.
3

Estimativa da irradiação solar global pelo método de Angstrom-Prescott e técnicas de aprendizado de máquinas / Estimation of global solar irradiation by Angstrom-Prescott method and machinelearning techniques

Silva, Maurício Bruno Prado da [UNESP] 22 February 2016 (has links)
Submitted by MAURÍCIO BRUNO PRADO DA SILVA null (mauricio.prado19@hotmail.com) on 2016-04-14T21:18:39Z No. of bitstreams: 1 Dissertação_Mauricio com ficha.pdf: 839383 bytes, checksum: d8cae8991d7bfed483f452706bf3cd66 (MD5) / Approved for entry into archive by Felipe Augusto Arakaki (arakaki@reitoria.unesp.br) on 2016-04-18T17:08:20Z (GMT) No. of bitstreams: 1 silva_mbp_me_bot.pdf: 839383 bytes, checksum: d8cae8991d7bfed483f452706bf3cd66 (MD5) / Made available in DSpace on 2016-04-18T17:08:20Z (GMT). No. of bitstreams: 1 silva_mbp_me_bot.pdf: 839383 bytes, checksum: d8cae8991d7bfed483f452706bf3cd66 (MD5) Previous issue date: 2016-02-22 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / No presente trabalho é descrito o estudo comparativo de métodos de estimativas da irradiação solar global (HG) nas partições diária (HGd) e mensal (HGm): geradas pela técnica de Angstrom-Prescott (A-P) e duas técnicas de Aprendizado de Máquina (AM), Máquinas de Vetores de Suporte (MVS) e Redes Neurais Artificiais (RNA). A base de dados usada foi medida no período de 1996 a 2011, na Estação Solarimétrica em Botucatu. Por meio da regressão entre a transmissividade atmosférica (HG/HO) e razão de insolação (n/N), o modelo estatístico (A-P) foi determinado, obtendo equações lineares que permitem estimar HG com elevados coeficientes de determinação. As técnicas, MVS e RNA, foram treinadas na mesma arquitetura de A-P (modelo 1). As técnicas MVS e RNA foram treinadas ainda em mais 3 modelos com acréscimos, uma a uma, das variáveis temperatura do ar, precipitação e umidade relativa (modelos 2, 3 e 4). Os modelos foram validados usando uma base de dados de dois anos, denominadas de típico e atipico, por meio de correlações entre os valores estimados e medidos, indicativos estatísticos rMBE, MBE, rRMSE, RMSE e d de Willmott. Os indicativos estatísticos r das correlações mostraram que o modelo (A-P) pode estimar HG com elevados coeficientes de determinação nas duas condições de validação. Já indicativos estatísticos rMBE, MBE, rRMSE, RMSE e d de Willmott indicam que o modelo (A-P) pode ser utilizado na estimativa de HGd com exatidão e precisão. Os indicativos estatísticos obtidos pelos 4 modelos das técnicas MVSd e RNAd (diária) e MVSm e RNAm (mensal) podem ser utilizadas nas estimativas de HGd com elevadas correlações e com precisão e exatidão. Entre os modelos foram selecionadas por comparação entre os indicativo estatisticos as redes MVS4d e RNA4d (diária) e MVS1m e RNA1m (mensal). A comparação dos indicativos estatísticos rMBE, MBE, rRMSE, RMSE, d de Willmott, r e R2 obtidos na validação entre os modelos (A-P), MVS e RNA mostrou que: a técnica MVS apresentou melhor resultado que o modelo estatístico de (A-P); esta técnica apresentou melhor resultado que a RNA; o modelo estatístico (A-P), apresentou no geral melhor resultado que a RNA. / In this paper describes the comparative study of different methods for estimating global solar irradiation (HG) in the daily partitions (HGd) and monthly (HGm): generated by Angstrom-Prescott (AP) and two machine learning techniques (ML), Support Vector Machines (SVM) and Artificial Neural Networks (ANN). The used database was measured from 1996 to 2011, in Solarimetric station in Botucatu. Through regression between atmospheric transmissivity (HG / HO) and insolation ratio (n / N), the statistical model (A-P) was determined, obtaining linear equations that allow estimating HG with high coefficients of determination. The techniques, svm and ANN, were trained on the same architecture of A-P (model 1). The SVM and ANN techniques were further trained on the most models with 3 additions, one by one, the variable air temperature, rainfall and relative humidity (model 2, 3 and 4 ). The models were validated using a database of two years, called of typical and atypical, with correlation between estimated and measured values, statistical indications: rMBE, MBE, rRMSE, RMSE, and d Willmott. The statistical indicative of correlations coefficient (r) showed that the model (A-P) can be estimated with high HG determination coefficients in the two validation conditions. The rMBE, MBE, rRMSE, RMSE Willmott and d indicate that the model (A-P) can be used to estimate HGD with accuracy and precision. The statistical indicative obtained by the four models of technical SVMd and ANNd (daily) and SVMm and ANNm (monthly) can be used in the estimates of HGD with high correlations and with precision and accuracy. Among the models were selected by comparing the indicative statistical SVM4d and ANN4d networks (daily) and SVM1m and ANN1m (monthly). The comparison of statistical indicative rMBE, MBE, rRMSE, RMSE, d Willmott, r and R2 obtained in the validation of the models (A-P), SVM and ANN showed that: the SVM technique showed better results than the statistical model (A-P); this technique showed better results than the ANN; the statistical model (A-P) showed overall better result than ANN.
4

Caracterização e modelagem estatística do diafragma sintético utilizado na planta de cloro soda – Maceió/AL.

SILVA, Tiago Marques da. 21 April 2018 (has links)
Submitted by Jesiel Ferreira Gomes (jesielgomes@ufcg.edu.br) on 2018-04-21T00:14:07Z No. of bitstreams: 1 TIAGO MARQUES DA SILVA – DISSERTAÇÃO (PPGEQ) 2015.pdf: 4540585 bytes, checksum: d5453ff1f557b40cde70f93665568858 (MD5) / Made available in DSpace on 2018-04-21T00:14:07Z (GMT). No. of bitstreams: 1 TIAGO MARQUES DA SILVA – DISSERTAÇÃO (PPGEQ) 2015.pdf: 4540585 bytes, checksum: d5453ff1f557b40cde70f93665568858 (MD5) Previous issue date: 2015-03-15 / As plantas de cloro soda formam um importante segmento na indústria moderna. Neste segmento, o mecanismo utilizado para geração dos produtos é a eletrólise. Este mecanismo usa eletricidade como fonte geradora de energia, desdobrando moléculas de água e alguns sais em produtos tais como cloro, hidrogênio e soda caustica. Para realizar eletrólise, em escala industrial, existem três tecnologias comercialmente disponíveis, são elas: Mercúrio, Diafragma e Membrana. Destas, a tecnologia diafragma tem um papel de destaque, pois, apesar de ter perdido espaço nos últimos anos para a tecnologia membrana, ainda tem a maior contribuição no volume de produção. O entendimento das características físico-químicas do diafragma é o grande desafio desta tecnologia, pois, isso represe nta o domínio da técnica de deposição do diafragma e conseqüentemente o conheci mento prévio das características de operação da célula. Este trabalho visou à obtenção de um modelo matemático, do diafragma sintético utilizado na Cloro-soda em Alagoas, a partir da concentração dos produtos que o constituem, parte A, B e C. Através este trabalho, também foi possível avaliarmos o comportamento das características físicas do diafragma diante da variação de concentração destes componentes no meio. Para esta avaliação, a técnica utilizada baseou-se num planejamento industrial chamado de DOE – Delineamento e experime nto, onde foram preparadas amostras de diferentes concentrações e a valiado os parâmetros que definem a caracterização do diafragma, que são número de MacMullin, permeabilidade e espessura. De posse destes dados e utilizando a modelagem de Van Zee (1984) foi possível prever algumas condições básicas de operação do diafragma, tais como: eficiência de corrente e concentração de álcali produzido. O modelo encontrado trouxe uma grande aproximação dos dados experimentais, trazendo o coeficiente de correção para NMac e β de 96,7% e 99,9% respectivamente. / The soda chlorine plants form an important segment in modern industry. In this segment, the mechanism used for generation of products is electrolysis. This mechanism uses electricity as a source of energy, unfolding water molecules and some salts in products such as chlorine, hydrogen and caustic soda. To perform electrolysis on an industrial scale, the re are three commercially available technologies, they are: Mercury, diaphragm and membrane. Of these, the diaphragm technology plays an important role because, despite having lost ground in recent years to the membrane technology, still has the largest contribution in volume production. Understanding the physical and chemical characteristics of the diaphragm is the great challenge of this technology , because it is the domain of the diaphragm deposition technique and therefore th e prior knowledge of cell operating characteristics. This work aimed to obtain a mathematical model, the synthetic diaphragm used in the chlorine-soda in Alagoas, from the concentration of products which are, A, B and C. Through this work, it was also possible to evaluate the behavior of the characteristics the physical diaphragm in response to varying concentration of these components in the medium. For this evaluation, the technique used was based on an industrial planning called DOE - Design and experiment, where samples were prepared in different concentrations and evaluated the parameters that define the characteristics of the diaphragm, which are number of MacMullin, permeability and thickness. With these data using the modeling Van Zee (1984) it was possible to provide for some basic conditions diaphragm operation, such as current efficiency and the concentration of the alkali produced. The model thus brought a great approximation of theexperimental data, bringing the correction coefficient for NMAC and β of 96.7% and 99.9% respectively.
5

Modelo de distribuição de probabilidade aplicada a modelagem dos índices das bolsas de valores mundiais inspirada na teoria cinética do gás ideal e teoria da colisão

LIMA, Neilson Ferreira de 31 August 2016 (has links)
Submitted by Mario BC (mario@bc.ufrpe.br) on 2018-05-16T14:35:54Z No. of bitstreams: 1 Neilson Ferreira de Lima.pdf: 1836815 bytes, checksum: e7c16583ec4f0724ee9a2b35e98b7635 (MD5) / Made available in DSpace on 2018-05-16T14:35:54Z (GMT). No. of bitstreams: 1 Neilson Ferreira de Lima.pdf: 1836815 bytes, checksum: e7c16583ec4f0724ee9a2b35e98b7635 (MD5) Previous issue date: 2018-08-31 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / The indices of stock exchanges serve as a thermometer for the stock market and it is, also, based on these indices that investors and researchers evaluate the economies and markets of countries, therefore, for these indices is possible to study the oscillations, profitability, decrease and growth of investment in stock exchanges.With this focus, the objective of this thesis was to develop a statistical model, inspired by the kinetic theory of gases and the theory of collision, to construct a probabilistic model based on rate of return, which could adjust the indices of global stock exchanges. The model proposed probability in this study was compared with the power of law and the exponential probability distribution. The new model better adjusted indexes of stock exchanges, and better explains the behavior of financial markets when compared to studies dealing with exponential distributions and power laws. / Os índices das bolsas de valores servem como um termômetro para o mercado de ações, e também, é baseado nestes índices que investidores ou pesquisadores avaliam as economias e os mercados dos países, pois, por esses índices é possível estudar as oscilações, rentabilidade, decrescimento e crescimento dos investimento nas bolsas de valores. Com isto em foco, o objetivo desta tese foi desenvolver uma modelagem estatística, inspirada na teoria cinética dos gases e teoria da colisão, para construir um modelo probabilístico, baseada na taxa de retorno, que ajustassem os índices das bolsas de valores mundiais. O modelo de probabilidade proposto nesta pesquisa foi comparado com a lei de potência e com a distribuição exponencial de probabilidade. O novo modelo ajustou melhor os índices das bolsas de valores, e, explica melhor o comportamento dos mercados financeiros quando comparado aos trabalhos que tratam das distribuições exponenciais e das leis de potências.
6

Identificação do grau de comprometimento neurossensório-motor utilizando tempo de resposta / Identifying the degree of neurosensory-motor impairment using response time

Klafke, Marcelo 16 January 2017 (has links)
Submitted by Cássia Santos (cassia.bcufg@gmail.com) on 2017-02-15T09:30:57Z No. of bitstreams: 2 Dissertação - Marcelo Klafke - 2017.pdf: 17513255 bytes, checksum: b4da11e8b63654efc6d6796160aec16f (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2017-02-15T09:33:11Z (GMT) No. of bitstreams: 2 Dissertação - Marcelo Klafke - 2017.pdf: 17513255 bytes, checksum: b4da11e8b63654efc6d6796160aec16f (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-02-15T09:33:11Z (GMT). No. of bitstreams: 2 Dissertação - Marcelo Klafke - 2017.pdf: 17513255 bytes, checksum: b4da11e8b63654efc6d6796160aec16f (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2017-01-16 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / This work proposes the development of the evolution scale for neurosensory-motor pathology through a statistical approach and the use of response time tests. Reference data are collected in two groups: i) individuals are affected and ii) individuals are not affected with Multiple Sclerosis. A portable metering device is developed with the differential of measuring simple and choice response times for upper and lower limbs with the use of auditory and visual stimuli. A method is proposed to evaluate the effectiveness of the rehabilitation process of patients with neurosensory-motor impairment through standardized quantitative measures that aid in clinical decisions and treatment. The result of the proposed method is the multidimensional graph consisting of competing axes formed by normalized scales between 0% and 100% that indicate the level of neurosensory-motor impairment assessed from the response time data. The data distribution is analyzed using the maximum likelihood method, descriptive statistics and the use of the scale and graph model proposed is demonstrated and compared with the Kurtzke Expanded Disability Status Scale in Multiple Sclerosis patients. / Propõe-se neste trabalho o desenvolvimento da escala de evolução para patologia neurossensória-motora através de abordagem estatística e uso de testes de tempo de resposta. Dados de referência são coletados em dois grupos: i) indivíduos acometidos e ii) indivíduos não acometidos com Esclerose Múltipla. É desenvolvido dispositivo medidor portátil com diferencial de mensurar tempos de resposta simples e de escolha para membros superiores e inferiores com o uso de estímulos auditivos e visuais. Propõe-se método de avaliação da eficácia do processo de reabilitação de pacientes com comprometimento neurossensório-motor através de medidas quantitativas padronizadas que auxiliem nas decisões clínicas e no tratamento. O resultado do método proposto é o gráfico multidimensional composto por eixos concorrentes formados por escalas normalizadas entre 0% e 100% que indicam o nível de comprometimento neurossensório-motor avaliado a partir dos dados de tempo de resposta. A distribuição dos dados são analisadas através do método da máxima verossimilhança, estatística descritiva e o uso do modelo de escala e gráfico proposto são demonstrados e comparados com a avaliação da Escala Expandida do Estado de Incapacidade de Kurtzke em pacientes de Esclerose Múltipla.
7

Modelagem estatística de dados pesqueiros / Statistical modelling of fisheries data

Mayer, Fernando de Pol 08 March 2019 (has links)
A flutuação na abundância de estoques pesqueiros é tema de investigação científica desde o final do século XIX. A ciência pesqueira se estabeleceu para que se pudesse compreender os impactos da exploração da pesca em recursos naturais renováveis, e, principalmente, para evitar colapsos e preservar as populações exploradas. A principal fonte de dados para investigações pesqueiras são provenientes da própria pesca. Um dos problemas associados à esse fato, é que os pescadores procuram sempre por áreas de alto rendimento, o que faz com que os dados de captura analisados sejam de uma amostra não aleatória. Além disso, entre as diversas espécies que são capturadas, algumas poucas são consideradas alvo da pescaria, enquanto que as demais são chamadas de capturas incidentais. Tudo isso faz com que dados pesqueiros possuam características particulares, como assimetria, excesso de zeros e sobredispersão. Tradicionalmente, estes dados são analisados ignorando-se a estrutura de dependência espacial e temporal, reconhecidamente importante devido a natureza das informações. O objetivo deste trabalho foi então utilizar abordagens estatísticas recentes, que são capazes de lidar com as características desafiadoras de dados pesqueiros. Inicialmente, foram utilizados modelos hierárquicos bayesianos para a modelagem da estrutura temporal da captura de uma espécie. Para esta modelagem, foi utilizado a aproximação de Laplace encaixada e integrada (INLA), um método recente na literatura para realizar inferência no contexto bayesiano através de aproximação, ao contrário dos tradicionais métodos por amostragem. Esta alternativa é computacionalmente mais eficiente, e se mostrou extremamente viável para a análise de dados pesqueiros. Ao final, pode-se concluir que a dependência temporal é de fato importante, e não pode ser ignorada nesse tipo de dado. Seguindo a mesma ideia, foi também desenvolvido um método de estimação em dois estágios para a obtenção dos parâmetros de modelos dinâmicos de biomassa. A estimação em dois estágios permite a consideração de toda a estrutura de dependência espaço-temporal presente nos dados pesqueiros. De fato, os resultados mostraram que quando estas estruturas são levadas em consideração, as estimativas dos parâmetros de interesse são não viesadas e consistentes. Abordagens multivariadas seriam escolhas naturais para a análise da captura de diversas espécies. No entanto, a maioria destas técnicas envolve a suposição de normalidade, o que praticamente torna inviável seu uso em dados de captura. Os Modelos Multivariados de Covariância Linear Generalizada (McGLM) são uma alternativa recente, pois permitem considerar que as respostas possam assumir qualquer distribuição da família exponencial de dispersão. Isso faz com que dados que possuem dependência, excesso de zeros e sobredispersão possam ser considerados de maneira natural. Neste trabalho, os McGLMs foram utilizados para se verificar a influência de um dispositivo que evita a captura incidental de aves, na captura de duas espécies consideradas alvo da pescaria. Com isso, pôde-se concluir que o artefato, comprovadamente eficiente na redução da captura de aves, não diminui a captura das espécies desejadas. / Fluctuation in abundance of fish stocks is scientifically studied since the end of the 19th century. Fisheries science was established to understand impacts of fisheries in renewable natural resources, and mainly to avoid overfishing and to preserve explored populations. The primary data source for fisheries investigation is from fisheries itself. One of the problems associated with this fact is that fishermen are always looking for high productivity areas, which makes catch data a non-random sample. In addition, among many species captured, only a few are considered targets, while the rest are called bycatch. As a consequence, fisheries data presents particular features, such as asymmetry, excess zeros, and overdispersion. It is well known that catches are highly dependent in time and space, however, this spatiotemporal structure is traditionally ignored when analyzing catch data. The aim of this work was then to apply newly developed statistical approaches, capable of handling the challenging features of fisheries data. Initially, the temporal structure of a bycatch species was modeled through Bayesian hierarchical models. The Integrated Nested Laplace Approximation (INLA), a recent method that uses approximation rather than sampling, in the Bayesian framework, was used. This approach is computationally more efficient and turned out to be a quite viable method to analyze fisheries data. As a conclusion, we showed that the temporal dependence is indeed important, and cannot be ignored when analyzing this kind of data. Following the same reasoning, a two-stage approach was developed for the estimation of parameters from biomass dyna- mic models. This two-stage approach allows the inclusion of spatial and temporal effects, inherently present in fisheries data. Results showed that when this structures are considered, parameter estimates are unbiased and consistent. Multivariate statistical methods should be the default approach when analyzing catch data from several species. However, most of this techniques are based on the normality assumption, which makes it of little use for catch data. The recently developed Multivariate Covariance Generalized Linear Models (McGLM) assumes that response variables could follow any distribution from the exponential dispersion family. This flexibility allows that data with both overdispersion and excess zeros may be modeled in a natural way. In this work, McGLMs were used to assess the influence of a device used to prevent seabird bycatch, in two target species captures. As a conclusion, we showed that the device does not interfere in the catch of targeted species.
8

Estudo experimental de lubrificação e resfriamento no torneamento duro em componentes de grande porte / Experimental study of cooling lubrication methods in hard turning of large components

Alves, Guilherme Carlos 12 June 2017 (has links)
Este trabalho teve como objetivo o estudo experimental de lubrificação e resfriamento no torneamento duro de uma superfície funcional em componentes de grande porte, com aplicação no chão de fábrica. Foram comparadas as técnicas de mínima quantidade de lubrificante e resfriamento abundante, utilizando o método de resposta de superfície. O planejamento tridimensional utilizado foi de dois níveis, adicionado de pontos axiais, ponto central e de réplica. Foram variados a velocidade periférica da peça, o avanço da ferramenta de usinagem e a profundidade de usinagem. Após a execução do experimento, a integridade da superfície foi analisada pela medição da tensão residual, da espessura de possíveis modificações microestruturais e pela medição dos parâmetros estatísticos Sa, Sq e Sz. As medidas foram então ajustadas em modelos matemáticos, otimizadas e por fim comparadas. A análise dos resultados sinalizou que os modelos ajustados para ambos os métodos foram capazes de explicar satisfatoriamente o comportamento das variáveis de resposta. Ainda, a partir da função desirability, foi possível estimar valores ótimos com qualidade equivalente entre os métodos. Tanto para o emprego com mínimas quantidades quanto para resfriamento abundante foram registradas tensões circunferenciais altamente compressivas. Nas condições ótimas, quando empregadas mínimas quantidades de lubrificante, a superfície apresentou valores de tensões residuais 37% maiores em comparação ao obtido quando empregado o resfriamento abundante. Ambos os métodos produziram tanto superfícies livres de modificações microestruturais significativas, como também superfícies com modificações microstruturais significativas. Porém, quando detectadas, as modificações se mostraram muito reduzidas, com espessura de até 2,35 &#956m. Nas condições ótimas, quando empregado mínimas quantidades de lubrificante, a espessura da modificação foi 74% menor em comparação ao obtido quando empregado o resfriamento abundante. Os parâmetros estatísticos sugeriram alguma vantagem da aplicação de mínimas quantidades de lubrificante. Nas condições ótimas, a aplicação MQL apresentou melhor rugosidade Sa, em 47%, e Sz, em 11%. Porém, o desvio-padrão Sq da superfície apresentou valor 12% maior ao resfriamento abundante. / This work aimed to conduct a study of cooling and lubrication in hard turning of functional surface of large components. It was compared the performance of minimum quantity lubrication and abundant cooling through the application of response surface methodology. The activities were developed in shop floor application. It was designed a three-dimensional experiment with two levels, added by axial points, center point and one center replicate. The input variables were the peripheral velocity of the workpiece, the feed of the cutting tool and the depth of cut of machining. After the process were analyzed the surface integrity through the circumferential residual stress, possibly microstructure modified layers and statistical parameters such Sa, Sq and Sz. Then, the measurements were adjusted in mathematical models, optimized and compared. The analysis of the results indicated that the adjusted models for both methods were capable of explaining satisfactorily the behavior of the response variables. Also, the use of the desirability function allowed to predict optimal values with equivalent quality between the methods. The minimal quantities, as well the abundant cooling, produced circumferential residual stresses highly compressive. On optimal conditions, the MQL presented residual stresses 37% lower the abundant cooling. Both methods produced surfaces free of significant altered layers as well surface containing significant surface altered layer. However, when detected, the altered surface layer was very thin, with thickness up to 2,35 &#956m. On optimal conditions, the MQL altered layer was 74% lower the abundant cooling. The statistical parameters indicated some advantage on the application of MQL. On optimal conditions, the minimal quantities presented better Sa roughness in 47%, and Sz, in 11%. However, the standard deviation Sq of the surface presented a value 12% higher the abundant cooling.
9

Atualização dinâmica de modelo de regressão logística binária para detecção de fraudes em transações eletrônicas com cartão de crédito / Dynamic update of binary logistic regression model for fraud detection in electronic credit card transactions

Beraldi, Fidel 01 December 2014 (has links)
Com o avanço tecnológico e econômico, que facilitaram o processo de comunicação e aumento do poder de compra, transações com cartão de crédito tornaram-se o principal meio de pagamento no varejo nacional e internacional (Bolton e Hand , 2002). Neste aspecto, o aumento do número de transações com cartão de crédito é crucial para a geração de mais oportunidades para fraudadores produzirem novas formas de fraudes, o que resulta em grandes perdas para o sistema financeiro (Chan et al. , 1999). Os índices de fraudes têm mostrado que transações no comércio eletrônico (e-commerce) são mais arriscadas do que transações presencias em terminais, pois aquelas não fazem uso de processos seguros e eficientes de autenticação do portador do cartão, como utilização de senha eletrônica. Como os fraudadores se adaptam rapidamente às medidas de prevenção, os modelos estatísticos para detecção de fraudes precisam ser adaptáveis e flexíveis para evoluir ao longo do tempo de maneira dinâmica. Raftery et al. (2010) desenvolveram um método chamado Dynamic Model Averaging (DMA), ou Ponderação Dinâmica de Modelos, que implementa um processo de atualização contínuo ao longo do tempo. Nesta dissertação, desenvolvemos modelos DMA no espaço de transações eletrônicas oriundas do comércio eletrônico que incorporem as tendências e características de fraudes em cada período de análise. Também desenvolvemos modelos de regressão logística clássica com o objetivo de comparar as performances no processo de detecção de fraude. Os dados utilizados para tal são provenientes de uma empresa de meios de pagamentos eletrônico. O experimento desenvolvido mostra que os modelos DMA apresentaram resultados melhores que os modelos de regressão logística clássica quando analisamos a medida F e a área sob a curva ROC (AUC). A medida F para o modelo DMA ficou em 58% ao passo que o modelo de regressão logística clássica ficou em 29%. Já para a AUC, o modelo DMA alcançou 93% e o modelo de regressão logística clássica 84%. Considerando os resultados encontrados para os modelos DMA, podemos concluir que sua característica de atualização ao longo do tempo se mostra um grande diferencial em dados como os de fraude, que sofrem mudanças de comportamento a todo momento. Deste modo, sua aplicação se mostra adequada no processo de detecção de transações fraudulentas no ambiente de comércio eletrônico. / Regarding technological and economic development, which made communication process easier and increased purchasing power, credit card transactions have become the primary payment method in national and international retailers (Bolton e Hand , 2002). In this scenario, as the number of transactions by credit card grows, more opportunities are created for fraudsters to produce new ways of fraud, resulting in large losses for the financial system (Chan et al. , 1999). Fraud indexes have shown which e-commerce transactions are riskier than card present transactions, since those do not use secure and efficient processes to authenticate the cardholder, such as using personal identification number (PIN). Due to fraudsters adapt quickly to fraud prevention measures, statistical models for fraud detection need to be adaptable and flexible to change over time in a dynamic way. Raftery et al. (2010) developed a method called Dynamic Model Averaging (DMA), which implements a process of continuous updating over time. In this thesis, we develop DMA models within electronic transactions coming from ecommerce environment, which incorporate the trends and characteristics of fraud in each period of analysis. We have also developed classic logistic regression models in order to compare their performances in the fraud detection processes. The database used for the experiment was provided by a electronic payment service company. The experiment shows that DMA models present better results than classic logistic regression models in respect to the analysis of the area under the ROC curve (AUC) and F measure. The F measure for the DMA was 58% while the classic logistic regression model was 29%. For the AUC, the DMA model reached 93% and the classical model reached 84%. Considering the results for DMA models, we can conclude that its update over time characteristic makes a large difference when it comes to the analysis of fraud data, which undergo behavioral changes continuously. Thus, its application has proved to be appropriate for the detection process of fraudulent transactions in the e-commerce environment.
10

Estudo experimental de lubrificação e resfriamento no torneamento duro em componentes de grande porte / Experimental study of cooling lubrication methods in hard turning of large components

Guilherme Carlos Alves 12 June 2017 (has links)
Este trabalho teve como objetivo o estudo experimental de lubrificação e resfriamento no torneamento duro de uma superfície funcional em componentes de grande porte, com aplicação no chão de fábrica. Foram comparadas as técnicas de mínima quantidade de lubrificante e resfriamento abundante, utilizando o método de resposta de superfície. O planejamento tridimensional utilizado foi de dois níveis, adicionado de pontos axiais, ponto central e de réplica. Foram variados a velocidade periférica da peça, o avanço da ferramenta de usinagem e a profundidade de usinagem. Após a execução do experimento, a integridade da superfície foi analisada pela medição da tensão residual, da espessura de possíveis modificações microestruturais e pela medição dos parâmetros estatísticos Sa, Sq e Sz. As medidas foram então ajustadas em modelos matemáticos, otimizadas e por fim comparadas. A análise dos resultados sinalizou que os modelos ajustados para ambos os métodos foram capazes de explicar satisfatoriamente o comportamento das variáveis de resposta. Ainda, a partir da função desirability, foi possível estimar valores ótimos com qualidade equivalente entre os métodos. Tanto para o emprego com mínimas quantidades quanto para resfriamento abundante foram registradas tensões circunferenciais altamente compressivas. Nas condições ótimas, quando empregadas mínimas quantidades de lubrificante, a superfície apresentou valores de tensões residuais 37% maiores em comparação ao obtido quando empregado o resfriamento abundante. Ambos os métodos produziram tanto superfícies livres de modificações microestruturais significativas, como também superfícies com modificações microstruturais significativas. Porém, quando detectadas, as modificações se mostraram muito reduzidas, com espessura de até 2,35 &#956m. Nas condições ótimas, quando empregado mínimas quantidades de lubrificante, a espessura da modificação foi 74% menor em comparação ao obtido quando empregado o resfriamento abundante. Os parâmetros estatísticos sugeriram alguma vantagem da aplicação de mínimas quantidades de lubrificante. Nas condições ótimas, a aplicação MQL apresentou melhor rugosidade Sa, em 47%, e Sz, em 11%. Porém, o desvio-padrão Sq da superfície apresentou valor 12% maior ao resfriamento abundante. / This work aimed to conduct a study of cooling and lubrication in hard turning of functional surface of large components. It was compared the performance of minimum quantity lubrication and abundant cooling through the application of response surface methodology. The activities were developed in shop floor application. It was designed a three-dimensional experiment with two levels, added by axial points, center point and one center replicate. The input variables were the peripheral velocity of the workpiece, the feed of the cutting tool and the depth of cut of machining. After the process were analyzed the surface integrity through the circumferential residual stress, possibly microstructure modified layers and statistical parameters such Sa, Sq and Sz. Then, the measurements were adjusted in mathematical models, optimized and compared. The analysis of the results indicated that the adjusted models for both methods were capable of explaining satisfactorily the behavior of the response variables. Also, the use of the desirability function allowed to predict optimal values with equivalent quality between the methods. The minimal quantities, as well the abundant cooling, produced circumferential residual stresses highly compressive. On optimal conditions, the MQL presented residual stresses 37% lower the abundant cooling. Both methods produced surfaces free of significant altered layers as well surface containing significant surface altered layer. However, when detected, the altered surface layer was very thin, with thickness up to 2,35 &#956m. On optimal conditions, the MQL altered layer was 74% lower the abundant cooling. The statistical parameters indicated some advantage on the application of MQL. On optimal conditions, the minimal quantities presented better Sa roughness in 47%, and Sz, in 11%. However, the standard deviation Sq of the surface presented a value 12% higher the abundant cooling.

Page generated in 0.486 seconds