• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 44
  • 2
  • 1
  • Tagged with
  • 47
  • 37
  • 13
  • 12
  • 8
  • 8
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Novas estratégias de implementação da meta-heurística VNS aplicada na otimização de grade horária /

Silva, Odilon Novaes. January 2019 (has links)
Orientador: Rubén Augusto Romero Lázaro / Resumo: Neste projeto de pesquisa, é abordado o problema otimização de grade horária. O tipo de problema de grade horária abordado é aquele que tem o enunciado e a estrutura de dados apresentado no site da Competição Internacional de Otimização do Problema de Grade Horária. Esse problema pode ser modelado como sendo um problema de Programação Linear Binária de grande porte. Entretanto, os solvers comerciais disponíveis, como o CPLEX, não tem a capacidade de encontrar as soluções ótimas das 20 instâncias mostradas no site da Competição Internacional de Otimização do Problema de Grade Horária. Neste trabalho foi desenvolvido um algoritmo VNS especializado para resolver o problema de otimização de grade horária. A parcela inovadora da proposta está relacionado com o uso da lógica de partição para encontrar a melhor solução vizinha da solução corrente de forma eficiente e para uma estrutura de vizinhança complexa e formada por muitos elementos. Dessa forma, a proposta de otimização se tornou muito eficiente na resolução das 20 instâncias cujos dados se encontram no site da Competição Internacional de Otimização do Problema de Grade Horária. / Abstract: In this research project, we address the optimization timetabling problem. The type of timetabling problem addressed is one that has the statement and data structure displayed on the site of the International Competition of Optimization of the Timetabling Problem. This problem can be modeled as a large Binary Linear Programming Problem. However, the commercial solvers available, such as CPLEX, do not have the ability to nd the optimal solutions from the 20 instances shown on the site of the International Competition of Optimization of the timetabling Problem. In this work a specialized VNS algorithm was developed to solve the optimization of Timetabling Problem . The innovative part of the proposal is related to the use of partition logic to nd the best neighborhood solution of the current solution e ciently and to a structure of complex neighborhood formed by many elements. In this way, the optimization proposal became very e cient in the resolution of the 20 instances whose data were found on the website of the International Competition for Optimization of the Timetabling Problem. / Doutor
42

Problemas inversos em engenharia financeira: regularização com critério de entropia / Inverse problems in financial engineering: regularization with entropy criteria

Raombanarivo Dina Ramilijaona 13 September 2013 (has links)
Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática. / This study aims at applying Maximum Entropy Regularization to the Inverse Problem of Option Pricing suggested by Neri and Schneider in 2012. They pointed out that the probability density that solves such problem in the case of calls and digital options could be written as piecewise exponentials on the positive real axis. The limits of these segments are the different strike prices. The entropy criteria is a powerful tool to regularize this ill-posed problem. The Exponential Family solution set is calculated using a Newton-Raphson algorithm, with specific bounds for the binary options. These bounds obey the no-arbitrage principle. We applied the method to data from the Brazilian stock index BOVESPA and its call prices for different strikes. The parametric entropy analysis for "synthetic" digital prices (constructed from the no-arbitrage bounds) showed values where the digital prices maximizes the entropy. The example of data extracted on the IBOVESPA of January 24th 2013, showed slippage from the no-arbitrage principle when the option was in the money: such principle is a necessary condition to apply the maximum entropy regularization to get the density and modeled prices. When the condition is fulfilled, our results showed that it is possible to have a smile-like volatility curve with prices calculated from the exponential density that fit well the market data. In a computational modelling perspective, this thesis enabled the implementation of a pricing method using the maximum entropy principle. Three well known algorithms were used in that extent. The bisection alone, then a combined bisection with Newton-Raphson to recover the implied volatility from market data. Thereafter, the one dimensional Newton-Raphson to calculate the coefficients of the exponential densities: purpose of the study. Finally the Simpson method was used to calculate integrals of the cumulative distributions and the modeled prices implied by the expectation.
43

Otimizacão da coordenação de relés de sobrecorrente direcionais em sistemas elétricos de potência utilizando a programação inteira binária / Optimization of coordination of directional overcurrent relays in electric power systems using binary integer programming

Corrêa, Rafael 23 February 2012 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / This work aims to optimize the coordination of microprocessor-based directional overcurrent relays in power systems using Binary Integer Programming (BIP). Two new mathematical models of BIP are presented. The first determines only the Time Multiplier of each relay, while the second determines simultaneously the Time Multiplier and Current Multiplier of each relay. These models have a great advantage over the Linear Programming (LP) and Nonlinear Programming (NLP) models to determine the relay settings directly within the range provided by these instead of the LP and NLP which use continuous variables. Thus, it avoids the rounding of settings to the closest values available in the relays, which can cause failures in coordination. Still, the algorithms used to solve these BIP models do not require an initial guess, unlike what happens in NLP, and the search from getting trapped in local minima. This paper presents the NLP and LP models considered and the necessary changes in order to obtain the two new BIP models. To validate the new mathematical models of coordination of overcurrent relays and compare them with the models which use continuous variables, the proposed methodology is applied in phase and earth protection of two test systems of different sizes considering whether or not the instantaneous unit of each relay. The results are evaluated in terms of the Objective Function, the obtained settings and operating times of relays for faults within the zone of primary protection. Thus, it is shown that the proposed models have the ability to determine the optimal solution of the problem in a reduced computational time and without the need to make any changes to the final solution. These models can also integrate a software aid to decision making by the protection engineer, allowing to interact in the construction of mathematical model to customize the final solution. / Este trabalho visa otimizar a coordenação de relés de sobrecorrente direcionais microprocessados em sistemas elétricos de potência com o auxílio da Programação Inteira Binária (PIB). Dois novos modelos matemáticos de PIB são apresentados. O primeiro determina somente o Multiplicador de Tempo de cada relé, enquanto que o segundo determina simultaneamente o Multiplicador de Tempo e o Multiplicador de Corrente de cada relé. Esses modelos possuem como grande vantagem em relação aos modelos de Programação Linear (PL) e de Programação Não Linear (PNL) a determinação dos ajustes dos relés diretamente dentro da faixa por estes disponibilizada, ao contrário desses últimos que utilizam variáveis contínuas. Dessa forma, evita-se o arredondamento dos ajustes para os valores mais próximos disponíveis nos relés, o que pode causar falhas na coordenação. Ainda, os algoritmos destinados à resolução desses modelos de PIB não necessitam de um valor inicial, ao contrário do que ocorre na PNL, e evita-se que a solução fique estagnada em ótimos locais durante o processo de busca. Este trabalho apresenta os modelos de PNL e PL considerados e as alterações necessárias para que se obtenha os dois novos modelos de PIB. Para validar os novos modelos de coordenação de relés de sobrecorrente e compará-los com os modelos que utilizam variáveis contínuas, a metodologia proposta é aplicada na proteção de fase e de neutro de dois sistemas teste de diferentes portes considerando, ou não, a unidade instantânea de cada relé. Os resultados são avaliados em termos da Função Objetivo, dos ajustes obtidos e dos tempos de operação dos relés para faltas dentro da zona de proteção primária. Desse modo, é demonstrado que os modelos propostos têm a capacidade de determinar a solução ótima do problema em um tempo computacional reduzido e sem a necessidade de se realizar quaisquer modificações na solução final. Esses modelos podem, ainda, integrar um software de auxílio à tomada de decisões por parte do engenheiro de proteção, permitindo a interação na construção do modelo matemático para que a solução final seja personalizada.
44

Problemas inversos em engenharia financeira: regularização com critério de entropia / Inverse problems in financial engineering: regularization with entropy criteria

Raombanarivo Dina Ramilijaona 13 September 2013 (has links)
Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática. / This study aims at applying Maximum Entropy Regularization to the Inverse Problem of Option Pricing suggested by Neri and Schneider in 2012. They pointed out that the probability density that solves such problem in the case of calls and digital options could be written as piecewise exponentials on the positive real axis. The limits of these segments are the different strike prices. The entropy criteria is a powerful tool to regularize this ill-posed problem. The Exponential Family solution set is calculated using a Newton-Raphson algorithm, with specific bounds for the binary options. These bounds obey the no-arbitrage principle. We applied the method to data from the Brazilian stock index BOVESPA and its call prices for different strikes. The parametric entropy analysis for "synthetic" digital prices (constructed from the no-arbitrage bounds) showed values where the digital prices maximizes the entropy. The example of data extracted on the IBOVESPA of January 24th 2013, showed slippage from the no-arbitrage principle when the option was in the money: such principle is a necessary condition to apply the maximum entropy regularization to get the density and modeled prices. When the condition is fulfilled, our results showed that it is possible to have a smile-like volatility curve with prices calculated from the exponential density that fit well the market data. In a computational modelling perspective, this thesis enabled the implementation of a pricing method using the maximum entropy principle. Three well known algorithms were used in that extent. The bisection alone, then a combined bisection with Newton-Raphson to recover the implied volatility from market data. Thereafter, the one dimensional Newton-Raphson to calculate the coefficients of the exponential densities: purpose of the study. Finally the Simpson method was used to calculate integrals of the cumulative distributions and the modeled prices implied by the expectation.
45

Caracterização estrutural do complexo Cu(II) / DPKBH e desenvolvimento/aplicação de método espectrofotométrico em fluxo, empregando multicomutação e amostragem binária, para determinação de Cu(II), Fe(II) e Fe(III) / Structural characterization of the Cu (II) / DPKBH complex and the development/application of spectrophotometric flow method, using multicomputing and binary sampling, for Cu (II), Fe (II) and Fe (III)

Prada, Silvio Miranda 22 February 2001 (has links)
Desenvolveu-se um método espectrofotométrico para determinação de íons Cu(II), Fe(II) e Fe(III) com o reagente cromogênico di-2-piridil cetona benzoilhidrazona (DPKBH), em condições estacionárias e em fluxo. Fez-se a caracterização estrutural e estequiométrica do complexo de Cu(II) com DPKBH usando-se técnicas espectroscópicas de infravermelho e massas, além de análise térmica e elementar. Estudou-se, ainda, a estequiometria dos complexos de Fe(II) e Fe(III) com DPKBH utilizando espectrometria de massas com ionização por electrospray. Desenvolveu-se, preliminarmente, um método espectrofotométrico para a determinação de íons Cu(II) com DPKBH e aplicou-se em amostras de aguardente. Posteriormente, adaptou-se para análise por injeção em fluxo, utilizando-se injetor comutador manual. Em seguida, desenvolveu-se em condições estacionárias um método espectrofotométrico para determinação de Fe(II) e Fe(III) e Cu(II) em uma mesma amostra, com o uso de agentes mascarantes. Fez-se também a adaptação do método para análise em fluxo empregando multicomutação e amostragem binária. Finalmente, determinou-se a concentração de íons Cu(II), Fe(II) e Fe(III) em amostras sintéticas e Cu(II) e ferro total em amostras de sedimento coletadas no reservatório de Guarapiranga. Os resultados obtidos foram comparados com o método de referência de ICP-OES, apresentando concordância para um nível de confiança de 95% da média. / A spectrophotometric method was developed to the determination of Cu(II), Fe(II) and Fe(III) with the chromogenic reagent di-2pyridyl ketone benzoylhydrazone (DPKBH) in stationary conditions as a flow injection process. The structural characterization and the stoichiometry of Cu(II)/DPKBH complex were achieved using infrared spectrometry, mass spectrometry, thermal and elementar analysis. Toe stoichiometry of the Fe(II) and Fe(III) complexes with DPKBH was studied by electrospray ionization mass spectrometry. The spectrophotometric method for the determination of Cu(II) with DPKBH was developed in stationary conditions and, after this, it was adapted to flow injection analysis, using a manual commutator. Subsequently, a spectrophotometric method was developed to determine Fe(II), Fe(III) and Cu(II) in the same sample, in stationary conditions, using masking reagents. This method was also adapted to flow injection analysis, using multicommutation and binary sampling. Finally, Cu(II), Fe(II) and Fe(III) were determined in sediments from Guarapiranga reservoir. The obtained results were compared with the ICP-OES standard methods, showing a good agreement into a 95% confidence level (t-test).
46

Caracterização estrutural do complexo Cu(II) / DPKBH e desenvolvimento/aplicação de método espectrofotométrico em fluxo, empregando multicomutação e amostragem binária, para determinação de Cu(II), Fe(II) e Fe(III) / Structural characterization of the Cu (II) / DPKBH complex and the development/application of spectrophotometric flow method, using multicomputing and binary sampling, for Cu (II), Fe (II) and Fe (III)

Silvio Miranda Prada 22 February 2001 (has links)
Desenvolveu-se um método espectrofotométrico para determinação de íons Cu(II), Fe(II) e Fe(III) com o reagente cromogênico di-2-piridil cetona benzoilhidrazona (DPKBH), em condições estacionárias e em fluxo. Fez-se a caracterização estrutural e estequiométrica do complexo de Cu(II) com DPKBH usando-se técnicas espectroscópicas de infravermelho e massas, além de análise térmica e elementar. Estudou-se, ainda, a estequiometria dos complexos de Fe(II) e Fe(III) com DPKBH utilizando espectrometria de massas com ionização por electrospray. Desenvolveu-se, preliminarmente, um método espectrofotométrico para a determinação de íons Cu(II) com DPKBH e aplicou-se em amostras de aguardente. Posteriormente, adaptou-se para análise por injeção em fluxo, utilizando-se injetor comutador manual. Em seguida, desenvolveu-se em condições estacionárias um método espectrofotométrico para determinação de Fe(II) e Fe(III) e Cu(II) em uma mesma amostra, com o uso de agentes mascarantes. Fez-se também a adaptação do método para análise em fluxo empregando multicomutação e amostragem binária. Finalmente, determinou-se a concentração de íons Cu(II), Fe(II) e Fe(III) em amostras sintéticas e Cu(II) e ferro total em amostras de sedimento coletadas no reservatório de Guarapiranga. Os resultados obtidos foram comparados com o método de referência de ICP-OES, apresentando concordância para um nível de confiança de 95% da média. / A spectrophotometric method was developed to the determination of Cu(II), Fe(II) and Fe(III) with the chromogenic reagent di-2pyridyl ketone benzoylhydrazone (DPKBH) in stationary conditions as a flow injection process. The structural characterization and the stoichiometry of Cu(II)/DPKBH complex were achieved using infrared spectrometry, mass spectrometry, thermal and elementar analysis. Toe stoichiometry of the Fe(II) and Fe(III) complexes with DPKBH was studied by electrospray ionization mass spectrometry. The spectrophotometric method for the determination of Cu(II) with DPKBH was developed in stationary conditions and, after this, it was adapted to flow injection analysis, using a manual commutator. Subsequently, a spectrophotometric method was developed to determine Fe(II), Fe(III) and Cu(II) in the same sample, in stationary conditions, using masking reagents. This method was also adapted to flow injection analysis, using multicommutation and binary sampling. Finally, Cu(II), Fe(II) and Fe(III) were determined in sediments from Guarapiranga reservoir. The obtained results were compared with the ICP-OES standard methods, showing a good agreement into a 95% confidence level (t-test).
47

Avaliação genotóxica e mutagênica de herbicidas em organismos aquáticos / Genotoxic and mutagenic evaluation of herbicides in aquatic organisms

Carvalho, Wanessa Fernandes 23 March 2018 (has links)
Submitted by Luciana Ferreira (lucgeral@gmail.com) on 2018-05-03T13:16:12Z No. of bitstreams: 2 Tese - Wanessa Fernandes Carvalho - 2018.pdf: 4178094 bytes, checksum: 12ab926257d567aaefec72a5d4d53bf7 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2018-05-03T13:23:49Z (GMT) No. of bitstreams: 2 Tese - Wanessa Fernandes Carvalho - 2018.pdf: 4178094 bytes, checksum: 12ab926257d567aaefec72a5d4d53bf7 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-05-03T13:23:49Z (GMT). No. of bitstreams: 2 Tese - Wanessa Fernandes Carvalho - 2018.pdf: 4178094 bytes, checksum: 12ab926257d567aaefec72a5d4d53bf7 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2018-03-23 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / The increased use of pesticides, the risks and disruptions that these compounds can cause to organisms and the environment has been much discussed in recent years. 2,4-D and glyphosate herbicides are applied post-emergence in large-scale crops and play an important role in the optimization of agricultural production worldwide. Environmental quality bioindicators are used in environmental impact assessment studies because of their interaction with the environment and their ease of absorption and accumulation of xenobiotic compounds (Younes, 2000). Therefore, the objective of this study was to evaluate the genotoxic and mutagenic effects of herbicides on environmental quality bionicators. Acute toxicity of Credit® at 48%, Herbifen Super® at 97%, Weedar Full® at 83.5%, Dedalo elite® at 30%, and Imazethapyr and their binary combinations were tested on Cnesterodon decemmaculatus, Rhinella arenarum and Dendropsophus minutus. The lethal effect was determined from experiments with mortality and the sublethal was used the single cell gel electrophoresis (SCGE) bioassay and the micronucleus test. The LC5096h value for Herbifen Super® was 2.668 mg / L, Weedar Full® was 678.04 mg / L, Dedalo elite® was 0.463 mg / L and for Credit® was 91.73 mg / L and Imazethapyr® was 0.99 mg / L. The results of this study demonstrated that the comet assay and the micronucleus test are highly sensitive methods for the detection of herbicide-induced DNA damage in aquatic organisms. The herbicides tested showed different behaviors when combined at their concentrations of 5% and 10% of LC5096h. The toxic effect of the combination of Herbifen Super® and Credit® was basically due to the action of the active principle glyphosate present in Credit®. For Weedar Full® and Dedalo elite® herbicides, synergism was observed in combinations of 5% and 10% of LC5096h values. Our study is the first report on the induction of lethal acute and sublethal effects of Credit® binary combinations; Herbifen Super®, Weedar Full®, Dedalo elite®; Imazethapyr® in aquatic organisms. / O aumento da utilização dos pesticidas, os riscos e perturbações que esses compostos podem provocar aos organismos e ao meio ambiente está sendo bastante discutido nos últimos anos. Os herbicidas 2,4-D e glifosato são aplicados em pós-emergência em culturas de larga escala e desempenham um papel importante na otimização da produção agrícola em todo o mundo. Os bioindicadores de qualidade ambiental são utilizados em estudos de avaliações de impacto ambiental devido sua interação com o meio ambiente e a sua facilidade de absorção e acumulação de compostos xenobióticos (Younes, 2000). Sendo assim, o objetivo deste estudo foi avaliar os efeitos genotóxicos e mutagênicos de herbicidas em biondicadores de qualidade ambiental. A toxicidade aguda do Credit® a 48%, Herbifen Super® a 97%, Weedar Full® a 83.5%, Dedalo elite® a 30% e Imazethapyr e suas combinações binárias foram testadas em Cnesterodon decemmaculatus, Rhinella arenarum e Dendropsophus minutus. O efeito letal foi determinado a partir de experiências com mortalidade e o subletal foi utilizado o bioensaio de eletroforese em gel de célula única (SCGE) e oteste do micronúcleo. O valor LC5096h para Herbifen Super® foi de 2.668 mg / L, Weedar Full® foi de 678,04 mg/L, Dedalo elite® foi de 0,463 mg/L e para Credit® foi de 91.73 mg /L e Imazethapyr® foi de 0.99 mg/L. Os resultados deste estudo demontraram que o ensaio cometa e o teste do micronúcleo são métodos altamente sensíveis para a detecção de danos ao DNA induzidos por herbicidas em organismos aquáticos. Os herbicidas testados revelaram diferentes comportamentos ao serem combinados em suas concentrações de 5% e 10% da CL5096h. O efeito tóxico da combinação entre Herbifen Super® e Credit® deu-se basicamente pela ação do princípio ativo glifosato presente no Credit®. Para os herbicidas Weedar Full® e Dedalo elite® foi observado um sinergismo nas combinações de 5% e 10% dos valores de CL5096h. Nosso estudo constitui o primeiro relatório sobre a indução de efeitos agudos letais e subletal de combinações binárias de Credit® ; Herbifen Super® , Weedar Full® , Dedalo elite® ; Imazethapyr® em organismos aquáticos.

Page generated in 0.0347 seconds