• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 46
  • 5
  • 5
  • 3
  • Tagged with
  • 60
  • 32
  • 19
  • 19
  • 16
  • 13
  • 12
  • 10
  • 10
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Afectan las redes sociales las decisiones de financiamiento de las empresas : datos empíricos para Chile

Alarcón Contardo, Ignacio Javier 11 December 2015 (has links)
Tesis para optar al grado de Magíster en Finanzas / El presente trabajo tiene por objetivo analizar si la existencia de redes sociales a nivel de directores tiene alguna influencia en las decisiones de estructura de capital para una muestra de empresas chilenas. Como sabemos, en Chile existe un gran nivel de desigualdad económica, habiendo un pequeño grupo de gente que posee la mayoría de los ingresos en Chile. Es por esto que existen familias que tienen un nivel tal de riqueza, que son extremadamente influyentes en la economía del país, principalmente a nivel de inversión y control de empresas. Recientemente, se han visto muchos casos donde gente en esta situación privilegiada utiliza su poder para lograr tratos o simplemente dinero de manera privilegiada y única a su situación particular, como es el caso Dávalos-Luksic; también casos como la colusión de las farmacias y más recientemente, los casos del “Cartel del Confort” o SQM. Todos estos casos tienen en común movimiento de información entre personas conectadas por redes sociales, moviendo Información. El “quién” recibe esta información, y el “cómo” es utilizada, está directamente vinculado con las redes sociales, las cuales tienen el potencial de hacer o destruir la reputación de una empresa, lo que la afecta directamente en temas como, por ejemplo, la manera en que puede financiarse. Ahí nace la motivación de ver si es posible que estas familias influyentes puedan afectar, desde el directorio de una o más empresas, las decisiones de la misma, ya sea vía mejores oportunidadesofertas por su situación particular o simplemente por su condición como “Familia”, como nombre tan importante y conocido en nuestro país que abre nuevas puertas a las empresas de las que forman parte. Si bien en Chile se han dado cada vez más casos de corrupción, la idea de este estudio no es diferenciar si las diferencias se encuentran en actos “legales” o “correctos”, sino más bien ver alguna relación que se pueda ver entre la conexión que tienen las empresas a nivel de relaciones sociales, entre ellas y sus directorios. La base del análisis de regresiones y la definición de las mismas se basa en los papers de Modigliani & Miller (1958), para el análisis de estructura de capital, y también en Miguel et al. (2004) quien encuentra un vínculo entre control corporativo y desempeño consistente de la empresa. El estudio en sí se basa principalmente en análisis de regresión, tomando una muestra de 78 firmas del mercado nacional, entre los años 2009 y 2013, analizando y comparando las diferencias que existen en una regresión normal de estructura de capital versus lo que ocurre al agregar las variables de relaciones sociales, para ver si se logra encontrar el impacto asociado y determinar a qué se le atribuye exactamente. Los resultados obtenidos demuestran que, existe una influencia significativa en las variables asociadas a los interlocks, respecto al financiamiento de las empresas. Junto con el tamaño de las empresas, demostramos que las variables de interlocks afectan el nivel de financiamiento bancario y publico de las empresas, como también el ratio de deuda total, de manera negativa. El presente trabajo se estructura en cinco apartados. Posterior a la presente introducción, en un segundo apartado se procede establecer el marco teórico, que servirá como guía para el trabajo. Luego pasamos a describir la muestra, variables y metodología, para luego pasar a la cuarta sección que corresponde a los resultados y al análisis explicativo. El último apartado corresponde a las conclusiones.
12

Comportamento assintótico de cadeias de Markov via distância Mallows, com aplicação em processos empíricos

Silva, Edimilson dos Santos 10 November 2016 (has links)
Tese (doutorado)—Universidade de Brasília, Instituto de Ciências Exatas, 2016. / Submitted by Camila Duarte (camiladias@bce.unb.br) on 2017-01-13T21:26:41Z No. of bitstreams: 1 2016_EdimilsondosSantosdaSilva.pdf: 588263 bytes, checksum: 73d73613c57511707fe3fb3071858c05 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2017-02-13T17:57:52Z (GMT) No. of bitstreams: 1 2016_EdimilsondosSantosdaSilva.pdf: 588263 bytes, checksum: 73d73613c57511707fe3fb3071858c05 (MD5) / Made available in DSpace on 2017-02-13T17:57:52Z (GMT). No. of bitstreams: 1 2016_EdimilsondosSantosdaSilva.pdf: 588263 bytes, checksum: 73d73613c57511707fe3fb3071858c05 (MD5) / Nesta tese estudamos o comportamento assintótico de somas parciais de variáveis aleatórias que constituem uma cadeia de Markov X={Xn}n≥0. Assim, provamos a convergência, em distância Mallows, de somas parciais associadas a cadeias de Markov com espaço de estados enumerável para uma variável aleatória α-estável, com 1<α≤2, abordando, separadamente, o caso Gaussiano e o caso cauda-pesada. Como uma aplicação, demonstramos a convergência fraca de um tipo especial de soma parcial, o processo empírico βn(x) relativo a uma cadeia de Markov com espaço de estados geral, bem como do processo considerado o seu inverso, o processo quantil empírico qn(t). / In this dissertation we prove the convergence in Mallows distance of partial sums of random variables associated with a Markov chain with countable state space to a α-stable random variable, with 1<α≤2, addressing separately the Gaussian case and the heavy-tailed case. As an application, we prove the weak convergence of a special type of partial sum, the empirical process βn(x) on a Markov chain with general state space, as well as its inverse process, the empirical quantile process qn(t).
13

Convergência em distância Mallows ponderada com aplicações em somas parciais e processos empíricos

Soares, Wembesom Mendes 06 July 2015 (has links)
Tese (doutorado)—Universidade de Brasília, Instituto de Ciências Exatas, 2015. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2015-12-21T13:35:23Z No. of bitstreams: 1 2015_WembesomMendesSoares.pdf: 531592 bytes, checksum: 8e5a84b56c9fa404fbeabc136346a98e (MD5) / Approved for entry into archive by Patrícia Nunes da Silva(patricia@bce.unb.br) on 2016-01-08T11:03:16Z (GMT) No. of bitstreams: 1 2015_WembesomMendesSoares.pdf: 531592 bytes, checksum: 8e5a84b56c9fa404fbeabc136346a98e (MD5) / Made available in DSpace on 2016-01-08T11:03:16Z (GMT). No. of bitstreams: 1 2015_WembesomMendesSoares.pdf: 531592 bytes, checksum: 8e5a84b56c9fa404fbeabc136346a98e (MD5) / Nesta tese, usamos a conexão entre a distância Mallows, d_(F;G), e a convergência em distribuição para estender resultados assintóticos envolvendo somas parciais, mesmo quando d_(F;G) = 1. Para isso, produzimos vários resultados matemáticos envolvendo as distribuições ponderadas e a distância Mallows ponderada, d_;w(F;G). Provamos também a convergência em distância Mallows do processo empírico geral, um tipo particular de somas parciais baseadas numa distribuição empírica Fn, para uma variável aleatória Gaussiana e, por meio do processo quantil empírico, atestamos o mesmo modo de convergência da estatística nd22 ;w(Fn; F) para um funcional ponderado de Pontes Brownianas. ______________________________________________________________________________________________ ABSTRACT / The connection between Mallows distance, d_(F;G), and the convergence in distribution has been sucessfully used to establish asymptotic results for partial sums. We further explore this connection by making use of the weighted Mallows distance, d_;w(F;G), to extend the results for the extreme cases when d_(F;G) = 1. Our results are applied to heavy-tailed partial sums and to partial sums that arise in the context of empirical processes and their related functionals.
14

Uma análise empírica do comércio exterior brasileiro por meio da equação da gravidade

Vianna, André Coelho 30 April 2014 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Economia, Administração e Contabilidade, Departamento de Economia, Mestrado em Economia do Setor Público, 2014. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2014-07-24T12:37:17Z No. of bitstreams: 1 2014_AndreCoelhoVianna.pdf: 508887 bytes, checksum: 1d4e66d5450ec76385835cfdcb7faf0f (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2014-07-29T12:41:38Z (GMT) No. of bitstreams: 1 2014_AndreCoelhoVianna.pdf: 508887 bytes, checksum: 1d4e66d5450ec76385835cfdcb7faf0f (MD5) / Made available in DSpace on 2014-07-29T12:41:39Z (GMT). No. of bitstreams: 1 2014_AndreCoelhoVianna.pdf: 508887 bytes, checksum: 1d4e66d5450ec76385835cfdcb7faf0f (MD5) / Esta dissertação de mestrado busca aplicar a consagrada equação de gravidade do comércio internacional à economia brasileira, no período de 1993 a 2011. No primeiro experimento empírico, foram coletados dados de 106 países, que representaram 94,4% da corrente de comércio brasileira em 2011. A aplicabilidade da equação de gravidade ao caso brasileiro foi confirmada, e as variáveis binárias mais explicativas foram o Mercosul, os tigres asiáticos, e as línguas inglesa e francesa, sendo estas duas últimas negativamente correlacionadas com o fluxo de comércio brasileiro. Também foi possível descartar a relevância da fronteira nacional (McCallum Border Puzzle) como barreira para a corrente de comércio do Brasil. No segundo experimento, foi coletada uma taxa de câmbio que embute a variação de poder de compra, para um total de 32 países. Esta variável explicativa se mostrou significante nas simulações por dois métodos, dentre três testados. Até hoje, a maioria dos pesquisadores buscou aperfeiçoar e testar os fundamentos teóricos da equação de gravidade do comércio internacional, porém praticamente deixaram sem investigação o caso específico de um país em relação aos seus parceiros. Por fim, vale ressaltar que os resultados do primeiro experimento mostraram que é possível chegar a um modelo empírico que otimiza o nível do poder de explicação da equação de corrente de comércio brasileira, utilizando-se reduzida quantidade de dummies explicativas. ______________________________________________________________________________ ABSTRACT / This master’s thesis aims to apply the well-established gravity equation in international trade to the Brazilian economy, in the period from 1993 to 2011. In the first empirical experiment, data were collected for 106 countries, which represent 94.4% of the Brazilian trade flow in 2011. The applicability of the gravity equation to the Brazilian case was confirmed, and the most explanatory binary variables were Mercosul, Asian Tigers, and the English and French languages, these last two being negative correlated to the Brazilian total trade. It was also possible to discard the national border relevance (McCallum’s Border Puzzle) as a barrier to the Brazilian trade flow. In the second experiment, an exchange rate, which embeds purchasing power variations, was collected for a total of 32 countries. This variable was proved significant in simulations by two of the three econometric methods tested. Most past researchers have intended to improve and test the theoretical foundations of this equation, although practically leaving out the single country case uninvestigated. Finally, it is worth emphasizing that the results of the first experiment showed that it is possible to reach an empirical model that optimizes the explanatory power of the Brazilian trade flow equation, using a reduced number of explanatory dummy variables.
15

Mecanismos paraGuiaraCaracterizaçãodeContexto de EstudosEmpíricosnaEngenhariadeSoftware:Um Mapeamento Sistemático

CARTAXO, Bruno Falcão de Souza 18 February 2014 (has links)
Submitted by Lucelia Lucena (lucelia.lucena@ufpe.br) on 2015-03-06T17:44:49Z No. of bitstreams: 2 DISSERTAÇÃO Bruno Falcão de Souza Cartaxo.pdf: 1159978 bytes, checksum: 107536ce6295bda63d1ace55772177ba (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-06T17:44:49Z (GMT). No. of bitstreams: 2 DISSERTAÇÃO Bruno Falcão de Souza Cartaxo.pdf: 1159978 bytes, checksum: 107536ce6295bda63d1ace55772177ba (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2014-02-18 / Contexto: Estudos empíricos em engenharia de software apresentam problemas no que se refere à caracterização de contexto. Tal situação inibe a replicação de estudos, dificulta a interpretação de resultados, complica a síntese de evidências para estudos secundários e prejudica a transferência de conhecimento para indústria,uma vez que não se sabe se os resultados dos estudos se aplicam a um ambiente específico. Objetivo: Esta pesquisa tem o objetivo de identificar, classificar e quantificar mecanismos para guiar a caracterização de contexto de estudos empíricos na engenharia de software, uma vez que acredita-se que utilizando esses mecanismos os pesquisadores poderão caracterizar o contexto dos estudos empíricos adequadamente, partindo da motivação mais ampla de tornar as evidências empíricas mais úteis para a academia e indústria de software. Método: Para alcançar tal objetivo conduziu-se um mapeamento sistemático de cobertura exaustiva de acordo com as premissas e guias da engenharia de software baseada em evidências. Resultados: Analisou-se 13.355 estudos e ao final de duas rodadas realizadas por até oito pesquisadores selecionou-se 13 estudos, publicados entre 1999 e 2012. Framerwork foi o mecanismo mais utilizado, sendo apresentado em 7 dos 13 estudos selecionados. Mapeou-se 131 elementos contextuais de acordo coma abordagem discreta. Dos 13 estudos, 12 expuseram a noção de contexto através da abordagem discreta em oposição a um único de abordagem omnibus. 10 estudos exibiram mecanismos para guiar a caracterização de contexto de experimentos controlados, mas nenhum mencionou o método de survey. Apenas 4 dos 10 tópicos da engenharia de software foram cobertos com algum mecanismo para guiar a caracterização de contexto de estudos empíricos. Conclusões: Esta pesquisa evidenciou a importância da caracterização de contexto de estudos empíricos, bem como mostrou que há pesquisadores e instituições atentos ao tema. No entanto, se identificou que a quantidade e qualidade de mecanismos para guiar a caracterização de contexto é muito baixa. Por essa razão, é necessário debruçar-se sobre o tema objetivando definir mecanismos e criar teorias para aumentar a robustez da atividade de caracterização de contexto, aumentando a relevância das evidências empíricas na engenharia de software.
16

Mapeamento sistemático sobre replicação de estudos empíricos em engenharia de software

Suassuna, Marcos 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T15:56:50Z (GMT). No. of bitstreams: 2 arquivo2999_1.pdf: 2292884 bytes, checksum: f12a1a417b95360f4a2d16d0cc59bc61 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / Contexto Muitos autores consideram replicação de estudos empíricos como uma atividade essencial para a construção do conhecimento em qualquer ciência empírica. Em engenharia de software, os primeiros estudos de replicação datam de meados de 1990, portanto são relativamente recentes. Embora o entendimento sobre replicação em engenharia de software tenha evoluído ao longo dos anos, os estudos e o debate científico sobre replicação ainda se encontram em um estágio inicial. Os trabalhos publicados ainda não fazem uso claro de termos e conceitos associados à replicação e nenhuma base abrangente de conhecimentos tem sido publicada para fornecer material sobre replicação. Objetivo - Analisar as pesquisas relacionadas à replicação de estudos empíricos em engenharia de software e trabalhos conceituais e teóricos sobre replicações. Nesta pesquisa são apresentadas as conclusões desta análise, concentrando-se nas informações dos estudos sobre replicações e estudos originais relacionados. Método - Aplicou-se a metodologia de revisão sistemática para realizar um mapeamento sistemático sobre o estado atual dos trabalhos de replicação de estudos empíricos realizados em engenharia de software. Resultados - Foram analisados 16.126 artigos, a partir dos quais foram extraídos 93 artigos, com 125 replicações e 76 estudos originais, realizadas entre 1994 e 2010. Mais de 60% das replicações foram realizadas nos últimos seis anos e 71% dos estudos foram replicações internas. Os tópicos de construção de software, testes e manutenção concentram em torno de 50% dos trabalhos de replicação, enquanto os tópicos de projeto de software, gerenciamento de configuração, ferramentas de software e métodos são os temas com menos replicações. Conclusões - O número de replicações cresceu nos últimos anos, mas o número absoluto de replicações ainda é muito pequeno, em particular considerando a amplitude dos temas relacionados com engenharia de software. Incentivos para executar replicações externas e melhorar os padrões dos relatórios de estudos empíricos e suas replicações ainda são necessários
17

Investigação da atividade biológica de taxóides e Benzo[c]quinolizin-3-onas através de descritores teóricos

Llanes, Scheila Furtado Braga 25 April 2003 (has links)
Orientador: Douglas Soares Galvão / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Fisica Gleb Wataghin / Made available in DSpace on 2018-09-11T21:00:05Z (GMT). No. of bitstreams: 1 Llanes_ScheilaFurtadoBraga_D.pdf: 1486609 bytes, checksum: 975b9d683860f2c68531081bcd9d855c (MD5) Previous issue date: 2003 / Resumo: Este trabalho envolveu a investigação da atividade biológica de fármacos por meio de descritores quânticos teóricos e a investigação de um sistema molecular de chaveamento ótico. Em uma primeira parte, apresentamos o estudo realizado para um conjunto de 20 taxóides, compostos caracterizados por uma estrutura molecular complexa, e por uma atuação diferenciada no combate ao câncer. Investigamos a estrutura destes compostos através de métodos semiempíricos partindo de seu precursor sintético 10-deacetilbaccatin III. Investigamos a relação entre a atividade experimental dos taxóides e descritores teóricos através de três metodologias de reconhecimento de padrões: a metodologia de índices eletrônicos, a análise de componentes principais e análise hierárquica de clusters. Para estas três investigações distintas pudemos correlacionar a atividade dos taxóides estudados com parâmetros teóricos, em sua maioria eletrônicos. Seguindo o mesmo tipo de análise aplicada para os taxóides, estudamos um conjunto de 41 derivados da benzo[c]quinolizin-3-onas, compostos inibidores das enzimas 5alfa-reductase humana. Aplicando os três métodos acima citados selecionamos descritores relacionados à resposta biológica destes compostos e construímos regras e padrões que os diferenciasse quanto à atividade biológica. Numa investigação especulativa, aplicando as regras e padrões construídos, sugerimos a atividade biológica para alguns compostos ainda não avaliados experimentalmente. Na segunda parte deste trabalho investigamos um sistema orgânico de chaveamento, baseado no comportamento fotocrômico de moléculas quirais. Este é um sistema de grande interesse no desenvolvimento de memórias moleculares que utilizem uma lógica binária. Utilizamos métodos semiempíricos na investigação estrutural e energética do sistema e propusemos uma rota para o funcionamento do sistema, capaz de explicar qualitativa e quantitativamente o seu comportamento / Abstract: This work deals with the structure-activity relationship investigation of pharmacological compounds using theoretical quantum descriptors, and the investigation of an optical molecular switching system. In the first part, we present a study of 20 taxoids, remarkable molecules by their complex molecular structure and dissimilar mode of action as antitumor agent. We investigated the compounds structure with semiempirical methods initiating with their synthetic precursor 10-deacetilbaccatin III. Taxoids experimental activity relationship was investigated with theoretical descriptors applying three pattern recognition methodologies: the electronic indices methodology, principal component analysis and hierarchical cluster analysis. With these three distinct methods we were able to correlate the biological activity of the studied taxoids with theoretical parameters. In a similar approach we studied a set of 41 benzo[c]quinolizin-3-ones derivatives, applied as human 5alpha-reductase inhibitors. Making use of the three methods mentioned above we selected the descriptors related to the compounds biological indices and constructed the rules and patterns able to separate them according to their activity. Considering a speculative approach, we proposed the biological activity to untested compounds, via the obtained rules. In a second part of the work we investigated an organic switching system, based on the photocromic behavior of chiral molecules. This is a system of great interest for molecular memories development based on binary logics. We applied semiempirical methods in the system structural and energetic investigations, and proposed a route able to explain qualitative and quantitatively how the system works / Doutorado / Física / Doutora em Ciências
18

Derivação de valores críticos de elementos potencialmente tóxicos em solos e avaliação de risco ao ambiente e à saúde humana / Derivation of critical values of potentially toxics elements in soils and environmental risk assessment and human health

Boim, Alexys Giorgia Friol 18 June 2014 (has links)
O uso intensivo do solo e descarte incorreto e descontrolado de substâncias tóxicas no solo em decorrência do aumento das atividades agrícolas e industriais pode promover o acúmulo de elementos potencialmente tóxicos (EPTs). Isto ocorre, principalmente, nas camadas superficiais do solo, o que favorece a absorção dos EPTs pelas plantas e pode trazer riscos inaceitáveis à saúde humana, principalmente pela ingestão de alimentos contaminados. No Brasil existem poucos estudos relacionados à acumulação e à forma em que estes elementos estão presentes na solução do solo e podem ser absorvidos por plantas do tipo olerícolas, sendo que várias espécies são consumidas cruas pela população. Dessa forma, há exposição indireta desses elementos via ingestão dos vegetais. Uma das formas de estimar a acumulação do metal nas plantas é por meio do Fator de Bioconcentração (BCF), que é a razão entre a concentração total do EPT no vegetal e no solo. Os objetivos nesse estudo foram: (i) comparar resultados dos teores pseudototais de EPTs de solos e teores totais de plantas encontrados em referências bibliográficas provenientes de regiões tropicais úmidas e de regiões temperadas; (ii) calcular as concentrações críticas de Cu, Ni, Pb e Zn em cenários de exposição urbano e rural, por meio de dois modelos matemáticos para avaliação de risco à saúde humana: Planilha CETESB e CSOIL; (iii) avaliar as frações reativa, disponível e bioacessível de Ba, Cr, Cu, Ni, Pb e Zn em solos; e (iv) estimar os teores dos elementos presentes nas frações por funções empíricas a partir dos teores pseudototais e das propriedades física e químicas do solo. Foram levadas em consideração frações dos vegetais consumidos das áreas contaminadas: 10% para o cenário urbano e 25% para o cenário rural. O BCF foi o principal parâmetro avaliado no cálculo da concentração crítica dos EPTs, sendo que o ideal seria a obtenção de um BCF para cada situação/região, considerando principalmente os atributos físicos e químicos do solo, e tipo e espécie de vegetais cultivados para calcular as concentrações críticas baseada no risco à saúde humana. Os modelos empíricos foram capazes de predizer a relação entre as frações reativa e pseudototal desses elementos em função das propriedades dos solos e do seu teor pseudototal. Na fração disponível, 3% e 1% do teor de Ba e Zn, respectivamente, estavam disponíveis na solução do solo em relação aos teores pseudototais, o que sugere baixo potencial de mobilidade destes elementos no solo. O Ba apresentou grande solubilidade em ambientes ácidos, como o baixo pH encontrado no estômago de seres humanos. / The intensive land use and uncontrolled disposal of toxic substances in the soil due to the increase of agricultural and industrial activities can promote the accumulation of potentially toxic elements (PTEs) mainly in the upper soil layers, which favors the uptake by plants and can pose unacceptable risks to humans health, mainly by intake of contaminated food. In Brazil, there are few studies regarding the accumulation and the species in which these elements are present in the soil solution and can be absorbed by several vegetable crops eaten raw by the population, i.e., there is an indirect exposure by ingestion of vegetables. The Bioconcentration Factor (BCF) is the ratio of the total concentration of PTE in plant and soil. BCF is used to estimate the metal accumulation in plants. This study was carried out taking the following objectives into account: (i) the comparison of results obtained in bibliographic references from humid tropics and temperate regions; (ii) to calculate the critical concentrations of Cu, Ni, Pb and Zn for both urban and rural scenarios of exposure, using both mathematical models for assessment risk to human health: CETESB and CSOIL spreadsheets; (iii) to evaluate the reactive, available and bioaccessible fractions of Ba, Cr, Cu, Ni, Pb and Zn in soils cultivated with vegetable crops in Sao Paulo states, Brazil; and (iv) to estimate the PTEs contents in the fractions by empiric functions from pseudototals concentrations and soil physical and chemical properties. The following fractions of vegetables consumed in contaminated areas have taken into account: 10% for the urban scenario and 25% for the rural scenario. The BCF was the main parameter evaluated in the calculation of the critical concentration of EPTs. For calculating the critical concentrations based on risk to human health, it is suggested that the BCF should be determined for each state/region, mainly considering the physical and chemical soil properties, and the type and species of plants. The empirical models were able to predict the relationship between the reactive and the pseudototal fractions of the PTEs, and this fraction depended on the soil properties and on their pseudototal contents. In the available fraction, 3% and 1 % of Ba and Zn contents, respectively, were available in the soil solution in relation to pseudototal levels, suggesting the poor potential for the mobility of these elements in the soil. Moreover, Ba (bioaccessible fraction) had great solubility in acidic environments, such as the low pH found in the stomach.
19

Impacto da geração de grafos na classificação semissupervisionada / Impact of graph construction on semi-supervised classification

Sousa, Celso André Rodrigues de 18 July 2013 (has links)
Uma variedade de algoritmos de aprendizado semissupervisionado baseado em grafos e métodos de geração de grafos foram propostos pela comunidade científica nos últimos anos. Apesar de seu aparente sucesso empírico, a área de aprendizado semissupervisionado carece de um estudo empírico detalhado que avalie o impacto da geração de grafos na classificação semissupervisionada. Neste trabalho, é provido tal estudo empírico. Para tanto, combinam-se uma variedade de métodos de geração de grafos com uma variedade de algoritmos de aprendizado semissupervisionado baseado em grafos para compará-los empiricamente em seis bases de dados amplamente usadas na literatura de aprendizado semissupervisionado. Os algoritmos são avaliados em tarefas de classificação de dígitos, caracteres, texto, imagens e de distribuições gaussianas. A avaliação experimental proposta neste trabalho é subdividida em quatro partes: (1) análise de melhor caso; (2) avaliação da estabilidade dos classificadores semissupervisionados; (3) avaliação do impacto da geração de grafos na classificação semissupervisionada; (4) avaliação da influência dos parâmetros de regularização no desempenho de classificação dos classificadores semissupervisionados. Na análise de melhor caso, avaliam-se as melhores taxas de erro de cada algoritmo semissupervisionado combinado com os métodos de geração de grafos usando uma variedade de valores para o parâmetro de esparsificação, o qual está relacionado ao número de vizinhos de cada exemplo de treinamento. Na avaliação da estabilidade dos classificadores, avalia-se a estabilidade dos classificadores semissupervisionados combinados com os métodos de geração de grafos usando uma variedade de valores para o parâmetro de esparsificação. Para tanto, fixam-se os valores dos parâmetros de regularização (quando existirem) que geraram os melhores resultados na análise de melhor caso. Na avaliação do impacto da geração de grafos, avaliam-se os métodos de geração de grafos combinados com os algoritmos de aprendizado semissupervisionado usando uma variedade de valores para o parâmetro de esparsificação. Assim como na avaliação da estabilidade dos classificadores, para esta avaliação, fixam-se os valores dos parâmetros de regularização (quando existirem) que geraram os melhores resultados na análise de melhor caso. Na avaliação da influência dos parâmetros de regularização na classificação semissupervisionada, avaliam-se as superfícies de erro geradas pelos classificadores semissupervisionados em cada grafo e cada base de dados. Para tanto, fixam-se os grafos que geraram os melhores resultados na análise de melhor caso e variam-se os valores dos parâmetros de regularização. O intuito destes experimentos é avaliar o balanceamento entre desempenho de classificação e estabilidade dos algoritmos de aprendizado semissupervisionado baseado em grafos numa variedade de métodos de geração de grafos e valores de parâmetros (de esparsificação e de regularização, se houver). A partir dos resultados obtidos, pode-se concluir que o grafo k- vizinhos mais próximos mútuo (mutKNN) pode ser a melhor opção dentre os métodos de geração de grafos de adjacência, enquanto que o kernel RBF pode ser a melhor opção dentre os métodos de geração de matrizes ponderadas. Em adição, o grafo mutKNN tende a gerar superfícies de erro que são mais suaves que aquelas geradas pelos outros métodos de geração de grafos de adjacência. Entretanto, o grafo mutKNN é instável para valores relativamente pequenos de k. Os resultados obtidos neste trabalho indicam que o desempenho de classificação dos algoritmos semissupervisionados baseados em grafos é fortemente influenciado pela configuração de parâmetros. Poucos padrões evidentes foram encontrados para auxiliar o processo de seleção de parâmetros. As consequências dessa instabilidade são discutidas neste trabalho em termos de pesquisa e aplicações práticas / A variety of graph-based semi-supervised learning algorithms have been proposed by the research community in the last few years. Despite its apparent empirical success, the field of semi-supervised learning lacks a detailed empirical study that evaluates the influence of graph construction on semisupervised learning. In this work we provide such an empirical study. For such purpose, we combine a variety of graph construction methods with a variety of graph-based semi-supervised learning algorithms in order to empirically compare them in six benchmark data sets widely used in the semi-supervised learning literature. The algorithms are evaluated in tasks about digit, character, text, and image classification as well as classification of gaussian distributions. The experimental evaluation proposed in this work is subdivided into four parts: (1) best case analysis; (2) evaluation of classifiers stability; (3) evaluation of the influence of graph construction on semi-supervised learning; (4) evaluation of the influence of regularization parameters on the classification performance of semi-supervised learning algorithms. In the best case analysis, we evaluate the lowest error rates of each semi-supervised learning algorithm combined with the graph construction methods using a variety of sparsification parameter values. Such parameter is associated with the number of neighbors of each training example. In the evaluation of classifiers stability, we evaluate the stability of the semi-supervised learning algorithms combined with the graph construction methods using a variety of sparsification parameter values. For such purpose, we fixed the regularization parameter values (if any) with the values that achieved the best result in the best case analysis. In the evaluation of the influence of graph construction, we evaluate the graph construction methods combined with the semi-supervised learning algorithms using a variety of sparsification parameter values. In this analysis, as occurred in the evaluation of classifiers stability, we fixed the regularization parameter values (if any) with the values that achieved the best result in the best case analysis. In the evaluation of the influence of regularization parameters on the classification performance of semi-supervised learning algorithms, we evaluate the error surfaces generated by the semi-supervised classifiers in each graph and data set. For such purpose, we fixed the graphs that achieved the best results in the best case analysis and varied the regularization parameters values. The intention of our experiments is evaluating the trade-off between classification performance and stability of the graphbased semi-supervised learning algorithms in a variety of graph construction methods as well as parameter values (sparsification and regularization, if applicable). From the obtained results, we conclude that the mutual k-nearest neighbors (mutKNN) graph may be the best choice for adjacency graph construction while the RBF kernel may be the best choice for weighted matrix generation. In addition, mutKNN tends to generate error surfaces that are smoother than those generated by other adjacency graph construction methods. However, mutKNN is unstable for relatively small values of k. Our results indicate that the classification performance of the graph-based semi-supervised learning algorithms are heavily influenced by parameter setting. We found just a few evident patterns that could help parameter selection. The consequences of such instability are discussed in this work in research and practice
20

Replicação de estudos empíricos em engenharia de software. / Empirical studies replication in engineering software.

Dória, Emerson Silas 11 June 2001 (has links)
A crescente utilização de sistemas baseados em computação em praticamente todas as áreas da atividade humana provoca uma crescente demanda por qualidade e produtividade, tanto do ponto de vista do processo de produção como do ponto de vista dos produtos de software gerados. Nessa perspectiva, atividades agregadas sob o nome de Garantia de Qualidade de Software têm sido introduzidas ao longo de todo o processo de desenvolvimento de software. Dentre essas atividades destacam-se as atividades de Teste e Revisão, ambas com o objetivo principal de minimizar a introdução de erros durante o processo de desenvolvimento nos produtos de software gerados. A atividade de Teste constitui um dos elementos para fornecer evidências da confiabilidade do software em complemento a outras atividades, como por exemplo, o uso de revisões e de técnicas formais e rigorosas de especificação e de verificação. A atividade de Revisão, por sua vez, é um 'filtro' eficiente para o processo de engenharia de software, pois favorece a identificação e a eliminação de erros antes do passo seguinte do processo de desenvolvimento. Atualmente, pesquisas estão sendo realizadas com objetivo de determinar qual técnica, Revisão ou Teste, é mais adequada e efetiva, em determinadas circunstâncias, para descobrir determinadas classes de erros; e de forma mais ampla, como as técnicas podem ser aplicadas de forma complementar para melhoria da qualidade de software. Ainda que a atividade de teste seja indispensável no processo de desenvolvimento, investigar o aspecto complementar dessas técnicas é de grande interesse, pois em muitas situações tem-se observado que as revisões são tão ou mais efetivas quanto os testes. Nessa perspectiva, este trabalho tem como objetivo realizar um estudo comparativo, por meio da replicação de experimentos, entre Técnicas de Teste e Técnicas de Revisão no que se refere à detecção de erros em produtos de software (código fonte e documento de especificação de requisitos). Para realizar esse estudo são utilizados critérios de teste das técnicas funcional (particionamento em classes de equivalência e análise do valor limite), estrutural (todos-nós, todos-arcos, todos-usos, todos-potenciais-usos), baseada em erros (análise de mutantes), bem como, técnicas de leitura (stepwise abstraction e perspective based reading) e técnicas de inspeção (ad hoc e checklist). Além de comparar a efetividade e a eficiência das técnicas em detectar erros em produtos de software, este trabalho objetivo ainda utilizar os conhecimentos específicos relacionados a critérios de teste para reavaliar as técnicas utilizadas nos experimentos de Basili & Selby, Kamsties & Lott e Basili. / The increasing use of computer based systems in practically all human activity areas provokes higher demand for quality and productivity, from the point of view of software process as well as from the point of view of software products. In this perspective, activities aggregated under the name of Software Quality Assurance have been introduced throughout the software development process. Amongst these activities, the test and review activities are distinguished, both of them aiming at minimizing the introduction of errors during the development process. The test activity constitutes one of the elements to supply evidences of software reliability as a complement to other activities, for example, the use of review and formal, rigorous techniques for specification and verification. The review activity, in turn, is an efficient 'filter' for the process of software engineering, therefore it favors the identification of errors before the next step of the development process. Currently, researches have been carried out with the objective of determining which technique, review or test, is more appropriate and effective, in certain circumstances, to discover some classes of errors, and mostly, how the techniques can be applied in complement to each other for improvement of software quality. Even if the test activity is indispensable in the development process, investigating the complementary aspect of these techniques is of great interest, for in many situations it has been observed that reviews are as or more effective as test. In this perspective, this work aims at accomplishing a comparative study, through the replication of experiments, between Testing Techniques and Reviews concerning error detection in software products at the source code and requirement specification level. To carry out this study are used testing criteria of the techniques: functional (equivalence partitioning and boundary value analysis); structural (all-nodes, all-edges, all-uses, all-potential-uses); error based (mutation testing), as well as reading techniques (stepwise abstraction and perspective based reading) and inspection techniques (ad hoc e checklist). Besides comparing the effectiveness and efficiency of the techniques in detecting errors in software products, this work also aims at reevaluating and eventually at improving the techniques used in experiment of Basili & Selby, Kamsties & Lott and Basili.

Page generated in 0.0658 seconds