• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 80
  • 6
  • 3
  • Tagged with
  • 89
  • 89
  • 28
  • 25
  • 21
  • 17
  • 16
  • 11
  • 11
  • 11
  • 9
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

On the application of focused crawling for statistical machine translation domain adaptation

Laranjeira, Bruno Rezende January 2015 (has links)
O treinamento de sistemas de Tradução de Máquina baseada em Estatística (TME) é bastante dependente da disponibilidade de corpora paralelos. Entretanto, este tipo de recurso costuma ser difícil de ser encontrado, especialmente quando lida com idiomas com poucos recursos ou com tópicos muito específicos, como, por exemplo, dermatologia. Para contornar esta situação, uma possibilidade é utilizar corpora comparáveis, que são recursos muito mais abundantes. Um modo de adquirir corpora comparáveis é a aplicação de algoritmos de Coleta Focada (CF). Neste trabalho, são propostas novas abordagens para CF, algumas baseadas em n-gramas e outras no poder expressivo das expressões multipalavra. Também são avaliadas a viabilidade do uso de CF para realização de adaptação de domínio para sistemas genéricos de TME e se há alguma correlação entre a qualidade dos algoritmos de CF e dos sistemas de TME que podem ser construídos a partir dos respectivos dados coletados. Os resultados indicam que algoritmos de CF podem ser bons meios para adquirir corpora comparáveis para realizar adaptação de domínio para TME e que há uma correlação entre a qualidade dos dois processos. / Statistical Machine Translation (SMT) is highly dependent on the availability of parallel corpora for training. However, these kinds of resource may be hard to be found, especially when dealing with under-resourced languages or very specific domains, like the dermatology. For working this situation around, one possibility is the use of comparable corpora, which are much more abundant resources. One way of acquiring comparable corpora is to apply Focused Crawling (FC) algorithms. In this work we propose novel approach for FC algorithms, some based on n-grams and other on the expressive power of multiword expressions. We also assess the viability of using FC for performing domain adaptations for generic SMT systems and whether there is a correlation between the quality of the FC algorithms and of the SMT systems that can be built with its collected data. Results indicate that the use of FCs is, indeed, a good way for acquiring comparable corpora for SMT domain adaptation and that there is a correlation between the qualities of both processes.
52

Comparação de coeficientes de similaridade usados em análises de agrupamento com dados de marcadores moleculares dominantes. / Comparison of similarity coefficients used in cluster analysis with dominant markers data.

Andréia da Silva Meyer 28 February 2002 (has links)
Estudos de divergência genética e relações filogenéticas entre espécies vegetais de importância agronômica têm merecido atenção cada vez maior com o recente advento dos marcadores moleculares. Nesses trabalhos, os pesquisadores têm interesse em agrupar os indivíduos semelhantes de forma que as maiores diferenças ocorram entre os grupos formados. Métodos estatísticos de análise, tais como análise de agrupamentos, análise de fatores e análise de componentes principais auxiliam nesse tipo de estudo. Contudo, antes de se empregar algum desses métodos, deve ser obtida uma matriz de similaridade entre os genótipos, sendo que diversos coeficientes são propostos na literatura para esse fim. O presente trabalho teve como objetivo avaliar se diferentes coeficientes de similaridade influenciam os resultados das análises de agrupamentos, feitas a partir de dados provenientes de análises com marcadores moleculares dominantes. Foram utilizados dados de 18 linhagens de milho provenientes de duas diferentes populações, BR-105 e BR-106, as quais foram analisadas por marcadores dos tipos AFLP e RAPD. Foram considerados para comparação os coeficientes de Jaccard, Sorensen-Dice, Anderberg, Ochiai, Simple Matching, Rogers e Tanimoto, Ochiai II e Russel e Rao, para os quais foram obtidas as matrizes de similaridade. Essas matrizes foram comparadas utilizando as correlações de Pearson e Spearman, análise de agrupamentos com construção de dendrogramas, correlações, distorção e estresse entre as matrizes de similaridade e as matrizes cofenéticas, índices de consenso entre os dendrogramas, grupos obtidos com o método de otimização de Tocher e com a projeção no plano bidimensional das matrizes de similaridade. Os resultados mostraram que para praticamente todas metodologias usadas, para ambos marcadores, os coeficientes de Jaccard, Sorensen-Dice, Anderberg e Ochiai mostraram resultados semelhantes entre si, o que foi atribuído ao fato deles apresentarem como propriedade comum a desconsideração da ausência conjunta de bandas. Isso também foi observado para os coeficientes de Simple Matching, Rogers e Tanimoto e Ochiai II, que também não apresentaram entre si grandes alterações nos resultados, possivelmente devido ao fato de todos considerarem a ausência conjunta. O coeficiente de Russel e Rao apresentou resultados muito diferentes dos demais coeficientes, em função dele excluir a ausência conjunta do numerador e incluí-la no denominador, não sendo recomendado seu uso. Devido ao fato da ausência conjunta não significar necessariamente que as regiões do DNA são idênticas, sugere-se a escolha dentre os coeficientes que desconsideram a ausência conjunta. / With the recent advent of the molecular markers, studies of divergence and phylogenetic relationships between and within vegetable species of agricultural interest have been received greater attention. In these studies, the aim is to group similar individuals looking for bigger differences among the groups. Statistical methods of analysis such as cluster analysis, factor analysis and principal components analysis can be used in this kind of study. However, before to employ some method, the similarity matrix between genotypes must be obtained using one of the several coefficients proposed in the concerning literature. The aim of this study was to evaluate if different similarity coefficients can influence the results of cluster analysis with dominant markers. Data from 18 inbred lines of maize from two different populations, BR-105 and BR-106, were analyzed by AFLP and RAPD markers and eight similarity coefficients (Jaccard, Sorensen-Dice, Anderberg, Ochiai, Simple-matching, Rogers and Tanimoto, Ochiai II and Russel and Rao) were obtained. The similarity matrices were compared by Pearson's and Spearman's correlations, cluster analysis (with dendrograms, correlations, distortion and stress between the similarity and cofenetical matrices, consensus fork index between all pairs of dendrograms), Tocher´s optimization procedure and with the projection in two-dimensional space of the similarity matrices. The results showed that for almost all of the methodologies and both markers, the coefficients of Jaccard, Sorensen-Dice, Anderberg and Ochiai, gave similar results, due to the fact that all of them excludes negative co-occurences. It was also observed that the Simple Matching, Rogers and Tanimoto, and Ochiai II, probably due to the fact of all including the negative co-occurences. The Russel and Rao coefficient presented results very different from the others, because it excludes the negative co-occurences in the numerator and include it in the denominator of its expression, which is a reason for not recommending it. Due the fact of the negative co-occurences does not mean, necessarily, that the regions of the DNA are identical, it is suggested to choose one those coefficients that do not include it.
53

Modelos lineares mistos: estruturas de matrizes de variâncias e covariâncias e seleção de modelos. / Mixed linear models: structures of matrix of variances and covariances and selection of models.

Jomar Antonio Camarinha Filho 27 September 2002 (has links)
É muito comum encontrar nas áreas agronômica e biológica experimentos cujas observações são correlacionadas. Porém, tais correlações, em tese, podem estar associadas às parcelas ou às subparcelas, dependendo do plano experimental adotado. Além disso, a metodologia de modelos lineares mistos vem sendo utilizada com mais freqüência, principalmente após os trabalhos de Searle (1988), Searle at al. (1992), Wolfinger (1993b) entre outros. O sucesso do procedimento de modelagem está fortemente associado ao exame dos efeitos aleatórios que devem permanecer no modelo e na possibilidade de se introduzir, no modelo, estruturas de variâncias e covariâncias das variáveis aleatórias que, para o modelo linear misto, podem estar inseridas no resíduo e, também, na parte aleatória associada ao fator aleatório conhecido. Nesse contexto, o Teste da Razão de Verossimilhança e o Critério de Akaike podem auxiliar na tarefa de escolha do modelo mais apropriado para análise dos dados, além de permitir verificar que escolhas de modelos inadequadas acarretam em conclusões divergentes em relação aos efeitos fixos do modelo. Com o desenvolvimento do Proc Mixed do SAS (Littel at al. 1996), utilizado neste trabalho, a análise desses experimentos, tratada pela metodologia modelos lineares mistos, tornou-se mais usual e segura. Com a finalidade de se atingir o objetivo deste trabalho, utilizaram-se dois exemplos (A e B) sobre a resposta da produtividade de três cultivares de trigo, em relação a níveis de irrigação por aspersão line-source. Foram criados e analisados 29 modelos para o Exemplo A e 16 modelos para o Exemplo B. Pôde-se verificar, para cada um dos exemplos, que as conclusões em relação aos efeitos fixos se modificaram de acordo com o modelo adotado. Notou-se, também, que o Critério de Akaike deve ser visto com cautela. Ao se comparar modelos similares entre os dois exemplos, ratificou-se a importância de se programar corretamente no Proc Mixed. Nesse contexto, conclui-se que é fundamental conduzir a análise de experimentos de forma ampla, buscando vários modelos e verificando quais têm lógica em relação ao plano experimental, evitando erros ao término da análise. / In Biology and Agronomy, experiments that produce correlated observations are often found. Theoretically, these correlations may be associated with whole-plots or subplots, according to the chosen experimental design. Also, the mixed linear model methodology is now being used much more frequently, especially after the works of Searle (1988), Searle et al. (1992) and Wolfinger (1993b), among others. The success of the modeling procedure is strongly associated with the examination of the random effects that must remain within the model and the possibility of introducing variance-covariance structures of random variables in the model. In the case of the mixed linear model, they may be included in the residual error or in the random part which is associated with the known random factor. In this context, the Likelihood Ratio Test and Akaike's Information Criterion can help in choosing the most appropriate model for data analysis. They also enable the verification of inadequate choice of models which can lead to divergent conclusions regarding the fixed effects of the model. With the development of the SAS Mixed Procedure (Little at al. 1996), which was used in this work, analysis of these experiments, conducted through the mixed linear model methodology, has become more usual and secure. In order to achieve the target of this work, two examples were utilized (A and B) involving the productivity response of three varieties of wheat, in regards to irrigation levels by line-source aspersion. Twenty-nine models for Example A and 16 models for Example B were created and analyzed. For each example, it was verified that conclusions regarding fixed effects changed according to the model adopted. It was also verified that Akaike’s Information Criterion must be regarded with caution. When comparing similar models between the two examples, the importance of correct programming in the Mixed Procedure was confirmed. In this context, it can be concluded that it is fundamental to conduct the experiment analysis in an ample manner, looking for various models and verifying which ones make sense according to the experimental plan, thus avoiding errors at analysis completion.
54

Combinação de previsões : uma proposta utilizando análise de componentes principais

Martins, Vera Lúcia Milani January 2014 (has links)
A obtenção de previsões com maior acuracidade é uma necessidade constantemente requerida, em tempos onde há imensa disponibilidade de dados e recursos computacionais cada dia mais eficientes. Tais critérios possibilitaram o desenvolvimento de muitas técnicas de previsão individual ou de métodos de combinação que são considerados eficientes no intuito de reduzir erros. O desenvolvimento de novas técnicas, por sua vez, promove questionamentos quanto à identificação de quantas ou quais técnicas de previsão individual combinar. A literatura não é unânime ao tentar responder a estes questionamentos e indica a importância da correlação entre os erros de previsão na precisão da combinação. Posto isso, esta tese apresenta uma alternativa aos métodos atuais de combinar previsões, contemplando a correlação entre os erros de previsão, além de propor uma forma de identificar técnicas de previsão que sejam distintas quanto à modelagem de características da série de dados. Para identificar grupos de técnicas de previsão individual que sejam similares, utilizou-se a Análise de Agrupamentos em erros gerados por 15 técnicas de previsão que modelaram uma mesma série de dados real com tendência e sazonalidade. O resultado indicou a formação de 3 agrupamentos. Como alternativa aos métodos atuais de combinar previsão e selecionar a quantidade adequada de técnicas, utilizou-se a Análise de Componentes Principais. O método proposto mostrou-se viável quando comparado com outros métodos de combinação e quando submetido à modelagem de séries com maior variabilidade. / The obtaining of more accurate forecasts is a necessity often required in times where there is a huge availability of data and computing resources becoming more efficient every day. These criteria allowed the development of many individual forecasting techniques or combination methods that are considered efficient in order to reduce errors. The development of new techniques, in turn, promotes questioning as the identification of how many or which techniques to combine individual forecasts. The literature is not unanimous when trying to answer these questions and indicates the importance of the correlation between forecast errors on the accuracy of the combination. That said, this presents an alternative to current methods of combining forecasts, considering the correlation between forecast errors, and propose a way to identify predictive techniques that are different about the modeling features of the data series. To identify groups of individual forecasting techniques that are similar, it was used the cluster analysis on errors generated by 15 forecasting techniques that shaped the same series of real data with trend and seasonality. The result indicated the formation of 3 clusters. As an alternative to current methods of combining forecasting and selecting the appropriate amount of techniques, it was used the Principal Component Analysis. The proposed method has proved feasible when compared to other methods of combining and when subjected to modeling of series with greater variability.
55

Generalização do modelo computacional de tráfego veicular IDM (Intelligent Driver Model)

SANTOS, Luiz José Rodrigues dos 28 February 2008 (has links)
Submitted by (ana.araujo@ufrpe.br) on 2016-08-03T14:07:18Z No. of bitstreams: 1 Luiz Jose Rodrigues dos Santos.pdf: 1081987 bytes, checksum: 435fc2cb438881b9c3905e16b4b41ed0 (MD5) / Made available in DSpace on 2016-08-03T14:07:42Z (GMT). No. of bitstreams: 1 Luiz Jose Rodrigues dos Santos.pdf: 1081987 bytes, checksum: 435fc2cb438881b9c3905e16b4b41ed0 (MD5) Previous issue date: 2008-02-28 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Urban traffic represents a phenomenon of great socioeconomic importance,whose modeling from the point of view of prevision on the basis of initial conditions, still represents a challenge for modern science. Computational methods (computer simulations) represent a powerful tool for modeling and prediction of a number of effects, where systems of coupled differential equations may be used to simulate different phenomena observed in traffic systems. In particular, a quantity of high importance for maintenance and planning of road systems is the vehicular capacity which can be supported without traffic jams, whose description and prevision is still not well understood. In this work, a generalization of an existing microscopic traffic model, the Intelligent Driver Model (IDM), is proposed by implementing a distribution of desired velocities, where it is shown that vehicle capacity of multiple lane roads can be measured in a rather realistic manner, as a function of model parameters,which may be adjusted to real observations. / O tráfego urbano representa um fenômeno de grande importância sócio econômica, cuja modelagem de ponto de vista de previsão a partir de condições iniciais, ainda representa um desafio para a ciência moderna. Métodos computacionais (simulação computacional) representam uma ferramenta poderosa para modelagem e previsão de diversos efeitos, nos quais sistemas de equações diferenciais acopladas podem simular diversos fenômenos observados no sistema de tráfego. Em particular, uma grandeza de alto impacto para o gerenciamento e planejamento de rodovias é a capacidade veicular que elas podem suportar sem que aconteça o efeito de congestionamento, cuja descrição e previsão ainda não estão bem entendida. Neste trabalho, propõe-se uma generalização de um modelo microscópico computacional existente, o Intelligent Driver Model (IDM), aplicando uma distribuição de velocidades desejadas, onde torna-se possível medir de forma bastante realista a capacidade veicular de rodovias com múltiplas faixas, em função de parâmetros de modelo, que podem ser ajustados às observações reais.
56

Método para implementação e acompanhamento de atividades a distância em disciplinas de Estatística: um estudo de caso / Method for distance activities introduction and attendance in statistics subjects: a case-study

Daielly Melina Nassif Mantovani 10 April 2008 (has links)
O objetivo desta dissertação foi desenvolver um método para implementação e acompanhamento de atividades a distância em disciplinas de Estatística, por meio de ambientes virtuais de aprendizagem. O método inclui alguns recursos comumente encontrados em ambientes virtuais, como materiais de leitura, fórum, chat, correio eletrônico, FAQ, links, espaço compartilhado de trabalho e quadro de notas. O método foi aplicado a uma disciplina semipresencial do curso de graduação em Administração da FEA-RP/USP. Este trabalho se configura como uma pesquisa qualitativa e descritiva, com delineamento por estudo de caso único, cuja coleta de dados ocorreu por meio de observação participante (nos processos de tutoria), entrevistas do tipo focus group, relatórios de acessos dos alunos ao ambiente e um survey sobre o perfil da turma. O gerenciamento do curso ocorreu conjuntamente com o processo de tutoria da disciplina, o que permitiu acompanhar os acessos dos alunos a cada recurso do ambiente e o seu desempenho nas atividades propostas. Observou-se que alguns recursos não foram utilizados da forma planejada pelo método. A análise de regressão revelou que, durante a primeira fase da disciplina, as discussões no fórum e o desempenho nos trabalhos práticos influenciaram positivamente o desempenho do aluno na prova. Na segunda fase, apenas o trabalho prático e o fórum influenciaram na nota da prova. A análise de cluster identificou quatro grupos de alunos com desempenho: excelente, bom, mediano e insatisfatório. Os resultados indicam que outras variáveis, além das atividades a distância, determinam o desempenho do aluno na disciplina. / The objective of this dissertation was to develop a method for distance activities introduction and attendance in Statistics subjects through learning virtual environments. The method includes some resources commonly found in virtual environments, such as reading materials, forum, chat, electronic mail, FAQ, links, shared work space, and table of notes. The method was applied to a subject semi-presence of the Administration graduation course of FEARP/ USP. This work is a qualitative and descriptive research, with an outline by a single casestudy, of which data collection occurred through present observation (in the tutorial processes), interviews like focus group, reports of students accesses to the environment and a survey about the group profile. The management of the course occurred together with the subject tutorial process, which allowed attending the students\' accesses to each environment resource and their development in the proposed activities. It was observed that some resources were not used in the planned way by the method. The regression analysis revealed that, during the first stage of the subject, the discussions in the forum and the development in the practical works influenced positively the student\'s development in the test. In the second stage just the practical work and the forum influenced in the test\'s grade. The cluster analysis identified four groups of students with excellent, good, medium, and unsatisfactory developments. The results indicate that other variables, besides the distance activities, determine the student\'s development in the subject.
57

A distribuição generalizada de Pareto e mistura de distribuições de Gumbel no estudo da vazão e da velocidade máxima do vento em Piracicaba, SP / The generalized Pareto distribution and Gumbel mixture to study flow and maximum wind speed in Piracicaba, SP

Renato Rodrigues Silva 10 October 2008 (has links)
A teoria dos valores extremos é um tópico da probabilidade que descreve a distribuição assintótica das estatísticas de ordem, tais como máximos ou mínimos, de uma seqüência de variáveis aleatórias que seguem uma função de distribuição F normalmente desconhecida. Descreve, ainda, a distribuição assintótica dos excessos acima de um valor limiar de um ou mais termos dessa seqüência. Dessa forma, as metodologias padrões utilizada neste contexto consistem no ajuste da distribuição generalizada dos valores extremos a uma série de máximos anuais ou no ajuste da distribuição generalizada de Pareto a uma série de dados compostas somente de observações excedentes de um valor limiar. No entanto, segundo Coles et al. (2003), há uma crescente insatisfação com o desempenho destes modelos padrões para predição de eventos extremos causada, possivelmente, por pressuposições não atendidas como a de independência das observações ou pelo fato de que os mesmos não sejam recomendados para serem utilizados em algumas situações específicas como por exemplo e quando observações de máximos anuais compostas por duas ou mais populações independentes de eventos extremos sendo que a primeira descreve eventos menos freqüentes e de maior magnitude e a segunda descreve eventos mais freqüentes e de menor magnitude. Então, os dois artigos que compõem este trabalho tem como objetivo apresentar alternativas de análise de valores extremos para estas situações em que o ajuste dos modelos padrões não são adequados. No primeiro, foram ajustadas as distribuições generalizada de Pareto e exponencial, caso particular da GP, aos dados de vazão média diária do Posto de Artemis, Piracicaba, SP, Brasil, conjuntamente com a técnica do desagrupamento, (declustering), e comparadas as estimativas dos níveis de retorno para períodos de 5, 10, 50 e 100 anos. Conclui-se que as estimativas intervalares dos níveis de retorno obtidas por meio do ajuste da distribuição exponencial são mais precisas do que as obtidas com o ajuste da distribuição generalizada de Pareto. No segundo artigo, por sua vez, foi apresentada uma metodologia para o ajuste da distribuição de Gumbel e de misturas de duas distribuições de Gumbel aos dados de velocidades de ventos mensais de Piracicaba, SP. Selecionou-se a distribuição que melhor ajustou-se aos dados por meio de testes de hipóteses bootstrap paramétrico e critérios de seleção AIC e BIC. E concluiu-se que a mistura de duas distribuições de Gumbel é a distribuição que melhor se ajustou-se aos dados de velocidades máxima de ventos dos meses de abril e maio, enquanto que o ajuste da distribuição de Gumbel foi o melhor para os meses de agosto e setembro. / The extreme value theory is a probability topics that describes the asymtoptic distribution of order statistics such as maximum or minimum of random variables sequence that follow a distribution function F normaly unknown. Describes still, the excess asymtoptic distribution over threshold of this sequence. So, the standard methodologies of extremes values analysis are the fitting of generalized extreme value distribution to yearly maximum series or the fitting of generalized Pareto distribution to partial duration series. However, according to Coles et al. (2003), there is a growing dissatisfaction with the use this standard models for the prediction of extremes events and one of possible causes this fact may be a false assumptions about a sequence of observed data as a independence assumptions or because the standards models must not used in some specific situations like for example when maximum sample arise from two or more independents populations, where the first population describes more frequents and low intense events and the second population describes less frequents and more intense events. In this way, the two articles this work has a objective show alternatives about extreme values analysis for this situations that the standards models doesn´t recommended. In the first article, the generalized distribution Pareto and exponencial distribution, particular case of GP, together with to declustering methods was applied to mean daily flow of the Piracicaba river, Artemis station, Piracicaba, SP, and the estimates the return levels of 5, 10, 50 and 100 years were compared. We conclude that the interval estimates of the 50 and 100 year return levels obtained using the fitting the exponencial distribution are more precise than those obtained using the generalized Pareto distribution. In the second article, we propose the fit of Gumbel distribution and the Gumbel mixture to data maximum speed wind in Piracicaba, SP. We select the best model using bootstrap test of hypotheses and the AIC and BIC selection criteria We conclude that the mixture Gumbel is the best model to analyze the maximum wind speed data for months of april e may and otherside the fit of Gumbel distributions was the best fit to months of august e september.
58

Validação cruzada com correção de autovalores e regressão isotônica nos modelos AMMI / Cross-validation with eigenvalue correction and isotonic regression in models AMMI

Piovesan, Pamela 30 August 2007 (has links)
Neste trabalho apresenta-se a aplicação dos modelos AMMI para um estudo detalhado do efeito das interações entre genótipos e ambientes em experimentos multiambientais. Através da decomposição da soma de quadrados dessas interações, busca-se selecionar o número de termos que explicam essa interação, descartando o ruído presente na mesma. Há duas maneiras para a escolha desses termos: validação cruzada e teste de hipóteses. O foco será na validação cruzada pela vantagem de ser um critério "preditivo" de avaliação. São apresentados dois métodos de validação cruzada, métodos esses esboçados por Eastment e Krzanowski (1982) e Gabriel (2002). Esses métodos utilizam a decomposição por valores singulares para obter os autovalores referentes à matriz de interações, cuja soma de quadrados nos dá exatamente a soma de quadrados da interação. Como esses autovalores são superestimados ou subestimados (ARAÚJO; DIAS, 2002), essas técnicas de validação serão aperfeiçoadas através da correção desses autovalores e, para reordená-los, será utilizada a regressão isotônica. Será realizado um estudo comparativo entre esses métodos, através de dados reais. / This paper presents the application of AMMI models for a thorough study about the effect of the interaction between genotypes and environments in multi-environments experiments. Through the decomposition of the sum of squares of these interactions, one searches to select the number of terms that explains this interaction, discarding its noise in. There are two ways for choosing these terms: cross-validation and hypotheses test. The focus will be on the crossvalidation for its advantage of being one prediction criterion of evaluation. Two methods of cross-validation are presented , both outlined by Eastment and Krzanowski (1982) and Gabriel (2002). These methods use the decomposition by singular values in order to obtain eigenvalues referred to the matrix of interactions, whose sum of squares accurately gives us the sum of squares of the interation. As these eigenvalues either over- or underestimated (ARAÚJO; DIAS, 2002), these techniques of validation will be improved through the correction of these eigenvalues and, in order to rearrange them, isotonic regression will be used . A comparative study between these methods through real data will be carried out.
59

Redes Bayesianas no gerenciamento e mensuração de riscos operacionais. / Managing and measuring operation risks using Bayesian networks.

Queiroz, Cláudio De Nardi 14 November 2008 (has links)
A aplicação de Redes Bayesianas como modelo causal em Risco Operacional e extremamente atrativa do ponto de vista do gerenciamento dos riscos e do calculo do capital regulatorio do primeiro pilar do Novo Acordo da Basileia. Com as Redes e possível obter uma estimativa do VAR operacional utilizando-se não somente os dados históricos de perdas, mas também variáveis explicativas e conhecimento especialista através da possibilidade de inclusão de informações subjetivas. / The application of Bayesian Networks as causal model in Operational Risk is very attractive from the point of view of risk management and the calculation of regulatory capital under the first pillar of the New Basel Accord. It is possible to obtain with the networks an estimate of operational VAR based not only on the historical loss data but also in explanatory variables and expert knowledge through the possibility of inclusion of subjective information.
60

Uma análise da relação entre violência na escola e proficiência dos alunos

Dalcin, Aline Krüger January 2016 (has links)
O Brasil é um dos países mais violentos do mundo, e essa realidade se reflete no ambiente escolar. O problema da violência na escola induz nos agentes de educação comportamentos que se contrapõem às metas de melhoria da qualidade do ensino. Por isso, a violência na escola é um dos candidatos a determinante da baixa qualidade educacional encontrada no Brasil. Este trabalho investiga se existe relação entre violência na escola e proficiência dos alunos no Brasil nos anos de 2003, 2005, 2007, 2009, 2011 e 2013. Os resultados das regressões lineares e das regressões quantílicas incondicionais indicam que a ocorrência de um tipo de evento violento adicional está associada a uma redução na proficiência. Eles indicam também que há heterogeneidade na resposta dos alunos à violência na escola: a violência na escola parece afetar mais os alunos da quarta série, os alunos que se encontram na mediana da distribuição das notas e os alunos com melhor condição socioeconômica. Além disso, a violência na escola parece afetar mais a proficiência em Matemática em comparação com a proficiência em Língua Portuguesa, e a violência contra o professor tem efeitos tão ou mais deletérios que a violência entre os alunos. / Brazil is one of the most violent countries in the world, and this reality is part of the school environment. The problem of school violence hinders any possible progress in improving the quality of education. Indeed, school violence is a key element in explaining the low educational quality in Brazil. This research investigates the relationship between school violence and student achievement in Brazil in the years of 2003, 2005, 2007, 2009, 2011 and 2013. The results of linear regressions and unconditional quantile regressions analysis show that an occurrence of an additional kind of violent event is associated with a reduction on student achievement. They also show that there is a high degree of heterogeneity in student responses to school violence: the school violence seems to affect more 4th graders, the students that are in the median of the distribution of the grades and the students with the best socioeconomic conditions. Moreover, school violence seems to affect more grades in Math than Portuguese, and the violence against teachers has effects as or more deleterious than the violence between students.

Page generated in 0.0626 seconds