• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 490
  • 18
  • 5
  • 3
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 523
  • 330
  • 267
  • 224
  • 120
  • 97
  • 86
  • 79
  • 74
  • 71
  • 69
  • 64
  • 60
  • 56
  • 50
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Modelagem estatística em estudos de bioequivalência sob o enfoque Bayesiano / Statistical modeling in bioequivalence studies under Bayesian approach.

Roberto Molina de Souza 15 April 2015 (has links)
O interesse pelos estudos de bioequivalência iniciou-se na década de 60, sendo o FDA (EUA) a primeira agência reguladora a se interessar por esta questão. No Brasil, uma lei de 1999 regulamentou o medicamento genérico no país, sendo este um importante meio de acesso aos medicamentos pela população e fazendo parte da política de medicamentos do SUS. No Brasil, a ANVISA e responsável por inspecionar os centros de bioequivalência bem como dar as diretrizes para estes. Um modelo paramétrico padrão para a etapa estatística e disponibilizado para a decisão de bioequivalência media e espera-se que este ajuste-se aos dados obtidos nos estudos de bioequivalência, o que nem sempre acontece. Neste sentido, e proposto nesta tese o uso de modelos paramétricos mais abrangentes baseados em outras distribuições de probabilidade para a decisão de bioequivalência media e que possam modelar a assimetria dos dados, dispensando o uso da transformação logarítmica para os parâmetros farmacocinéticos o que afeta a amplitude dos limites de bioequivalência. Propõe-se também o uso de modelos bivariados para a tomada conjunta da decisão de bioequivalência media, quando são analisados simultaneamente dois parâmetros farmacocinéticos. Foram utilizados métodos Bayesianos para a estimação dos parâmetros dado a exibilidade deste enfoque quando combinado ao uso dos métodos MCMC facilitados a partir do uso de softwares livres. Nesta tese e apresentado um estudo do poder empírico dos testes de hipóteses para os modelos univariados propostos bem como são introduzidos quatro exemplos, sendo os três primeiros voltados a aplicação da decisão de bioequivalência media e o quarto para a aplicação da bioequivalência populacional e individual. Nos três primeiros exemplos foram observados ganhos em termos de ajuste dos novos modelos propostos aos dados com relação ao modelo padrão segundo os critérios de seleção de modelos utilizados. O exemplo quatro apresenta uma analise padrão de bioequivalência populacional e individual com o código computacional para a obtenção dos resultados disponível no apêndice A bem como outros códigos para os demais exemplos. Embora a padroniza- ção das análises estatísticas para os estudos de bioequivalência seja importante, não deve-se esperar que um modelo padrão ajuste-se a qualquer conjunto de dados originados destes tipo de estudos. Neste sentido, são apresentados alternativas que podem auxiliar o pesquisador na tomada de uma decisão em termos de bioequivalência media mais segura. / The interest in bioequivalence studies began in the early 1960s especially in the United States of America where the FDA was the rst regulatory agency to show interest upon this issue. In Brazil, this interest started in 1999 the year when a law regulated the generic drugs in the country. The ANVISA is the Brazilian regulatory agency responsible for inspecting the bioequivalence centers and giving guidelines for this issue. In general, a standard parametric model for the statistical step is indicated for the average bioequivalence decision and this model is expected to be tted by the data obtained in the bioequivalence studies. In some cases, this model would not be appropriate. In this way, this thesis proposes the use of more comprehensive parametric models based on other probability distributions for the average bioequivalence decision and that can model asymmetrical data, a common situation in bioequivalence studies. In addition, there is no need of a logarithmic transformation for the pharmacokinetic parameters which could aect the range of the bioequivalence limits. We also propose the use of parametrical bivariate models for the joint decision of the average bioequivalence decision, since these measures are usually analyzed simultaneously with two pharmacokinetic parameters. We use Bayesian methods to estimate the parameters, given the great exibility of this approach when combined with the use of MCMC methods using free available softwares. This thesis also presents a study of the empirical power of hypothesis testing for the proposed univariate models and four examples are introduced. In the examples one, two and three we apply the average bioequivalence decision and in the fourth example we consider for the implementation of population and individual bioequivalence. In the examples one, two and three were observed gains in the tting of the proposed new models for the data where some existing approaches were used in the selection criteria for the proposed models. Example four provides a standard analysis of population and individual bioequivalence with the computer code for obtaining the results available in the Appendix A, as well as other codes. Although the standardization of statistical analysis for bioequivalence studies is important, a standard model is not expected to be well tted to any data set originated by such studies. In this way, we present alternatives that can help researchers in making a decision in terms of average bioequivalence with more security.
252

APLICABILIDADE DE MEMÓRIA LÓGICA COMO FERRAMENTA COADJUVANTE NO DIAGNÓSTICO DAS DOENÇAS GENÉTICAS

Leite Filho, Hugo Pereira 25 August 2006 (has links)
Made available in DSpace on 2016-08-10T10:55:25Z (GMT). No. of bitstreams: 1 Hugo Pereira Leite Filho.pdf: 1747513 bytes, checksum: 1d5d4b0eff9478fb7f58eca6fa166bec (MD5) Previous issue date: 2006-08-25 / This study has involved the interaction among knowledge in very distinctive areas, or else: informatics, engineering e genetics, emphasizing the building of a taking decision backing system methodology. The aim of this study has been the development of a tool to help in the diagnosis of chromosomal aberrations, presenting like tutorial model the Turner Syndrome. So to do that there have been used classification techniques based in decision trees, probabilistic networks (Naïve Bayes, TAN e BAN) and neural MLP network (from English, Multi- Layer Perception) and training algorithm by error retro propagation. There has been chosen an algorithm and a tool able to propagate evidence and develop efficient inference techniques able to originate appropriate techniques to combine the expert knowledge with defined data in a databank. We have come to a conclusion about the best solution to work out the shown problem in this study that was the Naïve Bayes model, because this one presented the greatest accuracy. The decision - ID3, TAN e BAN tree models presented solutions to the indicated problem, but those were not as much satisfactory as the Naïve Bayes. However, the neural network did not promote a satisfactory solution. / O estudo envolveu a interação entre áreas de conhecimento bastante distintas, a saber: informática, engenharia e genética, com ênfase na metodologia da construção de um sistema de apoio à tomada de decisão. Este estudo tem como objetivo o desenvolvimento de uma ferramenta para o auxílio no diagnóstico de anomalias cromossômicas, apresentando como modelo tutorial a Síndrome de Turner. Para isso foram utilizadas técnicas de classificação baseadas em árvores de decisão, redes probabilísticas (Naïve Bayes, TAN e BAN) e rede neural MLP (do inglês, Multi- Layer Perceptron) com algoritmo de treinamento por retropropagação de erro. Foi escolhido um algoritmo e uma ferramenta capaz de propagar evidências e desenvolver as técnicas de inferência eficientes capazes de gerar técnicas apropriadas para combinar o conhecimento do especialista com dados definidos em uma base de dados. Chegamos a conclusão que a melhor solução para o domínio do problema apresentado neste estudo foi o modelo Naïve Bayes, pois este modelo apresentou maior acurácia. Os modelos árvore de decisão-ID3, TAN e BAN apresentaram soluções para o domínio do problema sugerido, mas as soluções não foram tão satisfatória quanto o Naïve Bayes. No entanto, a rede neural não promoveu solução satisfatória.
253

Aplicação de análises multivariadas em meta-raciocínio bayesiano: uma abordagem para sistemas especialistas de tempo-real.

Carlos Eduardo Bognar 20 October 2008 (has links)
Redes Bayesianas (RB) oferecem um método prático para o tratamento de incertezas em sistemas especialistas probabilísticos. Considerando que os problemas de atualização de crença e revisão crença em redes multiplamente conectadas são NP-Difíceis, alguns pesquisadores aplicaram processos de meta-raciocínio às inferências, para selecionar algoritmos para as tarefas. Quando possível, os métodos exatos devem ser adotados. Caso contrário, os algoritmos aproximados podem ser selecionados. Como a qualidade das inferências aproximadas varia a cada instância, os dados de entrada contêm características que afetam os desempenhos dos algoritmos. O problema de meta-raciocínio investigado está relacionado com a escolha do algoritmo para uma determinada instância de inferência, considerando restrições temporais. Para realizar meta-raciocínio, essa Tese propõe um método de caracterização da RB e associação conjunta dessas características, aplicando análises multivariadas. Os modelos são utilizados para a predição da probabilidade de que um algoritmo exato possa ser adotado em uma instância específica ou para a escolha do algoritmo aproximado com a melhor qualidade dos resultados. Análises experimentais comparam algumas abordagens alternativas, tais como análise de regressão simples, curvas de utilidade e técnicas de aprendizagem de máquina, mostrando resultados superiores quando análises multivariadas são aplicadas no processo de meta-raciocínio.
254

Modelagem estatística das medidas de pseudo-ranges no sistema GPS

Luiz Carlos Laureano da Rosa 01 January 1996 (has links)
O objetivo principal desta dissertação é apresentar uma metodologia para modelagem das medidas de pseudo-ranges no sistema GPS, cujos movimentos característicos são descritos pela trajetória de uma partícula material que se move, no decorrer do tempo, sob a influência de forças físicas, e possuem uma estrutura de auto-correlação. O tratamento dado foi de séries temporais, específico do método ARIMA da metodologia de BOX & JENKINS. A aplicação da metodologia proposta foi baseada nos dados recebidos no receptor GPS localizado no ITA, referente ao satélite de número 27. Sua validação foi feita comparando dados reais com os resultados do modelo, onde o modelo proposto mostrou uma boa performance. A principal conclusão foi a constatação da eficácia da metodologia proposta para a modelagem, através de um tratamento estatístico completo validade em caso real.
255

Arquiteturas programáveis de uma máquina de inferência para uso em microprocessadores fuzzy em tecnologia CMOS.

Leonardo Mesquita 00 December 2002 (has links)
Este trabalho tem por objetivo propor, projetar e testar novas arquiteturas de circuitos visando o seu uso em projetos de microprocessadores difusos que processem as suas informações no modo analógico. Para isto duas topologias de uma máquina de inferência foram desenvolvidas e implementadas. A grande inovação obtida a partir de uma das propostas é o circuito fuzificador desenvolvido, que a partir da utilização de sinais de controle digitais é capaz de gerar funções de pertinência do tipo triangular, trapezoidal, "S" ou "Z". Nesta proposta, a partir de sinais externos de controle, tanto a inclinação, como a altura das funções geradas podem ser alteradas e, ainda, as funções podem ser deslocadas dentro do seu intervalo de existência, ou seja, dentro do seu universo de discurso. A célula principal deste circuito fuzificador foi desenvolvida baseada no princípio translinear aplicado a dispositivos CMOS. Uma segunda arquitetura de um circuito fuzificador também é apresentada e discutida. Tal arquitetura é baseada em circuitos do tipo espelho de corrente CMOS, sendo a mesma completamente modular. Nesta arquitetura, o circuito que merece mais destaque é o circuito que tem por função deslocar o sinal de corrente de entrada em intervalos pré-determinados. O mesmo foi denominado de circuito de escalonamento de correntes. Na literatura, até onde se saiba, não existe circuito com característica similar. Um módulo de inferência foi, também, desenvolvido realizando suas operação baseando-se no método proposto por Mandami, sendo que as mesmas são do tipo max e min. Todos os circuitos foram implementados em modo corrente, pois, além de necessitarem de menor área de silício, podem ser otimizados para operar em altas velocidades. Este trabalho ainda apresenta e discute uma topologia para um circuito defuzificador. As medidas realizadas nos protótipos, já na sua versão integrada, mostram que a proposta do trabalho é válida e viável, sendo que todos os valores obtidos se enquadram dentro dos parâmetros do projeto estabelecidos inicialmente. Os blocos foram implementados, por hardware analógico, usando tecnologia CMOS 0,8 mm da AMS - Austria Mikro Systeme International AG.
256

Tomography of the Earth by Geo-Neutrino Emission / Tomografia da Terra pela emissão de geo-neutrinos

Tavares, Leonardo Estêvão Schendes 05 August 2014 (has links)
Geo-neutrinos are electronic anti-neutrinos originated from the beta decay process of some few elements in the decay chains of $^Th$ and $^U$ present in Earth\'s interior. Recent experimental measurements of these particles have been generating great expectations towards a new way for investigating directly the interior of the planet. It is a new multidisciplinary area, which might in the near future bring considerable clues about Earth\'s thermal dynamics and formation processes. In this work, we construct an inferential model based on the multigrid priors method to deal, in a generic way, with the geo-neutrino source reconstruction problem. It is an inverse problem; given a region in space V and a finite and small number of measurements of the potential generated on the surface of V by some charge distribution $ho$, we try to infer $ho$. We present examples of applications and analysis of models in two and three dimensions and we also comment how other a priori information may be included. Furthermore, we indicate the steps for inferring the best locations for future detectors. The objective is to maximize the amount of information liable to be obtained from experimental measurements. We resort to an entropic method of inference which may be applied right after the results of the multigrid method are obtained. / Geo-neutrinos são neutrinos provindos do decaimento beta de alguns poucos elementos nas cadeias de $^$Th e $^$U presentes no interior da Terra. Recentes medidas experimentais dessas partículas têm proporcionado grandes expectativas como uma nova maneira de se investigar o interior do planeta diretamente. Trata-se de uma área multidisciplinar nova, que poderá no futuro próximo nos trazer grandes esclarecimentos sobre a dinâmica térmica e o processo de formação da Terra. Neste trabalho, construímos um modelo de inferência baseado no método de multigrid de priors para tratar, de modo genérico, o problema da reconstrução das fontes de geo-neutrinos no interior da Terra. Trata-se de um problema inverso; dada uma região do espaço V e um número finito e pequeno de medidas do potencial gerado na superfície de V por uma distribuição de carga $ho$, tentamos inferir $ho$. Apresentamos exemplos de aplicações e análises do método em modelos bidimensionais e tridimensionais e também comentamos como outras informações a priori podem ser incorporadas. Além disso, indicamos os passos para se inferir onde detectores futuros devem ser posicionados. O objetivo é maximizar a informação passível de ser obtida das medidas experimentais. Utilizamos um método baseado em inferência entrópica e que pode ser aplicado diretamente depois que os resultados do método de multigrid são obtidos.
257

Modelos bayesianos semi-paramétricos para dados binários / Bayesian semi-parametric models for binary data

Diniz, Márcio Augusto 11 June 2015 (has links)
Este trabalho propõe modelos Bayesiano semi-paramétricos para dados binários. O primeiro modelo é uma mistura em escala que permite lidar com discrepâncias relacionadas a curtose do modelo Logístico. É uma extensão relevante a partir do que já foi proposto por Basu e Mukhopadhyay (2000) ao possibilitar a interpretação da distribuição a priori dos parâmetros através de razões de chances. O segundo modelo usufrui da mistura em escala em conjunto com a transformação proposta por \\Yeo e Johnson (2000) possibilitando que a curtose assim como a assimetria sejam ajustadas e um parâmetro informativo de assimetria seja estimado. Esta transformação é muito mais apropriada para lidar com valores negativos do que a transformação de Box e Cox (1964) utilizada por Guerrero e Johnson (1982) e é mais simples do que o modelo proposto por Stukel (1988). Por fim, o terceiro modelo é o mais geral entre todos e consiste em uma mistura de posição e escala tal que possa descrever curtose, assimetria e também bimodalidade. O modelo proposto por Newton et al. (1996), embora, seja bastante geral, não permite uma interpretação palpável da distribuição a priori para os pesquisadores da área aplicada. A avaliação dos modelos é realizada através de medidas de distância de probabilidade Cramér-von Mises, Kolmogorov-Smirnov e Anderson-Darling e também pelas Ordenadas Preditivas Condicionais. / This work proposes semi-parametric Bayesian models for binary data. The first model is a scale mixture that allows handling discrepancies related to kurtosis of Logistic model. It is a more interesting extension than has been proposed by Basu e Mukhopadyay (1998) because this model allows the interpretation of the prior distribution of parameters using odds ratios. The second model enjoys the scale mixture together with the scale transformation proposed by Yeo and Johnson (2000) modeling the kurtosis and the asymmetry such that a parameter of asymmetry is estimated. This transformation is more appropriate to deal with negative values than the transformation of Box e Cox (1964) used by Guerrero e Johnson (1982) and simpler than the model proposed by Stukel (1988). Finally, the third model is the most general among all and consists of a location-scale mixture that can describe kurtosis and skewness also bimodality. The model proposed by Newton et al (1996), although general, does not allow a tangible interpretation of the a priori distribution for reseachers of applied area. The evaluation of the models is performed through distance measurements of distribution of probabilities Cramer-von Mises Kolmogorov-Smirnov and Anderson-Darling and also the Conditional Predictive sorted.
258

Métodos alternativos de previsão de safras agrícolas / Alternative Crop Prediction Methods

Miquelluti, Daniel Lima 23 January 2015 (has links)
O setor agrícola é, historicamente, um dos pilares da economia brasileira, e apesar de ter sua importância diminuída com o desenvolvimento do setor industrial e de serviços ainda é responsável por dar dinamismo econômico ao país, bem como garantir a segurança alimentar, auxiliar no controle da inflação e na formação de reservas monetárias. Neste contexto as safras agrícolas exercem grande influência no comportamento do setor e equilíbrio no mercado agrícola. Foram desenvolvidas diversas metodologias de previsão de safra, sendo em sua maioria modelos de simulação de crescimento. Entretanto, recentemente os modelos estatísticos vem sendo utilizados mais comumente devido às suas predições mais rápidas em períodos anteriores à colheita. No presente trabalho foram avaliadas duas destas metodologias, os modelos ARIMA e os Modelos Lineares Dinâmicos (MLD), sendo utilizada tanto a inferência clássica quanto a bayesiana. A avaliação das metodologias deu-se por meio da análise das previsões dos modelos, bem como da facilidade de implementação e poder computacional necessário. As metodologias foram aplicadas a dados de produção de soja para o município de Mamborê-PR, no período de 1980 a 2013, sendo área plantada (ha) e precipitação acumulada (mm) variáveis auxiliares nos modelos de regressão dinâmica. Observou-se que o modelo ARIMA (2,1,0) reparametrizado na forma de um MLD e estimado por meio de máxima verossimilhança, gerou melhores previsões do que aquelas obtidas com o modelo ARIMA(2,1,0) não reparametrizado. / The agriculture is, historically, one of Brazil\'s economic pillars, and despite having it\'s importance diminished with the development of the industry and services it still is responsible for giving dynamism to the country inland\'s economy, ensuring food security, controlling inflation and assisting in the formation of monetary reserves. In this context the agricultural crops exercise great influence in the behaviour of the sector and agricultural market balance. Diverse crop forecast methods were developed, most of them being growth simulation models, however, recently the statistical models are being used due to its capability of forecasting early when compared to the other models. In the present thesis two of these methologies were evaluated, ARIMA and Dynamic Linear Models, utilizing both classical and bayesian inference. The forecast accuracy, difficulties in the implementation and computational power were some of the caracteristics utilized to assess model efficiency. The methodologies were applied to Soy production data of Mamborê-PR, in the 1980-2013 period, also noting that planted area (ha) and cumulative precipitation (mm) were auxiliary variables in the dynamic regression. The ARIMA(2,1,0) reparametrized in the DLM form and adjusted through maximum likelihood generated the best forecasts, folowed by the ARIMA(2,1,0) without reparametrization.
259

Análise Bayesiana de modelos de mistura finita com dados censurados / Bayesian analysis of finite mixture models with censored data

Melo, Brian Alvarez Ribeiro de 21 February 2017 (has links)
Misturas finitas são modelos paramétricos altamente flexíveis, capazes de descrever diferentes características dos dados em vários contextos, especialmente na análise de dados heterogêneos (Marin, 2005). Geralmente, nos modelos de mistura finita, todas as componentes pertencem à mesma família paramétrica e são diferenciadas apenas pelo vetor de parâmetros associado a essas componentes. Neste trabalho, propomos um novo modelo de mistura finita, capaz de acomodar observações censuradas, no qual as componentes são as densidades das distribuições Gama, Lognormal e Weibull (mistura GLW). Essas densidades são reparametrizadas, sendo reescritas em função da média e da variância, uma vez que estas quantidades são mais difundidas em diversas áreas de estudo. Assim, construímos o modelo GLW e desenvolvemos a análise de tal modelo sob a perspectiva bayesiana de inferência. Essa análise inclui a estimação, através de métodos de simulação, dos parâmetros de interesse em cenários com censura e com fração de cura, a construção de testes de hipóteses para avaliar efeitos de covariáveis e pesos da mistura, o cálculo de medidas para comparação de diferentes modelos e estimação da distribuição preditiva de novas observações. Através de um estudo de simulação, avaliamos a capacidade da mistura GLW em recuperar a distribuição original dos tempos de falha utilizando testes de hipóteses e estimativas do modelo. Os modelos desenvolvidos também foram aplicados no estudo do tempo de seguimento de pacientes com insuficiência cardíaca do Instituto do Coração da Faculdade de Medicina da Universidade de São Paulo. Nesta aplicação, os resultados mostram uma melhor adequação dos modelos de mistura em relação à utilização de apenas uma distribuição na modelagem dos tempos de seguimentos. Por fim, desenvolvemos um pacote para o ajuste dos modelos apresentados no software R. / Finite mixtures are highly flexible parametric models capable of describing different data features and are widely considered in many contexts, especially in the analysis of heterogeneous data (Marin, 2005). Generally, in finite mixture models, all the components belong to the same parametric family and are only distinguished by the associated parameter vector. In this thesis, we propose a new finite mixture model, capable of handling censored observations, in which the components are the densities from the Gama, Lognormal and Weibull distributions (the GLW finite mixture). These densities are rewritten in such a way that the mean and the variance are the parameters, since the interpretation of such quantities is widespread in various areas of study. In short, we constructed the GLW model and developed its analysis under the bayesian perspective of inference considering scenarios with censorship and cure rate. This analysis includes the parameter estimation, wich is made through simulation methods, construction of hypothesis testing to evaluate covariate effects and to assess the values of the mixture weights, computatution of model adequability measures, which are used to compare different models and estimation of the predictive distribution for new observations. In a simulation study, we evaluated the feasibility of the GLW mixture to recover the original distribution of failure times using hypothesis testing and some model estimated quantities as criteria for selecting the correct distribution. The models developed were applied in the study of the follow-up time of patients with heart failure from the Heart Institute of the University of Sao Paulo Medical School. In this application, results show a better fit of mixture models, in relation to the use of only one distribution in the modeling of the failure times. Finally, we developed a package for the adjustment of the presented models in software R.
260

Um modelo para geração de perfis de usuários baseado em técnicas de psicometria

Batista, Marcelo Henrique Euzebio 26 March 2009 (has links)
Submitted by Silvana Teresinha Dornelles Studzinski (sstudzinski) on 2016-03-17T14:56:08Z No. of bitstreams: 1 MARCELO HENRIQUE EUZEBIO BATISTA_.pdf: 1788022 bytes, checksum: 9667e9dc27e14c21cf8ca3ccbf0415e8 (MD5) / Made available in DSpace on 2016-03-17T14:56:08Z (GMT). No. of bitstreams: 1 MARCELO HENRIQUE EUZEBIO BATISTA_.pdf: 1788022 bytes, checksum: 9667e9dc27e14c21cf8ca3ccbf0415e8 (MD5) Previous issue date: 2009-03-26 / Nenhuma / Este trabalho propõe um modelo para geração de perfis de usuários baseado em Psicometria, propiciando a junção entre áreas distintas, como Psicologia e Computação. O PPG – Psychometric Profile Generator, assim denominado, consiste em um modelo computacional para geração de perfis de usuários, prospectando o nível de habilidade ou comportamento dos avaliados através do modelo matemático TRI – Teoria de Resposta ao Item. O PPG fornece aos sistemas externos de educação, entretenimento e recrutamento e seleção o nível de habilidade ou comportamento não tendo nenhum contato com os usuários desses sistemas. Sendo assim o principal foco do PPG é fornecer um perfil na forma de um nível de habilidade e ou comportamento, valendo-se de conhecimentos de áreas distintas, como os modelos matemáticos da Psicometria e técnicas de Inferências Estatísticas. / This work paper proposes a model for generation of profiles of users based on Psychometrics, providing the junction between different areas, such as psychology and computing. The PPG - Psychometric Profile Generator, so called, consists of a computational model for generation of profiles of users, prospective the level of skill or assessed by the behavior of model mathematical IRT - Item Response of Theory. The PPG provides external systems of education, entertainment and recruitment and selection of the level skill or behavior are not having any contact with users of such systems. Thus the main PPG's focus is to provide a profile as a level of or ability and behavior, are worth knowledge in different fields, such as models Psychometrics and the mathematical techniques of inferences Statistics.

Page generated in 0.0359 seconds