• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 241
  • 19
  • 7
  • 4
  • 4
  • 4
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 283
  • 283
  • 128
  • 108
  • 56
  • 51
  • 45
  • 40
  • 39
  • 39
  • 33
  • 27
  • 27
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Regressão de dados binários : distribuição Weibull

Caron, Renault 12 March 2010 (has links)
Made available in DSpace on 2016-06-02T20:06:04Z (GMT). No. of bitstreams: 1 2921.pdf: 1787441 bytes, checksum: 0b13c91d9391abb5be3ad333893d026e (MD5) Previous issue date: 2010-03-12 / Financiadora de Estudos e Projetos / In this work a new class of models for binary data based on Weibull distribution is introduced. A review is made of the most known linkage functions. This class of models has as special case the complementary log-log model and approximates well the logit and probit models. Three real data sets are given to compare the proposed model with many others. In one of these data sets the model is extended to allow multinomial data, that is, a discrete variable with more than two outcomes. The results are very good, because the estimation of parameters is quite simple and the model has shown to be very eficient. / Neste trabalho propõe-se um novo modelo, para conjunto de dados com variável resposta binária, baseado na função densidade acumuladaWeibull. Apresenta- se um resumo das funções de ligação mais conhecidas da literatura. Esta classe de modelos possui como caso especial o modelo complementar log-log e boas aproximações aos modelos logístico e probito. Três conjunto de dados reais são utilizados para comparar o modelo proposto com vários outros modelos. Em um dos conjuntos de dados o modelo _e expandido para suportar variável resposta multinomial, isto _e, variável discreta com mais de dois eventos de interesse. Os resultados obtidos são muito bons, pois a estimação dos parâmetros _e razoavelmente simples e o modelo mostrou-se extremamente eficientes.
152

Capacidade preditiva de Modelos Credit Scoring em inferência dos rejeitados

Prazeres Filho, Jurandir 28 March 2014 (has links)
Made available in DSpace on 2016-06-02T20:06:10Z (GMT). No. of bitstreams: 1 6034.pdf: 941825 bytes, checksum: 6d06b85571d5cab86cee2ed1c1d699da (MD5) Previous issue date: 2014-03-28 / Universidade Federal de Sao Carlos / Granting credit to an applicant is a decision made in a context of uncertainty. At the moment the lender decides to grant a loan or credit sale there is always the possibility of loss, and, if it is associated with a probability, the decision to grant or not credit will be more reliable. In order to aid the decision to accept or not the request for applicants are used the credit scoring models, which estimate the probability of loss associated with granting credit. But one of the problems involving these models is that only information about the applicants accepted are used, which causes a sampling bias, because the rejected applicants are discarded. With the aim to solve this problem it can use rejected inference, which are considered individuals who have had credit application rejected. However, only considering rejected inference and one method of modeling data, usually, is not sufficient to get satisfactory predictive measures, and thus, were used combined results of three methods, logistic regression, analysis probit and decision tree. The purpose of this combination were to increase the predictive perfomance and the metrics used were sensitivity, specificity , positive predictive value, negative predictive value and accuracy. Through the application in data sets we concluded that the use of the combined results increased the predictive performance, specially regarding to sensitivity. / A concessão de crédito e uma decisão a ser tomada num contexto de incertezas. No momento em que o credor decide conceder um empréstimo, realizar um financiamento ou venda a prazo sempre existe a possibilidade de perda, e, se for atribuída uma probabilidade a esta perda, a decisão de conceder ou não credito será mais confiável. Com o objetivo de auxiliar a tomada de decisão em relação ao pedido de credito dos solicitantes são utilizados os modelos credit scoring, os quais estimam a probabilidade de perda associada a concessão de credito. Um dos problemas envolvendo estes modelos e que somente informações a respeito dos proponentes aceitos são utilizadas, o que causa um viés amostral, pois, os solicitantes recusados são descartados no processo de modelagem. Com intuito de solucionar este problema tem-se a inferência dos rejeitados, em que são considerados os indívíduos que tiveram pedido de credito rejeitado. No entanto, considerar a inferência dos rejeitados e o uso de somente um método de modelagem de dados, muitas vezes, não e suficiente para que se tenha medidas preditivas satisfatórias. Desta forma, foram utilizados resultados combinados de três metodologias, regressão logística, probit e árvore de decisão/classificação concomitantemente a utilização dos métodos de inferência dos rejeitados que incluem o uso de variável latente, reclassificação, parcelamento e ponderação. O objetivo dessa combinação foi aumentar a capacidade preditiva e as métricas utilizadas foram a sensibilidade, especificidade, valor preditivo positivo, valor preditivo negativo e acurácia. Através da aplicação em conjuntos de dados concluiu-se que a utilização dos resultados combinados aumentou a capacidade preditiva, principalmente, em relação a sensibilidade.
153

Uso de métodos bayesianos em testes de vida acelerados no controle da qualidade de produtos industriais.

Vieira, Denilton da Silva 03 March 2006 (has links)
Made available in DSpace on 2016-06-02T20:06:11Z (GMT). No. of bitstreams: 1 DissDSV.pdf: 2343078 bytes, checksum: 2c801ff20741d65287919e8cf1d5b178 (MD5) Previous issue date: 2006-03-03 / Financiadora de Estudos e Projetos / In this work, we introduce a Bayesian approach for quality control of industrial products, assuming units in test under stress levels higher than the usual level. We assume di¤erent distributions for the lifetimes of the units under a type II censoring mechanism and a general stress-response model that includes the usual accelerated life test models. Using a predictive density of a future observation, we present some criteria to be used by engineers in the quality control of a batch of industrial products. These criteria permit a choise for the best time in test or for the best stress level in the quality control test. The quality control procedure is based on the observed proportion of failures tested during a specified time and a specified stress level. We use the software WinBugs (Spiegelhalter et al, 1999) to obtain the posterior summaries of interest. keywords: Accelerated lifetime test, Bayesian Inference, Markov Chain Monte Carlo, Quality Control. / Neste trabalho propomos uma metodologia Bayesiana de controle da qualidade de produtos industriais, considerando unidades em teste sob níveis de estresse mais severos que os usualmente utilizados. Assumimos algumas distribuições para os tempos de vida das unidades, dados sob esquema de censura do tipo II e um modelo estresse-resposta geral que inclui alguns dos modelos mais utilizados em testes acelerados. Usando a densidade preditiva para uma observação futura, apresentamos um critério para ser usado por engenheiros no controle da qualidade de um determinado lote de produtos industriais. Este critério permite escolher o tempo necessário para o teste ou o nível de estresse no teste de controle da qualidade. O controle da qualidade de um lote de componentes poderá ser baseado na proporção de unidades que falham quando testadas durante o período de tempo fixo, sob o nível especificado de estresse. Uma implementação do código WinBugs (ver por exemplo, Spiegelhalter et al., 1999) é considerada.
154

Uma modificação da extensão do algoritmo AID para modelos lineares generalizados usando reamostragem Bootstrap

Presotti, Cátia Valéria 03 March 2006 (has links)
Made available in DSpace on 2016-06-02T20:06:11Z (GMT). No. of bitstreams: 1 DissCVP.pdf: 769628 bytes, checksum: 82a04371dc9ee3d93afa897684220b87 (MD5) Previous issue date: 2006-03-03 / Financiadora de Estudos e Projetos / One of the most frequently situation found by researchers is to find groups of similar individuals. The cluster analysis is a set of statistical techniques that identify mutually exclusive subgroups or classes over individuals, based on their similarity. When then main is to group means of treatments we can use contrasts, multiple comparitions or clustering techniques as the SCOTT-KNOTT test and AID (Automatic Interaction Detector) technique. In this work we focus on the comparition of the simulated power function of the asymptotic test and also of the bootstrap test for the extension of the AID algorithm for generalized linear models. The bootstrap power function over main the asymptotic power when the number of binomial sample is equal to one, and the number of treatments is equal to 8 and 12, in a completed randomized experiment with a single factor for binomial variables. / Uma das situações mais freqüentes encontradas por pesquisadores de diversas áreas do conhecimento é formar grupos de indivíduos que sejam, de alguma maneira, similares entre si. A análise de agrupamento é um conjunto de técnicas estatísticas que identificam subgrupos ou classes distintas de indivíduos mutuamente excludentes com base nas similaridades existentes entre os indivíduos, ou seja, os mais semelhantes pertencem ao mesmo grupo. No caso específico de uma única variável resposta e diversas explicativas, vários procedimentos podem ser utilizados, entre eles: contrastes de médias, comparações múltiplas ou técnicas aglomerativas, como teste de SCOTTKNOTT e a técnica AID - (Automatic Interaction Detector). As técnicas de agrupamento de médias podem não ser adequadas na aplicação em dados com distribuição diferente da normal. Nesse caso, utilizou-se a extensão do algoritmo AID, no qual se baseia o método de SCOTT-KNOTT. Essa extensão é usada em modelos lineares generalizados e adota, como medida de homogeneidade de grupos, uma estatística baseada na função desvio que tem assintoticamente distribuição quiquadrado. Neste trabalho, apresentam-se o método de reamostragem bootstrap adaptado para a extensão do algoritmo AID, sua curva poder simulada e a curva poder simulada assintótica, considerando um delineamento inteiramente ao acaso, com tamanho da amostra binomial nb, com r tratamentos e nr repetições por tratamento. Os resultados do estudo por simulação indicam que, conforme aumenta-se o tamanho da amostra binomial, o poder simulado dos dois testes aumenta rapidamente. Por outro lado, esse comportamento é mais acentuado conforme aumenta-se o número de tratamentos. Vale ressaltar que, para o caso extremo em que o tamanho da binomial é igual a 1 e o número de tratamentos igual a 8 e 12, a curva poder simulada do teste bootstrap é destacadamente superior à curva poder do teste assintótico para o número de repetições por tratamento estudado.
155

Metodologia para estimar a vida útil de elementos construtivos, baseados no método dos fatores

Fuad Carlos Zarzar Júnior 16 August 2007 (has links)
Este Trabalho, baseado nas determinações da norma ISO 15686, apresenta e discute um método determinístico, o Método dos Fatores (MF), que permite estimar a vida útil de materiais e componentes e planejar a periodicidade necessária de manutenção e substituição dos referidos materiais e componentes. A precisão das estimativas desse método foi analisada, neste Trabalho. Uma Equação Alternativa para estimar a vida útil, também, foi desenvolvida, usando regressão linear múltipla (RLM), derivada do MF pertencente a ISO 15686-1. A RLM é, largamente, usada para avaliar ou estimar produtos que interajam com variáveis independentes. Finalmente, a supra mencionada Equação Alternativa foi utilizada para comparar os resultados aleatórios de suas estimativas com os resultados aleatórios das estimativas do MF. Analisando os exemplos do Capítulo 4, constatou-se que o Método dos Fatores é muito importante para estimar a vida útil de materiais e componentes, e a Equação Alternativa, também. Foram efetuados dois estudos de casos diferentes. No primeiro caso as vidas úteis totais de três estruturas de concreto que colapsaram foram estimadas. Primeiro a vida útil total de um edifício similar ao que colapsou na Região Metropolitana do Recife (PE), depois a vida útil total da varanda de um prédio, construído na Cidade do Rio de Janeiro (RJ) usando o MF e a Equação Alternativa. Finalmente, foi feita, também a estimativa da vida útil total do embasamento e superestrutura de prédios do tipo caixão (exemplo n4), que colapsaram na Região Metropolitana do Recife, usando o Método Delphi em conjunto com o Método dos Fatores. No segundo caso, foram feitas as estimativas das vidas úteis de uma janela de madeira mole, usando ambos o MF e a Equação Alternativa. As demais estimativas de vida útil das outras estruturas de concreto foram conseguidas da mesma forma. As estimativas de vida útil total do primeiro caso se aproximaram dos casos reais estudados, apesar de as equações apresentadas neste Trabalho terem sido desenvolvidas, exclusivamente, para estimar a vida útil de materiais e componentes, provando, assim, a potencialidade das estimativas. / This Work, based on parts of the ISO 15686, presents and discuss about a deterministic method, Factor Method (FM), that permits to predict material service life and their components and planning their maintenance and replacement necessary periodicity. The precision of the estimates of this method was analyzed in this Work, and an alternative equation to evaluate service life was developed, using multiple linear regression (MLR), derived from FM pertaining to ISO 15686-1 and especially the Factor Method. The MLR is broadly used to evaluate products that interact with independents variables. Finally, this alternative equation was used to compare its estimate random results with the FM random ones. After evaluating the examples on chapter 4, the Author noticed that the Factor Method is very important to estimate service life of materials and components and the alternative equation too. Two case studies were done in this Work, in the first case the total service life of three collapsed structures were estimated. First a concrete structure similar to a building that was located in the Metropolitan Area of Recife (Brazil) and then the total service life of an balcony from a building located at the city of Rio de Janeiro (Brazil) using both the Factor Method and the alternative equation, and finally the total service life of the basement and superstructure of specific buildings called box from the Metropolitan Region of Recife using the Delphi Method together with the Factor Method was realized too. In the second case, the service life estimation of a softwood window was done using the FM and the alternative equation, other estimations of service life were done the same way by using the alternative equation and the FM. Despite the equations presented in this Work have been developed specifically to estimate service life of materials and components, the estimates showed that the precision of the total service life of the first case approximated to the real case studies, proving the potentiality of the methods
156

Escolha dos níveis nutricionais na determinação do nível-ótimo e no ajuste de modelos estatísticos utilizados em ensaios dose-resposta

Souza, Fernando Augusto de [UNESP] 24 February 2010 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:28:23Z (GMT). No. of bitstreams: 0 Previous issue date: 2010-02-24Bitstream added on 2014-06-13T18:57:29Z : No. of bitstreams: 1 souza_fa_me_jabo.pdf: 1931388 bytes, checksum: 4c66f4cd56386572eb7ad4b52f5d1472 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Este trabalho avaliou a influência da heterocedasticidade e dos níveis nutricionais (número e posição) utilizados em ensaios dose-resposta, na estimativa do nível-ótimo e no ajuste dos modelos, além de verificar o quão informativas são as estatísticas utilizadas para avaliar a precisão do ajuste (R², R² ajustado, CV e SQD). Utilizaram-se dados dos experimentos realizados por Nascimento et al. (2007) e Siqueira (2009) e dados simulados. Constatou-se que, quando os níveis estiveram distribuídos próximos do verdadeiro requerimento, os modelos com platô proporcionaram resultados mais confiáveis. Já os modelos quadrático e exponencial se mostraram mais adequados para situações no qual os níveis estão mais dispersos em relação ao verdadeiro requerimento. A heterocedasticidade não interferiu na estimativa do nível-ótimo, porém influenciou no ajuste dos modelos e proporcionou pequenas mudanças nos parâmetros das equações obtidas. O coeficiente de determinação (ajustado e não ajustado) foi diretamente influenciado pela definição do nível mais próximo do ótimo e dos níveis extremos, enquanto que, o coeficiente de variação e a soma dos quadrados dos desvios, pelos níveis iniciais e pelo nível próximo do ótimo. A soma dos quadrados dos desvios demonstrou ser mais sensível, pois seu valor apresentou pequenas variações entre os modelos nas diferentes situações, que as outras estatísticas não detectaram. Ressalta-se a importância de se estabelecer corretamente o intervalo dos níveis estudados para que a dispersão dos valores do nível-ótimo estimado seja minimizada e que o ajuste seja satisfatório, independente do modelo utilizado / This work evaluated the influence of heteroskedasticity and the nutritional levels (number and position) used in dose-response trials to estimating the optimal-level and the adjustment of the models, also check how informative are the statistics used to evaluate the accuracy of fit (R ², R ² adjusted, CV and SQD). The data used in this experiment are from Nascimento et al. (2007) and’ Siqueira (2009) trials and simulated data. It was found that when levels were distributed close to the real requirement, the models with plateau have provided more reliable results. Since the quadratic and exponential models were more suitable for situations in which the levels are more dispersed about the real requirement. The heteroskedasticity did not affect the estimate of the level-optimal, but influenced the adjustment of the models and provided small changes in the parameters of the equations obtained. The coefficient of determination (adjusted and unadjusted) was directly influenced by the definition of the level closest to the optimum and extreme levels, while the coefficient of variation and the sum of squares of deviations were influenced by the initial levels and the level close to the optimum. The sum of squares of deviations was more sensitive, because its value showed small variations between models in different situations that the other statistics did not detect. Emphasized the importance to precisely define the range of levels studied to the dispersion of the obtained optimal-level is minimized and the fit is satisfactory regardless of the model
157

Análise de eficiência de programas de pós-graduação em Engenharias III / Analysis of the efficiency of postgraduate programs in Engineering III

Costa, Naijela Janaina da 09 January 2017 (has links)
Submitted by Aelson Maciera (aelsoncm@terra.com.br) on 2017-04-25T17:00:33Z No. of bitstreams: 1 DissNJC.pdf: 3737421 bytes, checksum: 97cf6f2392b12e0fd2fa4299dc03cda1 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-04-27T20:10:03Z (GMT) No. of bitstreams: 1 DissNJC.pdf: 3737421 bytes, checksum: 97cf6f2392b12e0fd2fa4299dc03cda1 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-04-27T20:10:10Z (GMT) No. of bitstreams: 1 DissNJC.pdf: 3737421 bytes, checksum: 97cf6f2392b12e0fd2fa4299dc03cda1 (MD5) / Made available in DSpace on 2017-04-27T20:14:45Z (GMT). No. of bitstreams: 1 DissNJC.pdf: 3737421 bytes, checksum: 97cf6f2392b12e0fd2fa4299dc03cda1 (MD5) Previous issue date: 2017-01-09 / Não recebi financiamento / The effectiveness of Brazil's postgraduate programs is directly linked to the country's capacity for innovation, which entails the need to diagnose the causes of low academic achievement, as well as the development of techniques and methods to evaluate and measure performance Of educational units. In this sense, the objective of this project was to analyze the efficiency of postgraduate programs in Brazilian Engineering III. Through the application of the Data Envelopment Analysis (DEA) technique, the most efficient programs were identified, and through the Tobit Regression the degree of influence of certain inputs was determined (number of professor; scholars of CNPq; Number of students) in educational performance. The results of this project can contribute to a better understanding of the dynamics and determining factors of the national academic production, in order to generate knowledge about postgraduate programs, especially courses that did not reach the production efficiency standards Required by the Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES). / A eficiência dos programas de pós-graduação do Brasil está diretamente ligada a capacidade de inovação do país, o que acarreta a necessidade de diagnosticar as causas do baixo desempenho acadêmico, bem como o desenvolvimento de técnicas e métodos para avaliar e mensurar o desempenho das unidades educacionais. Nesse sentido, este projeto teve por objetivo analisar a eficiência de programas de pós-graduação em Engenharias III brasileiras. Por meio da aplicação da técnica Análise Envoltória de Dados (DEA), identificou-se quais são os programas mais eficientes, e por meio da Regressão Tobit diagnosticou-se o grau de influência de determinados insumos (número de docentes; bolsistas do CNPq; número de discentes) no desempenho educacional. Os resultados deste projeto podem contribuir para o melhor entendimento da dinâmica e dos fatores determinantes da produção acadêmica nacional, de modo a gerar conhecimento sobre os programas de pós-graduação, em especial cursos que não atingiram os padrões de eficiência de produção técnica exigidos pela Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES).
158

Síndrome metabólica em adolescentes matriculados na rede pública de ensino em João Pessoa: modelo para suporte à tomada de decisão

Morais, Jairo Domingos 23 February 2015 (has links)
Submitted by Maike Costa (maiksebas@gmail.com) on 2016-03-11T11:53:47Z No. of bitstreams: 1 arquivototal.pdf: 11151417 bytes, checksum: 95b3748f5a49e8555ba4ae7eb380c05d (MD5) / Made available in DSpace on 2016-03-11T11:53:47Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 11151417 bytes, checksum: 95b3748f5a49e8555ba4ae7eb380c05d (MD5) Previous issue date: 2015-02-23 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / The Metabolic Syndrome (SM) corresponds to a group of components which has three or more cardiovascular risk factors of metabolic disorders including obesity, insulin resistance, elevated triglycerides and blood pressure as well as low levels of high density lipoproteins (HDL), and other abnormalities. Each component of the metabolic syndrome, in itself, increases the risk of cardiovascular disease, but there are several criteria and factors possibly associated with its constitution to diagnosis of MS. The objective of this study is to obtain a model for support to aid decision-making related to the need of the school intervention with metabolic syndrome enrolled in public schools in João Pessoa - PB. This is a cross-sectional epidemiological study conducted with a sample of 779 adolescents (both sexes) in the sixth year of public elementary schools II in the city of João Pessoa, PB, part of LONCAFS study. The statistical method of logistic regression to calculate the probability of diagnosis and assist the decision-making was used was used to support decision-ahead decision the diagnosis of SM. The sample showed mostly female adolescents (55.7%), brown/brown (70.9%), between 11 years (31.6%) and 12 years (39.2%) of age, economy class C (70.86%) whose parents completed high school (38.55%). In building the logistic regression model the variables that were statistically significant (p-value <0.05) were: Triglycerides (OR = 1.003), abdominal circumference (OR = 1.27), systolic blood pressure (OR = 1.404), Glucose (OR = 1.002), cholesterol (OR = 1.0007) and HDL (OR = 0.995). The logistic regression model developed in this study was adequate to calculate the probability of a diagnosis of metabolic syndrome. The estimate of this probability is a useful strategy to assist the direction and implementation of healthy habits of life in children with metabolic syndrome. Therefore the findings of this study present a valid logistic model, suitable for diagnosis of metabolic syndrome in school in the city of João Pessoa - PB, to facilitate the selection of individuals with a higher risk of developing or developing metabolic syndrome, thus guiding, taking decision in this context. / A Síndrome Metabólica (SM) corresponde a um grupo de componentes que apresenta de três ou mais fatores de risco cardiovascular de distúrbios metabólicos que inclui obesidade, resistência à insulina, elevados níveis de triglicerídeos e de pressão arterial bem como baixos níveis de lipoproteínas de alta densidade (HDL), além de outras anormalidades. Cada componente da síndrome metabólica, por si só, aumenta o risco de doença cardiovascular, porém vários são os critérios e fatores possivelmente associados a sua constituição para diagnóstico da SM. O objetivo deste estudo é obter um modelo para suporte ao auxílio à tomada de decisão relacionada à necessidade de intervenção dos escolares com Síndrome Metabólica matriculados na rede pública de ensino em João Pessoa – PB. Trata-se de um estudo epidemiológico de corte transversal realizado com uma amostra de 779 adolescentes (ambos os sexos) do sexto ano de escolas públicas do ensino fundamental II no município de João Pessoa, PB, fazendo parte do estudo LONCAFS. O método estatístico de regressão logística para calcular a probabilidade de diagnóstico e subsidiar a tomada de decisão utilizou-se foi utilizado para subsidiar a tomada de decisão frente o diagnóstico de SM. A amostra apresentou em sua grande maioria adolescentes do sexo feminino (55,7%), pardos/morenos (70,9%), entre 11 anos (31,6%) e 12 anos (39,2%) de idade, na classe econômica C (70,86%) cujo pais completaram o ensino médio (38,55%). Na construção do modelo de regressão logística as variáveis que apresentaram significância estatística (p-valor < 0,05) foram: Triglicerídeos (OR=1,003), Circunferência abdominal (OR=1,27), pressão sistólica (OR=1,404), Glicose (OR=1,002), Colesterol (OR=1,0007) e HDL (OR=0,995). O modelo de regressão logística desenvolvido no presente estudo mostrou-se adequado para calcular a probabilidade de diagnostico para síndrome metabólica. A estimativa desta probabilidade representa uma estratégia útil para auxiliar o direcionamento e a implementação de hábitos saudáveis de vida em crianças com síndrome metabólica. Portanto os achados deste estudo apresentam um modelo logístico válido, satisfatório para diagnóstico da síndrome metabólica em escolares no município de João Pessoa - PB, visando facilitar a seleção de indivíduos com maior risco de apresentarem ou desenvolverem a síndrome metabólica, assim sendo orientando, a tomada de decisão neste contexto.
159

Critérios de avaliação das exigências em treonina, triptofano, valina e isoleucina para frangos de corte de 22 a 42 dias de idade /

Duarte, Karina Ferreira. January 2009 (has links)
Orientador: Otto Mack Junqueira / Banca: Edivaldo Antônio Garcia / Banca: Douglas Emygdio de Faria / Banca: Rosemeire da Silva Filardi / Banca: Silvana Martinez Baraldi Artoni / Resumo: Quatro experimentos foram conduzidos no Setor de Avicultura da Faculdade de Ciências Agrárias e Veterinárias - Campus de Jaboticabal- SP, com o objetivo de estabelecer diferentes critérios de avaliação das exigências dos aminoácidos digestíveis treonina, triptofano, valina e isoleucina para frangos de corte de 22 a 42 dias de idade. Em cada experimento foram utilizados 1.920 frangos de corte machos com 22 dias de idade da linhagem "Cobb", distribuídos em um delineamento inteiramente ao acaso, com seis tratamentos e oito repetições de 40 aves cada. Os tratamentos consistiram no fornecimento de dietas formuladas com base em aminoácidos digestíveis contendo seis diferentes níveis do aminoácido em estudo. Foram avaliados os dados de desempenho (ganho de peso, consumo de ração, conversão alimentar e viabilidade criatória) e as características de carcaça (rendimento de carcaça, de peito, de coxas+sobrecoxas, de dorso e de asas). Para a determinação das exigências do aminoácido estudado, foram utilizados três modelos de regressão: o modelo quadrático, o modelo exponencial e o de retas segmentadas ou broken line ("linha quebrada"), com 90% do quadrado máximo, estabelecendo equações principalmente para ganho de peso e conversão alimentar. Em caso de significância estatística, foi adotado também o procedimento de comparação das médias pelo Teste de Duncan a 5% de probabilidade. Com base no comportamento dos dados os níveis de 0,7642 e 0,7514% de treonina digestível (treonina:lisina digestíveis de 71,19% e 70,00%), determinados pelo modelo broken line e pelo teste de Duncan a 5% de probabilidade respectivamente, promoveram os melhores resultados de conversão alimentar. O triptofano digestível, quando no nível de 0,2255% (triptofano:lisina digestíveis de 21%) indicou melhora na conversão alimentar e os níveis de 0,1825 e 0,1919%... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Four experiments were conducted to establish different criteria for evaluation the requirements in threonine, tryptophan, valine and isoleucine for broilers from 22 to 42 days of age. In each experiment it was used 1,920 male broilers (Cobb) in a completely randomized design, with six treatments and eight replications of 40 birds each. The treatments consisted in supply diets formulated according to the ideal protein concept and digestible amino acids, with six different levels of the related amino acid. The data from performance and characteristics of carcass had been evaluated. It was used three regression models: quadratic, exponential and broken line, stablishing equations mainly to body weight and feed conversion. In case of significant statistics, it was used the procedure for means comparison using Duncan test (0.05%). The threonine levels of 0.7642 and 0.7515% (threonine:lysine of 71.19% and 70.00%) determined by broken line and Duncan test respectively, showed better results for feed conversion. For digestible tryptophan at the level of 0.2255% (tryptophan:lysine of 21%) indicated a increase in feed conversion and the levels of 0.1825 and 0,1919 (tryptophan:lysine of 17.88% and 17.00%) determined by Duncan test and quadratic equation respectively, indicated the best results for carcass yield. Digestible valine at the level of 0.7729% (valine:lysine of 72.00) determined by Duncan test, showed the best results for feed intake and viability. At the level of 0.8802% (valine:lysine of 82.00%) the best results for body weight and feed conversion and at 0.8265% and 0.9339% (valine:lysine of 77.00% and 87.00%) the best back yield according to Duncan test. The isoleucine at 0.7729% (isoleucine:lysine of 72.00%) showed a improvement in feed conversion according to Duncan test (0.05%). / Doutor
160

Contextualizando o ensino de correlação e regressão linear em um curso de Engenharia de Computação / Contextualizing the teaching of correlation and linear regression for a Computer Engineering course

Lima, Sabrina Anne de 20 October 2015 (has links)
Acompanha: Sequência de ensino: uma proposta de ensino contextualizado de correlação e regressão linear para um curso de Engenharia de Computação / O presente trabalho teve como objetivo analisar as contribuições que um material de ensino de Correlação e Regressão Linear, pautado nos pressupostos da contextualização podem trazer para alunos de um curso de Engenharia de Computação de uma universidade pública no interior do Paraná. Para a realização desta pesquisa, dezesseis alunos do curso de Engenharia de Computação sugeriram temas que pudessem abordar conteúdos de Correlação e Regressão Linear em uma situação que fosse específica de sua área de atuação. Foram então selecionados dois Algoritmos de Ordenação: Bubble Sort e Merge Sort, comparando o tamanho do vetor e o tempo de ordenação de cada método. Os alunos foram divididos em duplas e quatro destas utilizaram o primeiro método e quatro duplas, o segundo método. A sequência de ensino foi sendo aplicada a partir da coleta de dados no algoritmo pelas duplas e cada novo item a ser estudado foi sendo inserido no decorrer da pesquisa. No final, os alunos fizeram as definições de cada categoria estudada dentro do conteúdo e cada descrição foi apreciada a partir da Análise de Conteúdo. Ao final foi possível visualizar os itens de maior aprendizado e os conceitos que não haviam ficado muito claros. Como produto final deste trabalho foi confeccionado um material didático de apoio ao professor, que abrange uma sugestão de ensino de Correlação e Regressão Linear para alunos de um curso de Engenharia de Computação, que se encontra anexo a esta dissertação. / The present article aimed to verify the contributions that a certain teaching material of Correlation and Linear Regression, based on the assumptions of the contextualization, can bring to Computer Engineering students of a public University on Paraná’s countryside. To fulfill this research, sixteen Computer Engineering students suggested themes that could approach Correlation and Linear Regression contents in a specific situation of their area. Then two Ordination Algorithms were selected: Bubble Sort and Merge Sort, comparing the vector size and the ordination time of each method. The students were divided in pairs and four of this pairs used the first method and the other four pairs, the second method. The teaching sequence was applied on the data gathering on the algorithm by the pairs and each new item to be studied was inserted along the research. In the end, the students made the definitions of each studied category inside the content and each description was appreciated from the Analysis Content. In the ending it was possible to visualize the most learned items as well as the concepts that had remained unclear. As work’s final product a Professor’s didactic support material has been confectioned, such material includes a suggestion for teaching Correlation and Linear Regression to students taking Computer Engineering, which is annexed to this essay.

Page generated in 0.0809 seconds