• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 155
  • 11
  • 5
  • 5
  • 1
  • 1
  • Tagged with
  • 184
  • 144
  • 126
  • 107
  • 95
  • 90
  • 36
  • 35
  • 32
  • 30
  • 28
  • 27
  • 25
  • 25
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Aspectes metodològics i aplicacions de la modelització del temps de supervivència multivariant mitjançant models mixtes

Renart i Vicens, Gemma 15 June 2009 (has links)
Els estudis de supervivència s'interessen pel temps que passa des de l'inici de l'estudi (diagnòstic de la malaltia, inici del tractament,...) fins que es produeix l'esdeveniment d'interès (mort, curació, millora,...). No obstant això, moltes vegades aquest esdeveniment s'observa més d'una vegada en un mateix individu durant el període de seguiment (dades de supervivència multivariant). En aquest cas, és necessari utilitzar una metodologia diferent a la utilitzada en l'anàlisi de supervivència estàndard. El principal problema que l'estudi d'aquest tipus de dades comporta és que les observacions poden no ser independents. Fins ara, aquest problema s'ha solucionat de dues maneres diferents en funció de la variable dependent. Si aquesta variable segueix una distribució de la família exponencial s'utilitzen els models lineals generalitzats mixtes (GLMM); i si aquesta variable és el temps, variable amb una distribució de probabilitat no pertanyent a aquesta família, s'utilitza l'anàlisi de supervivència multivariant. El que es pretén en aquesta tesis és unificar aquests dos enfocs, és a dir, utilitzar una variable dependent que sigui el temps amb agrupacions d'individus o d'observacions, a partir d'un GLMM, amb la finalitat d'introduir nous mètodes pel tractament d'aquest tipus de dades. / Survival research is interested in the time that passes from the beginning of the study until the event of interest occurs. However, it is very common to find individuals who experience this event more than once during the period of study. In this case, a different methodology needs to be used to that of the standard univariate survival analysis.In this case, the duration between recurrences could be correlated due to the presence of unobserved individual factors. This type of event is normally dealt with by introducing individual random effects in the model, resulting in a multivariate model. The random effects represent the individual "frailty" and the variance of these effects measures the unobserved heterogeneity between individuals. Until recently, the most common way of dealing with this type of situation in survival analysis was by using marginal models such as the robust covariance matrix estimation in the Andersen-Gill approximation; the Wei, Lin and Weissfeld method or the Prentice, Williams and Peterson method; or using the conditional models such as the frailty models (EM algorhthym). The aim of this study is to model multivariate survival data, based on generalised linear mixed models (GLMM).
112

Conforto térmico e desempenho nos ambientes de ensino com inovações tecnológicas - estudo de multicasos no nordeste brasileiro

Torres, Manoel Geronimo Lino 07 April 2016 (has links)
Submitted by Leonardo Cavalcante (leo.ocavalcante@gmail.com) on 2018-06-06T12:02:25Z No. of bitstreams: 1 Arquivototal.pdf: 3264478 bytes, checksum: 742da63cecf21ce169225aebd5fea82e (MD5) / Made available in DSpace on 2018-06-06T12:02:25Z (GMT). No. of bitstreams: 1 Arquivototal.pdf: 3264478 bytes, checksum: 742da63cecf21ce169225aebd5fea82e (MD5) Previous issue date: 2016-04-07 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Introduction: The global warming has severe environmental impacts and reach different areas and localities, in particular the least developed countries in the tropical region. In Brazil, the regions that suffer most impacts, with such changes will be the Amazon and Northeast. With the development of modern society, it is observed that individuals are consuming much of their time indoors, so, numerous studies have sought to study environmental comfort conditions to assist in the execution of activities and maximize human performance. One of the many changes that took place is in the learning environment, which is different compared to years ago. Technological resources in the classroom have made this a more versatile environment, allowing students and teachers to interact with other institutions, providing greater flexibility in the use of tools that extend their cognitive abilities. However, these tools can both facilitate communication and versatility of teaching and learning as increase the thermal load in the environment that already suffers direct influence of the external environment. In this sense, important to investigate how it is the variables of thermal comfort affect students' performance in climate-controlled learning environments provided these technologies. Objective: We analyzed the relationship between thermal comfort and performance of students in environments with technological innovations in areas of northeastern Brazil. Materials and Methods: Data were obtained during the experiments in the two institutions classrooms (A and B) of higher education located in Northeast Brazil. The Institution A is a private university in the city of João Pessoa- PB and the institution B is a public university in city of Teresina-PI. A total of 103 students of the engineering course participated, with one session per day, per class, on three consecutive days. The air temperature through the air conditioning was adjusted to 20ºC and 24ºC; the last day and is turned off the device to try to reach the value of 30 ° C. By heat stress meter TGD400 and microclimate station Babuc A, positioned in the center of the room recorded the parameters of the thermal environment. Cognitive abilities were assessed by the five events that make up the BPR-5 instrument, broken down for the three days of the experiment. Subjective and personal variables were evaluated in accordance with ISO7730/2005, through check list (thermal resistance of clothing) and scales of 4 points (Comfort) and 7 points (Sensation and Desire). With the results and data obtained were carried out simulations using the Generalized Linear Models (GLM) to verify the relationship between thermal comfort and performance. Results: At the institution A 42,9% of the first day of collection, where the temperature was in it 21,49ºC, indicated to be feeling slightly warm environment (+1) and 51,9% said that the place was comfortable (1). The PMV index of ISO7730/2005 indicated that the room was cold, with 57% of the vote between -1,5 and -2,5. On the second day, with an average temperature was 23,24ºC, about 58,1% of the students felt the thermally neutral environment (0) and 55,4% rated it as comfortable (1). The PMV index, on the second day, indicated that the room was slightly cold, with 87,8% of the vote between -0,5 and -1,5. On the third day the mean temperature was 27,49ºC and 41,9% of the rated as hot environment (+2) and finally, 35.1% VII of the evaluated local rated as slightly uncomfortable (2). The Middle Foretold vote indicated that the room was slightly hot on the third day, with 60.8% of votes ranging from +0,5 to +1,5. The institution B, on the first day of collection whose average temperature was 20,07ºC, about 50% of students reported feeling that the environment was slightly cold (-1) and 61.5% of students rated the environment as comfortable (1). The PMV index indicated that the environment was cold with 92% of the vote results were between -1,5 and -2,5. On the second day the average temperature was 33,72ºC and 59,3% of students said they felt the warm environment (+2) and 66,7% rated it as uncomfortable (3). Regarding the PMV 100% of the frequency of the votes indicated that the environment was rated as very hot (PMV> +2.5). On the third day with the average temperature 22,95ºC, about 73,3% of the students indicated that the thermal sensation was neutral (0) and the place was rated by 96,2% of the students as comfortable (1). The PMV index showed that 88,5% of the calculated votes of the students indicated that the site was slightly cold (-0,5 <PMV <-1,5). Using Generalized Linear Models, in particular the Ordinal Regression, was observed from the data of the two institutions, the performance is linked to subjective criteria, in particular the thermal sensation and the globe temperature. It was observed that the rise globe temperature in 1 ° C increases the chance of students pass a performance range lower to a higher 34% for situations where the wind chill is indicated as very hot. Final considerations: This study showed that there is a difference between what the standard ISO7730/2005 predicts what is actually reported by students in areas of the Brazilian Northeast, ie situations where the standard indicates discomfort students report being comfortable. It was also observed that subjective variables are important factors for a good cognitive performance of students. / Introdução: O aquecimento global recente tem impactos ambientais intensos e atingirá diversas áreas e localidades, em especial, os países menos desenvolvidos situados na região tropical. No Brasil, as regiões que mais sofrerão impactos, com tais mudanças, serão a Amazônia e o Nordeste. Com o desenvolvimento da sociedade moderna, observa-se que os indivíduos estão consumindo grande parte do seu tempo em ambientes fechados, e por isso, numerosas pesquisas vêm buscando estudar condições de conforto ambiental que auxiliem na execução das atividades e maximização do desempenho humano. Uma das diversas mudanças que ocorreram, encontra-se no ambiente de ensino, o qual é diferente quando comparado ao de anos atrás. Recursos tecnológicos em sala de aula têm tornado este ambiente mais versátil, permitindo que alunos e professores interajam com outras instituições, conferindo maior flexibilidade na utilização de ferramentas que estendem suas habilidades cognitivas. Nesse sentido, torna-se importante investigar como as variáveis do conforto térmico afetam o desempenho dos alunos em ambientes de ensino climatizados providos destas tecnologias. Objetivo: Analisar a relação entre conforto térmico e o desempenho de estudantes nos ambientes com inovações tecnológicas em áreas do nordeste brasileiro. Materiais e Métodos: Os dados foram obtidos durante a realização dos experimentos nas salas de aula de duas instituições (A e B) de ensino superior localizadas no Nordeste brasileiro. A instituição A é uma universidade privada e encontra-se na cidade de João Pessoa- e a instituição B é uma universidade publica e encontra-se na cidade de Teresina. No total de 103 alunos dos cursos de exatas das duas instituições participaram, sendo uma sessão por dia, por turma, em três dias consecutivos. A temperatura do ar, através do ar condicionado, foi ajustada para 20ºC e 24ºC; no último dia desligou-se o aparelho para tentar se chegar ao valor de 30°C. Através do medidor de estresse térmico TGD400 e estação microclimática Babuc A,posicionados no centro da sala, registraram-se os parâmetros do ambiente térmico. As habilidades cognitivas foram avaliadas pelas cinco provas que compõem o instrumento do BPR-5, decomposto para os três dias de experimento. As variáveis subjetivas e pessoais foram avaliadas de acordo com ISO7730/2005, através de check list (resistência térmica das vestimentas) e escalas de 4 pontos (Conforto) e 7 pontos (Sensação e Desejo). Com os resultados e dados obtidos realizaram-se simulações através dos Modelos Lineares Generalizados (MLG) para se verificar a relação entre conforto térmico e desempenho. Resultados: Na instituição A 42,9% dos alunos no primeiro dia de coleta, onde a temperatura encontrava-se a 21,49ºC, indicaram estar sentindo o ambiente levemente quente (+1) e 51,9% avaliaram que o local estava confortável (1). O índice PMV da ISO7730/2005 indicou que o ambiente estava frio, com 57% dos votos entre -1,5 e -2,5. No segundo dia, cuja temperatura média foi de 23,24ºC, cerca de 58,1% dos alunos sentiram o ambiente termicamente neutro (0) e 55,4% classificaram-no como confortável (1). O índice PMV, no segundo dia, indicou que o ambiente estava levemente frio, com 87,8% dos votos entre -0,5 e -1,5. No terceiro dia a temperatura média foi de 27,49ºC e 41,9% dos alunos classificaram o ambiente como quente (+2) e por fim, 35,1% dos avaliados classificaram o local como levemente desconfortável (2). V O Voto Médio Predito indicou que o ambiente estava levemente quente no terceiro dia, com 60,8% dos votos variando de +0,5 a +1,5. Na instituição B, no primeiro dia de coleta cuja temperatura média foi de 20,07ºC, cerca de 50% dos estudantes indicaram sentir que o ambiente estava levemente frio (-1) e 61,5% dos alunos classificaram o ambiente como confortável (1). O índice PMV indicou que o ambiente estava frio com 92% dos resultados obtidos dos votos estavam entre -1,5 a -2,5. No segundo dia a temperatura média foi de 33,72ºC e 59,3% dos alunos afirmaram que sentiam o ambiente quente (+2) e 66,7% classificaram-no como desconfortável (3). Em relação ao PMV 100% da frequência dos votos indicaram que o ambiente foi classificado como muito quente (PMV> +2,5). No terceiro dia com a temperatura média de 22,95ºC, cerca de 73,3% dos estudantes indicaram que a sensação térmica era neutra (0) e o local foi classificado por 96,2% dos alunos como confortável (1). O índice PMV mostrou que 88,5% dos votos calculados dos alunos, indicaram que o local estava levemente frio (-0,5<PMV<-1,5). Utilizando Modelos Lineares Generalizados, em especial a Regressão Linear Ordinal, observou-se através dos dados das duas instituições, que o desempenho está ligado aos parâmetros subjetivos, em especial a sensação térmica e a temperatura de globo. Foi observado que ao se elevar a temperatura de globo em 1ºC aumenta-se a chance dos estudantes passarem de uma faixa de desempenho inferior para uma superior em 34%, para situações onde a sensação térmica é indicada como muito quente. Considerações finais: Este estudo mostrou que existe uma diferença entre o que a norma ISO7730/2005 prediz com o que realmente é relatado pelos estudantes, de áreas da região do nordeste brasileiro, ou seja, situações em que a norma indica desconforto os estudantes relatam estar confortáveis. Observou-se também que as variáveis subjetivas são fatores importantes para um bom desempenho cognitivo dos estudantes.
113

Aplicação do Método dos Elementos Finitos Generalizados (MEFG) em otimização topológica

Arruda, Lucas Sardinha de January 2015 (has links)
Orientador: Prof. Dr. Wesley Góis / Dissertação (mestrado) - Universidade Federal do ABC, Programa de Pós-Graduação em Engenharia Mecânica, 2015. / Na área de otimização de estruturas, um método muito explorado é o Método de Otimização Topológica (MOT), que combina o Método dos Elementos Finitos (MEF) com um algoritmo de otimização para encontrar a distribuição ótima de material no interior do domínio de projeto da estrutura. Apesar de o MOT ser um método altamente eficiente para a determinação do layout ótimo da estrutura, o mesmo sofre com problemas de instabilidade numérica, sendo caracterizados por soluções dependentes da malha aplicada (dependência de malha), problemas de mínimo local e pelo surgimento de regiões contendo o padrão de tabuleiro de xadrez (ou checkerboard pattern, em inglês) na topologia final da estrutura. O problema de instabilidade de tabuleiro de xadrez é descrito por regiões no domínio da estrutura contendo elementos com presença e ausência de material, distribuídos de forma intercalada e cujo formato final se assemelha ao de um tabuleiro de xadrez. Esta distribuição produz, numericamente, uma rigidez maior do que uma configuração de mesmo volume de material distribuída uniformemente (o aumento na rigidez é comumente atribuído a uma "pseudo-rigidez" incumbida a elementos quadrilaterais (e triangulares) de baixa ordem (DIAZ e SIGMUND, 1995; JOG e HABER, 1996)). Este fenômeno é causado pelo mau condicionamento do conjunto de soluções das equações de equilíbrio obtidas via MEF em sua formulação clássica, e é convencionalmente contornado por meio da aplicação de filtros de sensibilidade, solução esta de fácil implementação computacional e que garante o controle eficaz da formação do tabuleiro de xadrez. Nesse contexto, este trabalho apresenta uma variante do método SIMP (Solid Isotropic Material with Penalization), desenvolvida por meio da aplicação do Método dos Elementos Finitos Generalizados (MEFG) ¿ metodologia alternativa, que mais recentemente vem sendo explorada, como solução para as limitações da formulação clássica do Método dos Elementos Finitos (MEF) ¿ de modo a estudar o impacto da mesma numa possível redução dos problemas de instabilidade numérica previamente citada. O algoritmo desenvolvido ao longo do trabalho é baseado no algoritmo apresentado em SIGMUND (2001), assim como alguns exemplos utilizados como referência. Por fim, exemplos numéricos apresentados ao longo do trabalho comprovam a redução parcial, ou em certos casos, completa do problema de instabilidade de tabuleiro de xadrez, demonstrando a viabilidade da utilização do MEFG como uma alternativa para obtenção da distribuição ótima de material no interior do domínio de projeto da estrutura. / Within the structures optimization study area, one of the extensively explored methods is the Topology Optimization Method (TOM), which combines the Finite Element Method (FEM) with an optimization algorithm to find the optimal distribution of material inside the structure design domain. Although the TOM is a highly efficient method for determining the optimal structural layout, it suffers from numerical instability problems, characterized by the mesh dependency, local minima and the checkerboard pattern. The latter, characterized by the alternating density values obtained from adjacent elements, while the patch of element maintains the connectivity resembling that of a checkerboard; which produces a numerically greater stiffness than a uniform distribution configuration (the increase in stiffness is commonly attributed to a "pseudo-stiffness" entrusted to low-order quadrilateral (and triangular) elements (DIAZ and Sigmund 1995; JOG and HABER, 1996)). This phenomenon occurs due to the finite element formulation used in the optimization process, and can be conventionally avoided through the use of sensitivity filter, a solution of easy implementation which ensures an effective control of the "checkerboard pattern". Thus, the main objective of this study is to present a variant of the SIMP method (Solid Isotropic Material with Penalization), developed by the application of the Generalized Finite Element Method (GFEM) - an alternative methodology of the Finite Element Method (FEM), which most recently has been explored as a solution to the limitations of the FEM classic formulation - on the Topology Optimization Method (TOM), in order to study his impact on the reduction of the numerical instability problems previously cited. The algorithm developed throughout this work is based on the algorithm shown in Sigmund (2001), and has some of his examples used as reference. At last, the numerical examples provided throughout this work demonstrate a partial reduction, or in some cases, a complete removal of checkerboard pattern, showing the use of GFEM as a possible alternative for obtaining the optimal material distribution.
114

Uma família de modelos de regressão com a distribuição original da variável resposta

Paula, Marcelo de 05 April 2013 (has links)
Made available in DSpace on 2016-06-02T20:04:52Z (GMT). No. of bitstreams: 1 5021.pdf: 1591649 bytes, checksum: 6798e65e3b572fcfe760f083f660ff50 (MD5) Previous issue date: 2013-04-05 / Financiadora de Estudos e Projetos / We know that statistic modeling by regression had a stronger impulse since generalized linear models (GLMs) development in 70 decade beginning of the XX century, proposed by Nelder e Wedderburn (1972). GLMs theory can be interpret like a traditional linear regression model generalization, where outcomes don't need necessary to assume a normal distribution, that is, any distribution belong to exponential distributions family. In binary logistic regression case, however, in many practice situations the outcomes response is originally from a discrete or continuous distribution, that is, the outcomes response has an original distribution that is not Bernoulli distribution and, although, because some purpose this variable was later dicothomized by an arbitrary cut of point C. In this work we propose a regression models family with original outcomes information, whose probability distribution or density function probability belong to exponential family. We present the models construction and development to each class, incorporating the original distribution outcomes response information. The proposed models are an extension of Suissa (1991) and Suissa and Blais (1995) works which present methods of estimating the risk of an event de_ned in a sample subspace of a continuous outcome variable. Simulation studies are presented in order to illustrate the performance of the developed methodology. For original normal outcomes we considered logistic, exponential, geometric, Poisson and lognormal models. For original exponential outcomes we considered logistic, normal, geometric, Poisson and lognormal models. In contribution to Suissa and Blais (1995) works we attribute two discrete outcomes for binary model, geometric and Poisson, and we also considered a normal distributions with multiplicative heteroscedastic structures continuous outcomes. In supplement we also propose the binary model with inated power series distributions outcomes considering a sample subspace of a zero inated geometric outcomes. We do several artificial data studies comparing the model of original distribution information regression model with usual regression model. Simulation studies are presented in order to illustrate the performance of the developed methodology. A real data set is analyzed by using the proposed models. Assuming a correct speci_ed distribution, the incorporation of this information about outcome response in the model produces more eficient likelihood estimates. / É sabido que a área de modelagem estatística por regressão sofreu um grande impulso desde o desenvolvimento dos modelos lineares generalizados (MLGs) no início da década de 70 do Século XX, propostos por Nelder e Wedderburn (1972). A teoria dos MLGs pode ser interpretada como uma generalização do modelo de regressão linear tradicional, em que a variável resposta não precisa necessariamente assumir a distribuição normal, e sim, qualquer distribuição pertencente à família exponencial de distribuições. Em algumas situações, porém, a distribuição da variável resposta Se originalmente fruto de uma outra distribuição discreta ou contínua, ou seja, a variável resposta tem uma distribuição original que não Se a usualmente considerada. Um exemplo desta situação Se a dicotomização de uma variável discreta ou contínua por meio de um ponto de corte arbitrário. Além disso, a variável resposta pode estar relacionada, de alguma forma, com uma outra variável de interesse. Nesse trabalho propomos uma família de modelos de regressão com a informação da variável resposta original, cuja distribuição de probabilidades ou função densidade de probabilidade pertence à família exponencial. O modelo de regressão logística com resposta normal e log-normal desenvolvido por Suissa e Blais (1995) Se apresentado como caso particular dos modelos de regressão com resposta de origem. Para a resposta de origem normal consideramos os modelos logístico, exponencial, geométrico, Poisson e log-normal. Para a resposta de origem exponencial consideramos os modelos logístico, normal, geométrico, Poisson e log-normal. Em contribuição ao trabalho de Suissa e Blais atribuímos duas respostas discretas ao modelo logístico, geométrico e de Poisson, e também consideramos uma resposta contínua normal com estrutura heteroscedástica. Adicionalmente, propomos também o modelo logístico com resposta pertencente à classe de distribuições séries de potências inflacionadas considerando o caso particular da resposta geométrica zero inflacionada. Realizamos vários estudos com dados artificiais comparando o modelo de regressão proposto com a informação da distribuição de origem e o modelo de regressão usual. Dois conjuntos de dados reais também são considerados. Assumindo uma distribuição corretamente especificada, o modelo produz estimativas de máxima verossimilhança mais eficientes e estimativas intervalares mais precisas para os coeficientes de regressão.
115

Matriz de covariâncias do estimador de máxima verossimilhança corrigido pelo viés em modelos lineares generalizados com parâmetro de dispersão desconhecido. / Matrix of covariates of the bias-corrected maximum likelihood estimator in generalized linear models with unknown dispersion parameter.

BARROS, Fabiana Uchôa. 27 July 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-07-27T16:10:22Z No. of bitstreams: 1 FABIANA UCHÔA BARROS - DISSERTAÇÃO PPGMAT 2011..pdf: 444205 bytes, checksum: dd1ada684703bcb400e631c5f044668b (MD5) / Made available in DSpace on 2018-07-27T16:10:22Z (GMT). No. of bitstreams: 1 FABIANA UCHÔA BARROS - DISSERTAÇÃO PPGMAT 2011..pdf: 444205 bytes, checksum: dd1ada684703bcb400e631c5f044668b (MD5) Previous issue date: 2011-12 / Capes / Com base na expressão de Pace e Salvan (1997 pág. 30), obtivemos a matriz de covariâncias de segunda ordem dos estimadores de máxima verossimilhança corrigidos pelo viés de ordem n−1 em modelos lineares generalizados, considerando o parâmetro de dispersão desconhecido, porém o mesmo para todas as observações. A partir dessa matriz, realizamos modi cações no teste de Wald. Os resultados obtidos foram avaliados através de estudos de simulação de Monte Carlo. / Based on the expression of Pace and Salvan (1997 pág. 30), we obtained the second order covariance matrix of the of the maximum likelihood estimators corrected for bias of order n−1in generalized linear models, considering that the dispersion parameter is the same although unknown for all observations. From this matrix, we made modi cations to the Wald test. The results were evaluated through simulation studies of Monte Carlo.
116

Modelos aditivos generalizados para a avaliação da intenção de compra de consumidores

Souza, Erivaldo Lopes de 21 December 2012 (has links)
Made available in DSpace on 2015-05-08T14:53:27Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 1842165 bytes, checksum: 59f17268b1e23252f9bc9e0e37474638 (MD5) Previous issue date: 2012-12-21 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / In recent years, several studies have been published dealing on factors that influence consumer purchase intent in various economic sectors. In this line of work, we are specifically for the sector of collective buying, obtain regression models that could contribute to the study of the relationship between the purchase intention and the characteristics of market segments. The aim is to assist in the inclusion of this variable purchase intention in the process of choosing a target group, guiding decisions to meet more effectively service consumers. To achieve this goal, initially interviewed 384 Internet users in the city of João Pessoa, Paraíba, Brazil. Then the data obtained from interviews, were used to estimate those models. These models were based on assumptions of theories of the cognitive approach of consumer behavior, especially the Theory of Reasoned Action. The instrument used for data collection was a questionnaire containing market research questions related to psychological factors, socio-cultural and situational consumer. The most successful model was a generalized additive model with nine variables and nonparametric one end, obtained from smoothing splines. This model had a pseudo-R2 of 0,89 and allowed to reach a percentage of correct trials of the observations of the sample equal to 94%. With the aid of simulations, it was observed how the proposed model type is capable of assisting in selection of a target with a higher interest in the use of the service. It was also shown how the model can be used to evaluate production systems, in relation to more efficient service to customers intend to use the service. The generalized additive models were effective for identifying the presence of nonlinear relationships and were able to generate a high explanatory power of the propensity of individuals to use specific service. / Nos últimos anos, vários estudos foram publicados versando sobre fatores que influenciam a intenção de compra do consumidor em diversos setores econômicos. Nesta linha de trabalho, procurou-se, especificamente para o setor de compra coletivas, obter modelos de regressão que pudessem contribuir para o estudo da relação entre a intenção de compra e as características de segmentos de mercado. Visa-se com isso auxiliar na inclusão da variável intenção de compras no processo de escolha de um público-alvo, orientando decisões para satisfazer com maior eficiência consumidores do serviço. Para alcançar o objetivo, entrevistaram-se inicialmente 384 usuários de Internet da cidade de João Pessoa, Paraíba, Brasil. Em seguida os dados obtidos a partir de entrevistas, foram usados para estimar aqueles modelos. Esses modelos foram baseados em pressupostos de teorias da abordagem cognitiva do comportamento do consumidor, especialmente da Teoria da Ação Racional. O instrumento usado para a coleta de dados foi um questionário de pesquisa de mercado contendo questões ligadas a fatores psicológicos, sócio-culturais e situacionais do consumidor. O modelo mais bem sucedido foi um modelo aditivo generalizado com nove variáveis e com um termo não paramétrico, obtido a partir do método de suavização splines. Esse modelo apresentou um pseudo-R2 igual a 0,89 e possibilitou alcançar um percentual de acertos nos julgamentos das observações da amostra igual a 94%. Com o auxílio de simulações, verificou-se de que modo o tipo de modelo proposto é capaz de auxiliar na escolha de um público-alvo com maior interesse no uso do serviço. Apresentou-se ainda a maneira pela qual o modelo pode ser usado para avaliar sistemas produtivos, em relação ao atendimento mais eficiente de clientes que têm a intenção de utilizar o serviço. Os modelos aditivos generalizados mostraram-se eficientes para identificar a presença de relações não lineares e foram capazes de gerar um poder explicativo alto da propensão de indivíduos para utilizar um serviço específico.
117

Análise dos fatores de risco e do índice de exposição a LER/DORT dos trabalhadores em atividades repetitivas: estudo de caso

Leite, Sheysa Danyelle de Freitas 30 December 2013 (has links)
Made available in DSpace on 2015-05-08T14:53:37Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 958288 bytes, checksum: 96e8f893e65870e14e2f18b157219114 (MD5) Previous issue date: 2013-12-30 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / The objective of this study is to analyze the influence of risk factors on exposure to WMSD workers in repetitive activities in the footwear sector. Therefore, we analyzed the data for 71 workplaces in the productive area of a shoe company which are characterized by having a defined task cycle, and had the index of exposure to WMSD upper limbs calculated through the OCRA method. Data analysis was accomplished using the exploratory data analysis of WMSD and construction of a Generalized Linear Model (GLM). This model identified the factors that influence the rate of exposure the most and made it possible to quantify the possible chance of raising this index when risk factors are present in the workplaces. The factor indicated as the most influential one was the "sudden movements" factor, the presence of this factor increases the chance of raising the level of exposure in 2.12 times more than when this factor is not present. / O objetivo deste trabalho foi analisar os fatores de risco e o índice de exposição a LER/DORT dos trabalhadores em atividades repetitivas no setor calçadista.Para tanto foram analisados dados referentes a 71 postos de trabalho da área produtiva de uma empresa calçadista que se caracterizam por possuir um ciclo de tarefa definido, e que tiveram calculados o índice de exposição a LER/DORT nos membros superiores através do método OCRA. O tratamento dos dados foi realizado através da análise exploratória dos dados de LER/DORT e da construção de um Modelo Linear Generalizado (MLG).Este modeloidentificou os fatores que mais influenciam o índice de exposição e possibilitouquantificar a chance de elevação deste índice quando os fatores de risco estão presentes nos postos de trabalho. O fator indicado como o mais influente foi o fator movimentos bruscos , a presença deste fator aumenta a chance de se elevar o índice de exposição em 2,12 vezes a mais do que quando este fator não está presente.
118

Algoritmos de Monte Carlo generalizados e criticalidade no modelo de Ising dipolar e em proteínas descritas por um modelo mínimo / Generalized Monte Carlo algorithms and criticality in the dipolar Ising model and in proteins described by a minimal model

Leandro Gutierrez Rizzi 25 February 2013 (has links)
Sistemas complexos que apresentam interações competitivas são ubíquos na natureza. Obter descrições adequadas das propriedades termodinâmicas desses sistemas é um desafio para o entendimento de uma série de processos químicos e físicos. Soluções analíticas em termos da Mecânica Estatística são extremamente difíceis de serem obtidas para esses sistemas. Isso faz com que o uso de simulações numéricas seja, na maioria dos casos, a única abordagem possível. Nesta Tese avaliamos o desempenho de duas classes de algoritmos de Monte Carlo generalizados empregados na determinação da natureza das transições de fase em dois sistemas complexos: o modelo de Ising dipolar bidimensional (2D) e um modelo mínimo para descrever proteínas. Na primeira classe, a qual representa os algoritmos seriais, incluimos os algoritmos multicanônico (MUCA) e de amostragem entrópica (ES), também conhecidos como algoritmos de amostragem uniforme. Na segunda classe, que diz respeito aos algoritmos paralelizáveis, incluimos o algoritmo canônico de Metropolis associado ao método de troca entre réplicas (REM). Para ambas as classes introduzimos contribuições metodológicas visando o aumento da eficiência na obtenção das propriedades canônicas e microcanônicas dos modelos. No caso dos algoritmos de amostragem uniforme, caracterizamos protocolos baseados na contagem de viagens de ida e volta que otimizam a determinação dos pesos de amostragem, e dessa maneira, aumentam a eficiência na obtenção da densidades de estados. Com relação ao uso de simulações canônicas implementadas com o REM, introduzimos o método ST-WHAM-MUCA como uma nova maneira de calcular a entropia microcanônica, associando o inverso da temperatura estatística obtida via ST-WHAM às equações de recorrência do algoritmo MUCA. A partir de simulações canônicas para os dois modelos estudados, mostramos que a termoestatística microcanônica obtida via ST-WHAM é equivalente àquela obtida pelo algoritmo MUCA, mesmo para a região onde ocorrem transições de fase de primeira ordem e uma não concavidade é observada na entropia microcanônica. Além dos estudos sobre a metodologia empregada na implementação dos algoritmos, realizamos contribuições para o entendimento da criticalidade nos modelos. Em particular, determinamos os aspectos críticos no modelo de Ising dipolar 2D para dois cenários distintos. Para o Cenário I, onde apenas uma transição entre as fases de faixas e tetragonal é observada, empregamos o algoritmo MUCA aliado à metodologia de obtenção dos zeros complexos da função de partição canônica. Nesse caso, foi possível determinar a natureza contínua da transição de fase faixas tetragonal, excluindo um possível ponto trícritico, como sugerido na literatura para a região h=1 do diagrama de fases. Para o Cenário II, o qual descreve uma região que apresenta duas transições de fase em decorrência do aparecimento de uma fase nemática entre as fases de faixas e tetragonal, mostramos que o algoritmo MUCA apresenta problemas mesmo para redes pequenas. Utilizando o algoritmo de Metropolis associado ao REM, realizamos simulações para uma rede de tamanho L=72. A partir da análise via ST-WHAM dessas simulações, obtivemos estimativas para o inverso da temperatura microcanônica, as quais sugerem que ambas transições de fase, faixas-nemática e nemática-tetragonal, sejam de primeira ordem, excluindo a possibilidade de uma transição de Kosterlitz-Thouless (KT). Também realizamos simulações utilizando o algoritmo de Metropolis associado ao REM para estudar a criticalidade em proteínas descritas por um modelo mínimo. Nesse estudo caracterizamos a termoestatística microcanônica das transições de enovelamento de quatro cadeias polipeptídicas com conhecida propensidade à formação de agregados. Nossos resultados sugerem que a ausência de barreiras na energia livre favorece a presença de conformações parcialmente desenoveladas, o que facilitaria a agregação das proteínas. Por fim, introduzimos o raio de giração hidrofóbico como parâmetro de ordem para a transição de enovelamento. Além de fornecer resultados condizentes com a descrição microcanônica, essa quantidade pode ser utilizada mesmo que não existam informações sobre o estado nativo. / Complex systems which present competitive interactions are ubiquitous in nature. Obtaining adequate descriptions of the thermodynamic properties of these systems is a major challenge to understand many chemical and physical processes. Analytical solutions in terms of Statistiscal Mechanics are extremely hard to obtain for these systems. Thus, in most cases numerical simulations become the only possible approach. In this Thesis we evaluate the performance of two categories of generalized Monte Carlo algorithms employed to determine the nature of phase transitions in two complex systems: the two-dimensional (2D) dipolar Ising model and a minimal model to describe proteins. In the first category, which represents serial algorithms, we include the multicanonical (MUCA) and entropic sampling (ES) algorithms, which are known as flat histogram algorithms. In the second category, which concerns parallelizable algorithms, we include the Metropolis algorithm associated with replica exchange method (REM). For both categories we introduce methodological contributions aiming the increase of efficiency in obtaining the canonical and microcanonical properties of the models. In case of flat histogram algorithms, we characterized protocols based on round trip counting to optimize the determination of the sampling weights, and therefore increasing the efficiency in obtaining the density of states. Regarding the use of canonical simulations implemented with REM, we introduce ST-WHAM-MUCA as a new method to evaluate the microcanonical entropy, associating the inverse of the statistical temperature obtained from ST-WHAM with the recursions equations of MUCA algorithm. From canonical simulations for both models, we show that the microcanonical thermostatistics obtained via ST-WHAM is equivalent to that obtained by MUCA algorithm, even for a region where a first order phase transition takes place and a non concavity is observed in the microcanonical entropy. In addition to the studies about the methodology employed in implementation of the algorithms, we present the contributions we make to understand the criticality in the models. In particular, we determined the critical aspects of the 2D dipolar Ising model for two different scenarios. For Scenario I, where only one transition is between the stripe and tetragonal phases is observed, we use MUCA algorithm associated with the analysis of the complex zeros from the canonical partition function. In this case, it was possible to determine the continuous character of the stripe-tetragonal phase transition, excluding the existente of a tricritical point, as suggested in the literature for the h=1 region in the phase diagram. For Scenario II, which describe a region that presents two phase transitions due to the appearance of a nematic phase between the stripe and tetragonal phases, we show that the MUCA algorithm present problems even for small lattices. Using the canonical Metropolis algorithm with REM, we run simulations for a lattice with size L=72. From ST-WHAM analysis of these simulations, we obtained estimates for the microcanonical inverse temperature, which suggests that both phase transitions, stripe-nematic and nematic tetragonal, are first order, excluding the possibility of a Kosterlitz-Thouless (KT) transition. We also performed simulations using the canonical Metropolis algorithm associated with the REM to study the criticality in proteins described by a minimal model. In this study we characterized the microcanonical thermostatistics of the folding transitions of four polypeptide chains with known propensity to form aggregates. Our results suggest that the absence of a free-energy barrier favors the presence of partial unfolded conformations, which could facilitate the aggregation of the proteins. Finally, we introduce the hydrophobic radius of gyration as an order parameter for the folding transition. In addition to provide consistent results with the microcanonical description, this quantity can be used even if there is no information about the native state.
119

Modelos lineares generalizados mistos para dados longitudinais. / Generalized linear mixed models in longitudinal data.

Silvano Cesar da Costa 13 March 2003 (has links)
Experimentos cujas variaveis respostas s~ ao proporcoes ou contagens, sao muito comuns nas diversas areas do conhecimento, principalmente na area agricola. Na analise desses experimentos, utiliza-se a teoria de modelos lineares generalizados, bastante difundida (McCullagh & Nelder, 1989; Demetrio, 2001), em que as respostas sao independentes. Caso a variancia estimada seja maior do que a esperada, estima-se o parametro de dispersao, incluindo-o no processo de estimaçao dos parametros. Quando a variavel resposta e observada ao longo do tempo, pode haver uma correlacao entre as observacoes e isso tem que ser levado em consideracao na estimacao dos parametros. Uma forma de se trabalhar essa correlacao e aplicando a metodologia de equacoes de estimacao generalizada (EEG), discutida por Liang & Zeger (1986), embora, neste caso, o interesse esteja nas estimativas dos efeitos fixos e a inclusao da matriz de correlacao de trabalho sirva para se obter um melhor ajuste. Uma outra alternativa e a inclusao, no preditor linear, de um efeito latente para captar variabilidades nao consideradas no modelo e que podem in uenciar nos resultados. No presente trabalho, usa-se uma forma combinada de efeito aleatorio e parametro de dispersao, incluidos conjuntamente na estimacao dos parametros. Essa metodologia e aplicada a um conjunto de dados obtidos de um experimento com camu-camu, com objetivo de se avaliarem quais os melhores metodos de enxertia e tipos de porta-enxertos que podem ser utilizados, atraves da proporcao de pegamentos da muda. Varios modelos sao ajustados, desde o modelo em parcelas subdivididas (supondo independencia), ate o modelo em que se considera o parametro de dispersao e efeito aleatorio conjuntamente. Ha evidencias de que o modelo em que se inclui o efeito aleatorio e o parametro de dispersao, conjuntamente, resultam em melhores estimativas dos parametros. Outro conjunto de dados longitudinais, com milho transgenico MON810, em que a variavel resposta e o numero de lagartas (Spodoptera frugiperda), e utilizado. Neste caso, devido ao excesso de respostas zero, emprega-se o modelo de regressao Poisson in acionado de zeros (ZIP), alem do modelo Poisson padrao, em que as observacoes sao consideradas independentes, e do modelo Poisson in acionado de zeros com efeito aleatorio. Os resultados mostram que o efeito aleatorio incluido no preditor foi nao significativo e, assim, o modelo adotado e o modelo de regressao Poisson in acionado de zeros. Os resultados foram obtidos usando-se os procedimentos NLMIXED, GENMOD e GPLOT do SAS - Statistical Analysis System, versao 8.2. / Experiments which response variables are proportions or counts are very common in several research areas, specially in the area of agriculture. The theory of generalized linear models, well difused (McCullagh & Nelder, 1989; Demetrio, 2001), is used for analyzing these experiments where the responses are independent. If the estimated variance is greater than the expected variance, the dispersion parameter is estimated including it on the parameter estimation process. When the response variable is observed over time a correlation among observations might occur and it should be taken into account in the parameter estimation. A way of dealing with this correlation is applying the methodology of generalized estimating equations (GEEs) discussed by Liang & Zeger (1986) although, in this case, the interest is on the estimates of the xed efect being the inclusion of a working correlation matrix useful to obtain more accurate estimates. Another alternative is the inclusion of a latent efect in the linear predictor to explain variabilities not considered in the model that might in uence the results. In this work the random efect and the dispersion parameter are combined and included together in the parameter estimation. Such methodology is applied to a data set obtained from an experiment realized with camu-camu to evaluate, through proportion of grafting well successful of seedling, which kind of grafting and understock are suitable to be used. Several models are fitted, since the split plot model (with independence assumption) up to the model where the dispersion parameter and the random efect are considered together. There is evidence that the model including the random efect and the dispersion parameter together, produce better estimates of the parameters. Another longitudinal data set used here comes from an experiment realized with the MON810 transgenic corn where the response variable is the number of caterpillars (Spodoptera frugiperda). In this case, due to the excessive number of zeros obtained, the zero in ated Poisson regression model (ZIP) is used in addition to the standard Poisson model, where observations are considered independent, and the zero in ated Poisson regression model with random efect. The results show that the random efect included in the linear predictor was not significant and, therefore, the adopted model is the zero in ated Poisson regression model. The results were obtained using the procedures NLMIXED, GENMOD and GPLOT available on SAS - Statistical Analysis System, version 8.2.
120

Modelo linear parcial generalizado simétrico / Linear Model Partial Generalized Symmetric

Julio Cezar Souza Vasconcelos 06 February 2017 (has links)
Neste trabalho foi proposto o modelo linear parcial generalizado simétrico, com base nos modelos lineares parciais generalizados e nos modelos lineares simétricos, em que a variável resposta segue uma distribuição que pertence à família de distribuições simétricas, considerando um preditor linear que possui uma parte paramétrica e uma não paramétrica. Algumas distribuições que pertencem a essa classe são as distribuições: Normal, t-Student, Exponencial potência, Slash e Hiperbólica, dentre outras. Uma breve revisão dos conceitos utilizados ao longo do trabalho foram apresentados, a saber: análise residual, influência local, parâmetro de suavização, spline, spline cúbico, spline cúbico natural e algoritmo backfitting, dentre outros. Além disso, é apresentada uma breve teoria dos modelos GAMLSS (modelos aditivos generalizados para posição, escala e forma). Os modelos foram ajustados utilizando o pacote gamlss disponível no software livre R. A seleção de modelos foi baseada no critério de Akaike (AIC). Finalmente, uma aplicação é apresentada com base em um conjunto de dados reais da área financeira do Chile. / In this work we propose the symmetric generalized partial linear model, based on the generalized partial linear models and symmetric linear models, that is, the response variable follows a distribution that belongs to the symmetric distribution family, considering a linear predictor that has a parametric and a non-parametric component. Some distributions that belong to this class are distributions: Normal, t-Student, Power Exponential, Slash and Hyperbolic among others. A brief review of the concepts used throughout the work was presented, namely: residual analysis, local influence, smoothing parameter, spline, cubic spline, natural cubic spline and backfitting algorithm, among others. In addition, a brief theory of GAMLSS models is presented (generalized additive models for position, scale and shape). The models were adjusted using the package gamlss available in the free R software. The model selection was based on the Akaike criterion (AIC). Finally, an application is presented based on a set of real data from Chile\'s financial area.

Page generated in 0.0667 seconds